Title: Sistemas de Governan
1Sistemas de Governança(Enforcement Systems)
- Viviane Torres da Silva
- viviane.silva_at_ic.uff.br
- http//www.ic.uff.br/viviane.silva/sma
2Sistemas de Governança
- O que regular?
- A interação entre o agentes
- Acesso a recursos
- Qualquer ação do agente
- Como regular?
- Impedir que o agente viole uma norma
- Punir o agente que violou normas
3Ameli 1 e LGI 2
- Regulam a interação entre os agentes
- Proíbem que os agentes violem normas
- Toda mensagem enviada entre os agentes é
verificada antes do seu envio - Se a mensagem viola uma norma, ela não é enviada
- Problemas
- Violam a privacidade do agente. Alguém tem que
saber o quê o agente quer enviar - Violam a autonomia do agente pois impede que o
agente faça o que deseja - Não regulam ações que não são de interação
4Ameli
- As interações entre os agentes são intermediadas
por Governadores - Cada agente possui um Governador
- Ele recebe e envia mensagens para o seu
Governador - Os governadores junto com os gerentes de cenas
fazem a governança dos agentes - Eles conhecem a especificação do sistema (as
cenas possíveis e as normas) para validar as
ações dos agentes
5LGI (Law Governed Interaction)
- Faz a governança de leis (e não de normas)
- LGI previne a violação de leis, e não reage as
violações - Pode controlar 3 tipos de eventos
- Os que envolvem troca de mensagem entre agentes
- Falhas que podem ocorrer na transmissão de
mensagens - Compromissos devido a obrigações
- Tem o poder para mandar
- Trocar a mensagem que está sendo enviada
- Criar uma nova mensagem
- Mudar o estado interno do agente
- Controle o histórico de interações
- Governa o comportamento de membros de uma mesma
comunidade de agentes
6LGI 3 Princípios básicos
- A lei de uma comunidade pode regular a interação
entre os membros da comunidade de uma maneira que
pode ser sensível ao histórico de interações - A governança tem que ser local a comunidade a
qual a lei se aplica - As leis devem ser governadas prevenindo a
violação e de maneira descentralizada - Formação das leis
- UPON e IF c DO o
7LGI L(Law), I(Interpreter of law), S(State)
8TuCSoN 3 I/II
- Enfoca na governança de recursos
- Agentes interagem através de um blackboard
chamado tuple centers - Tuple centers são spaces (espaço de tuplas) com
noção de especificação de comportamento - Especificação de políticas de controle de acesso
aos tuple center - É possível especificar qual agente pode acessar
cada tuple center (visibilidade) - É possível especificar que tipo de acesso pode
ser feito por cada agente
9TuCSoN II/II
- ACLdefault_at_areaed1 lt
- issue1editor1, insert papers,
- issue1editor1, withdraw reviews,
- publisher, everythinggt
- Problema
- Governança restrita para os recursos postos no
espaço de tupla
10Implementing Norms 4
- Regula as mensagens públicas e as ações visíveis
pelo sistema de governança - Inclui dicas de como detectar a violação para
cada tipo de norma - Ex criação de uma lista de ações negras e um
mecanismo para informar se uma determinada ação
foi executada - Problema
- Não regula as mensagens que não são publicas, e
sim privadas entre dois agentes - Não regula as ações que não visíveis pelo sistema
de governança
11Sistema de Governança 5
- Sistema governa o comportamento dos agentes
baseado nos testemunhos que recebe de outros
agentes sobre violações de normas por terceiros - Governa qualquer tipo de ação mesmo sendo pública
ou privada - Mensagens publicas ou privadas testemunhas por
aqueles que receberam (ou deveriam ter recebido)
as mensagens - Outras ações publicas ou privadas por qualquer
agente que vê (ou deveria ter visto) o evento
conseqüente da execução da ação
12Assume que...
- Todo agente tem que conhecer todas as normas
aplicadas a ele - Todo agente tem que conhecer todas as normas que
influenciam seu comportamento - Todo agente é capaz de enviar testemunhos sobre
violações de normas - Algumas violações podem ter sido ignoradas ou não
observadas - Agentes pode enviar falso testemunhos
- O mecanismo pode possuir agentes específicos para
ajudar na governança (policiais)
13Arquitetura
14Referencias
- Ameli M. Esteva, J. A. Rodr guez-Aguilar, B.
Rosell, and J. L. Arcos. AMELI An Agent-based
Middleware for Electronic Institutions. In
Proceedings of the 3rd International Joint
Conference on Autonomous Agents and Multi-Agent
Systems (AAMAS 2004), pages 236--243, New York,
USA, 2004. - LGI Minsky, N. H. (2005) Law Governed
Interaction (LGI) A Distributed Coordination and
Control Mechanism - TuCSoN Cremonini, M. Omicini, A Zambonelli, F.
Coordination and Access Control in Open
Distributed Agent Systems The TuCSoN Approach.
In Proceedings of the 4th International
Conference on Coordination Languages and Models,
LNCS 1906, Springer-Verlag, London, 2000, pp
99-114. - Vázquez-Salceda, J., Aldewereld, H., Dignum, F.
Implementing Norms in Multiagent Systems. LNAI
3187. Springer-Verlag (2004) 313 327 - Silva, V. Duran, F. Guedes, J., Lucena, C.
Governing Multi-Agent Systems, In Journal of
Brazilian Computer Society, special issue on
Software Engineering for Multi-Agent Systems,
number 2 volume 13, SBC, pp. 19-34, 2007. ISSN
0104-6500
15Modelos e Sistemas de Reputação
- Viviane Torres da Silva
- viviane.silva_at_ic.uff.br
- http//www.ic.uff.br/viviane.silva/sma
16Modelos e Sistemas de Reputação
- O que são?
- Modelos centralizados x descentralizados x
híbridos - Regret
- FIRE
- Report
17Motivação
- Sistemas multi-agentes aberto
- São sociedades de agentes heterogêneos e
desenvolvidos por diferentes desenvolvedores que
pode interagir para alcançar objetivos comuns ou
diferentes - Agentes necessitam saber quais são os agentes nos
quais podem confiar - Agente A deseja um serviço que C sabe executar
- A nunca interagiu com C
- A não sabe se C é confiável ou não
- Como saber se um agente é confiável ou não?
18Sistemas de Reputação
- Agentes avaliam o comportamento de outros agentes
- Mal comportamento ? má reputação
- Bom comportamento ? boa reputação
- Sistemas de reputação clássicos
- eBay e Amazon
- Recebem informação sobre a satisfação com as
interações, i.e., recebem as reputações dos
agentes - São pessoas que enviam estas informações
19Sistemas de Reputação
- Objetivo avaliar o comportamento dos agente e
proporcionar as reputações dos agentes - Modelo de Reputação Centralizado
- Modelo de Reputação Descentralizado
20Modelo de Reputação Centralizado
21Modelo de Reputação Centralizado
- Vantagens
- A reputação é sempre conhecida
- A reputação está sempre atualizada pois é calcula
através da informação que recebem de outros
agentes - Desvantagens
- Os agentes não são capazes de armazenar as
reputações dos agentes com os quais interagiram - Não existe nenhum mecanismo para verificar se a
informação fornecida é verdadeira ou falsa - Oferecem uma única reputação global, não
consideram contextos diferentes
22Modelo de Reputação Simples e Descentralizado
23Modelo de Reputação Simples e Descentralizado
- Vantagens
- Os agentes, que podem estar executando em um
sistema multi-agentes de larga escapa e
distribuído, não necessitam se comunicar com um
mecanismo centralizado - Cada agente é capaz de armazenar a reputação dos
outros agente desde seu ponto de vista - Desvantagens
- É necessário interagir com o agente primeiro para
depois conhecer sua reputação - A reputação que um agente conhece de outro agente
pode não estar atualizada se faz tempo que os
agentes não interagem
24Modelo de Reputação Baseado em Testemunhos
25Modelo de Reputação Baseado em Testemunhos
- Vantagens
- Possibilidade de conhecer a reputação de um
agente antes de interagir com ele - Desvantagens
- Em sistemas com muitos agentes pode custar muito
encontrar agentes que já interagiram com o agente
desejado - As reputação dos agentes são baseadas no ponto de
vista do agente que está fazendo a avaliação - Pode ser difícil interagir muito com um agente
para poder fornecer uma reputação consistente - Se um agente não conhece o agente que está
enviando a reputação, como confiar na reputação
recebida?
26Modelo de Reputação Baseado em Reputações
Certificadas
0,9
27Modelo de Reputação Baseado em Reputações
Certificadas
- Vantagens
- Não é necessário buscar agentes que já tenham
interagido com o agente desejado - Desvantagens
- A reputação do agente pode estar superestimada
- As reputações certificadas são influenciadas pelo
ponto de vista do agente que as calculou
28Modelo de Reputação Híbrido
29Modelo de Reputação Híbrido
- Os agentes não são capazes de armazenar as
reputações dos agentes com os quais interagiram - Não existe nenhum mecanismo para verificar se a
informação fornecida é verdadeira ou falsa - Oferecem uma única reputação global, não
consideram contextos diferentes - É necessário interagir com o agente primeiro para
depois conhecer sua reputação - A reputação que um agente conhece de outro agente
pode não estar atualizada se os agentes
interagiram a muito tempo - Em sistemas com muitos agentes pode custar muito
encontrar agentes que já interagiram com o agente
desejado - As reputações dos agentes são baseadas no ponto
de vista do avaliador - Pode ser difícil interagir muito com um agente
para poder fornecer uma reputação relevante - Se um agente não conhece o agente que está
enviando a reputação, como confiar na reputação
recebida? - A reputação de agente pode estar superestimada
- As reputações certificadas são influenciadas pelo
ponto de vista do agente que as calculou
Centralizado
Simples
Desvantagens de outros modelos
Testemunhos
Certificada
30Sistema de Reputação Regret 1
- Dimensão Individual
- Modelagem das interações diretas dos agentes
- Confiança direta avalia cada elemento do
contrato - Ex qualidade do produto, preço, data de entrega,
- Dimensão Social
- Utiliza testemunhos enviados por outros agentes
- Reputação baseada em testemunhos reputação
construída com informações enviadas por outros
agentes - Reputação baseada no sistema reputação atribuída
com base em comportamento de outros agentes
desempenhando os mesmos papéis
31Sistema de Reputação Regret 1
- Dimensão Ontológica
- Combina diferentes reputações
- Modelo descentralizado simples
- Dimensão individual
- Modelo descentralizado baseado em testemunhos
- Reputação baseada em testemunhos
32Sistema de Reputação FIRE 2
- Reputação de interação (ou direta)
- Modela as interações diretas
- Reputação por papel
- Atribui uma reputação ao agente se baseando em
reputações de interações que obteve quando
interagiu com outros agentes desempenhando o
mesmo papel - Reputação por testemunha
- Reputação construída se baseando na informação
enviada por outros agentes - Reputação certificada
- Informação enviada por outros agentes sobre seu
comportamento em interações passadas
33Sistema de Reputação FIRE 2
- Modelo descentralizada simples
- Reputação por interação
- Reputação por papel
- Modelo descentralizado baseado em testemunhos
- Reputação por testemunho
- Modelo descentralizado baseado em reputação
certificada - Reputação certificada
34Sistema Híbrido para Governar os Agentes 4
- O sistema governa o comportamento dos agentes
através de um conjunto de normas (ou leis) - O sistema estabelece um conjunto de normas
- Os agentes executam de acordo com as normas ou
violando as normas - Quando um agente viola una norma, outro agente
envia para o sistema seu testemunho sobre a
violação - Os agentes podem mentir!!
35Sistema Híbrido para Governar os Agentes 4
B 0,6 A 0,8
Judgment System
Reputation System REGRET
Bs and As reputations?
A is 90 guilt of violating N1
A is 90 guilt of violating N1
As reputation?
0,5
Application
Punishment System
As punishment
36Sistema de Reputação Report 3
- Recebe um veredicto do sistema de julgamento com
a probabilidade do agente ter violado a norma - Veredicto agente probabilidade norma
- Calcula a reputação do agente
- A reputação de um agente pode variar entre 0,1
- Armazena a reputação dos agentes
- Armazena por contexto reputação por cada norma
violada, reputação por cada papel desempenhado
quando violou a norma, e reputação global
37Sistema de Reputação Report 3
- Tipos de reputação
- Reputação por papel
- Reputação de um agente quando desempenha um papel
- Ex a reputação do agente como vendedor é 0,8
- Reputação por norma
- Reputação do agente em relação a una norma
- Ex a reputação do agente em relação a norma
entregar na data é 0,6 - Reputação global
- Reputação do agente independentemente do papel ou
da norma - Ex a reputação do agente (como vendedor e
comprador) é 0,7
38Referências
- Fire T. Huynh, N. Jennings, and N. Shadbolt.
Fire An integrated trust and reputation model
for open multi-agent systems. In Proceedings of
the 16th European Conference on Artificial
Intelligence (ECAI), pages 1822, 2004. - Regret J. Sabater and C. Sierra. Reputation and
social network analysis in multi-agent systems.
In Proceedings of First International Conference
on Autonomous Agents and Multiagent Systems
(AAMAS), pages 475482, 2002. - Report Guedes, J. Silva, V. Lucena, C. A
Reputation Model Based on Testimonies In Kolp,
M. Garcia, A. Ghoze, C. Bresciani, P.
Henderson-Sellers, B. Mouratidis, A. (Eds.),
Agent Oriented Information Systems IV Proc. of
the 8th International Bi-Conference Workshop
(AOIS_at_AAMAS 2006 post-proceedings), LNCS 4898,
Springer-Verlag, pp. 37-52, 2008. - V. Silva, F. Duran, J. Guedes, and C. Lucena.
Governing multi-agent systems. Journal of
Brazilian Computer Science, 2(13)1934, 2007. - Silva, V Hermoso, R. Centeno, R. A Hybrid
Reputation Model Based on the Use of
Organization, COIN_at_AAMAS 2007 post-proceedings,
LNAI 5428, Springer-Verlag, pp. 111-125, 2009.
39Raciocínio
- Viviane Torres da Silva
- viviane.silva_at_ic.uff.br
- http//www.ic.uff.br/viviane.silva/sma
40Raciocínio
- Racionalização é o processo cognitivo de ver a
razão para uma determinada crença, conclusão ou
ação - Existem dois tipos de raciocínio
- Raciocínio dedutivo
- Raciocínio indutivo
- Algoritmos utilizados
- Encadeamento para traz (Backward channing)
- Encadeamento para frente (Forward channing)
- Lógica nebulosa
41Raciocínio Dedutivo
- O raciocínio dedutivo se baseia na análise de
premissas, i.e., nas razões para chegar a
conclusão - Se as premissas forem verdadeiras, a conclusao
será verdadeira - Exemplo
- Premissa 1 Todos os seres humanos são mortais
- Premissa 2 João é um ser humano
- Conclusão João é mortal
- Varias lógicas formais foram propostas para
descrever o raciocínio dedutivo - Lógica modal, lógica proposicional, lógica de
predicados,
42Raciocínio Indutivo I/II
- A verdade das premissas não garantem a verdade da
conclusão - A conclusão de um argumento indutivo descreve a
probabilidade da conclusão ser verdadeira - Normalmente se utiliza quando é difícil ou
impossível conhecer todos os fatos para chegar a
conclusão
43Raciocínio Indutivo II/II
- Exemplo
- Premissa O sol nasceu no oriente todas as manhãs
até hoje - Conclusão O sol nascerá no oriente amanhã
- Premissa Todas as pessoas que vi nesta cidade
são baixas - Conclusão Todas as pessoas desta cidade são
baixas
44Forward channing e Backward channing
45Regras IfThen
- Uso de regras ifthen para fazer a representação
do conhecimento em aplicações de Inteligência
Artificial - Dois exemplos de algoritmos que se baseiam em
regras ifthen - Forward chaining
- Backward chaining
- Forward channing utilizado para produzir novos
fatos - Backward channing verifica se a conclusão é
verdadeira ou falsa
46Forward channing I/V
- O encadeamento começa com o conjunto de dados
disponíveis para alcançar a conclusão - Utiliza regras de inferência para extrair novos
dados até alcançar a conclusão - Uma máquina de inferência que utiliza forward
channing busca no conjunto de regras de
inferência uma onde a condição no IF seja
verdadeira - Quando encontra, a regra é executadas e a
informação no THEN passa a ser verdade, i.e., o
novo dado entra no conjunto de dados da máquina
47Forward channing II/V
- São três os elementos básicos
- A base de regras e os fatos
- A memória de trabalho para guardar os dados
durante a inferência - A máquina de inferência que executa as regras
- Exemplo
- Regra 1 IF num_rodas lt 4 THEN
veículobicicleta - Regra 2 IF num_rodas gt 4 and motorsim
- THEN veículoveículo_motorizado
- Regra 3 IF veículoveículo_motorizado and
tamanhogrande - THEN veículoônibus
48Forward channing III/V
- Fatos iniciais na base de dados
- Num_rodas4, motorsim, tamanhogrande
- Regra 1 IF num_rodas lt 4 THEN
veículobicicleta - Regra 2 IF num_rodas gt 4 and motorsim
- THEN veículoveículo_motorizado
- Regra 3 IF veículoveículo_motorizado and
tamanhogrande - THEN veículoônibus
FALSO
VERDADEIRO
INCLUSÃO NA MEMÓRIA
VERDADEIRO
INCLUSÃO NA MEMÓRIA
49Forward channing IV/V
- Fatos finais na base
- Num_rodas4
- motorsim
- tamanhogrande
- veículoveículo_motorizado
- veículoônibus
50Backward channing I/IV
- A conseqüência ou conclusão é avaliada primeiro
- Utiliza as regras para responder perguntas que
verificam se a conseqüência é verdadeira ou falsa - Somente as regras que são relevantes a pergunta
são executadas
51Exemplo Backward channing II/IV
- Vamos supor que queremos saber se o veículo que
temos é um ônibus - Começamos com a memória vazia
- Testamos a regra que verifica se o veículo é um
ônibus - Regra 3 IF transporteveículo_motorizado and
tamanhogrande - THEN veículoônibus
- Para que o veículo seja um autobús é necessário
que as condiciones na regra 3 sejam verdadeiras
52Exemplo Backward channing III/IV
- A condição veículoveículo_motorizado está
relacionada a regra 2, então - Para que as condiciones na regra 3 sejam
verdades, é necessário que as condiciones na
regra 2 sejam verdade - Regra 2 IF num_rodas gt 4 and motorsim
- THEN veículoveículo_motorizado
- Verifico se a informação num_rodas gt 4 e
motorsim, e tamanhogrande estão na memória. Si
não están, então perguntar ao usuário se seu
veículo tem estas propriedades
53Lógica Nebulosa (Fuzzy Logic)
54Lógica Clássica
- Uma declaração é verdadeira ou falsa
- Uma declaração não pode ser ao mesmo tempo
parcialmente verdadeira ou parcialmente falsa - A e A formam todas as possibilidades para A
- Lógica difusa viola estas premissas
55Lógica Nebulosa
- Algo pode e deve coexistir com seu oposto
- A experiência humana não pode ser classificada
sempre como verdadeira ou falsa - O sim ou o não podem ser respostas incompleta
- Alguém pode ter dúvida sobre a resposta
- Conjunto da lógica clássica
- O elemento pertence ou não ao conjunto
- Conjunto nebuloso
- A certeza com a que um elemento pertence ao
conjunto varia entre 0,1
caliente
agradable
frío
56Raciocínio na Lógica Nebulosa
- Transformação das variáveis do problema em
valores nebulosos - Aplicação dos operadores nebulosos
- Aplicação da implicação
- Combinação entre todas as saídas nebulosas
possíveis - Transformação de resultado nebuloso em resultado
nítido
57Raciocínio com Normas
58Objetivo
- Como um agente sabe o conjunto de normas
aplicadas a ele? - Normas que estão ativas e que necessitam ser
seguidas - Como um agente sabe que outros agentes violaram
normas? - Normas violadas por outros agentes podem
influenciar o comportamento de outro agente - Implementar um mecanismo que pode, de acordo com
o conjunto de ações, dizer para os agentes quais
são as normas ativas e as violadas
59Implementando Normas com JESS
- Jess é um sistema baseado em regras que mantém
uma coleção de fatos na sua base de conhecimento - Fatos são incluídos na base de fatos e regras são
ativadas de acordo com os novos fatos - Regras LHS gt RHS
- LHS (left-hand side) lado esquerdo da regra
- Fatos que foram incluídos na base
- RHS (right-hand side) lado direito da regra
- Fatos que serão incluídos na base
60Implementando Normas com JESS
- Fatos
- As ações executadas pelos agentes
- Os objetos no ambiente
- A informação sobre as normas cumprida, ativa,
inativa, e violada - A informação sobre as punições e os prêmios
- Regras
- Ativar e desativar uma norma
- Informar sobre o cumprimento e a violação de uma
norma - Informar sobre as punições e os prêmios de um
agente
61Normas x Regras em Jess
- Cada norma normalmente está associada a 4 regras
em Jess - Regra 1 Ativa a norma de acordo com as condições
de ativação - Regra 2 Desativa a norma de acordo com as
condições de desativação - Regra 3 Informa sobre o cumprimento da norma e
os prêmios se a norma foi cumprida - Regra 4 Informa sobre a violação da norma e as
punições se a norma foi violada