Sistemas de Governan - PowerPoint PPT Presentation

About This Presentation
Title:

Sistemas de Governan

Description:

Sistemas de Governan a (Enforcement Systems) Viviane Torres da Silva viviane.silva_at_ic.uff.br http://www.ic.uff.br/~viviane.silva/sma – PowerPoint PPT presentation

Number of Views:78
Avg rating:3.0/5.0
Slides: 62
Provided by: Vivia114
Category:

less

Transcript and Presenter's Notes

Title: Sistemas de Governan


1
Sistemas de Governança(Enforcement Systems)
  • Viviane Torres da Silva
  • viviane.silva_at_ic.uff.br
  • http//www.ic.uff.br/viviane.silva/sma

2
Sistemas de Governança
  • O que regular?
  • A interação entre o agentes
  • Acesso a recursos
  • Qualquer ação do agente
  • Como regular?
  • Impedir que o agente viole uma norma
  • Punir o agente que violou normas

3
Ameli 1 e LGI 2
  • Regulam a interação entre os agentes
  • Proíbem que os agentes violem normas
  • Toda mensagem enviada entre os agentes é
    verificada antes do seu envio
  • Se a mensagem viola uma norma, ela não é enviada
  • Problemas
  • Violam a privacidade do agente. Alguém tem que
    saber o quê o agente quer enviar
  • Violam a autonomia do agente pois impede que o
    agente faça o que deseja
  • Não regulam ações que não são de interação

4
Ameli
  • As interações entre os agentes são intermediadas
    por Governadores
  • Cada agente possui um Governador
  • Ele recebe e envia mensagens para o seu
    Governador
  • Os governadores junto com os gerentes de cenas
    fazem a governança dos agentes
  • Eles conhecem a especificação do sistema (as
    cenas possíveis e as normas) para validar as
    ações dos agentes

5
LGI (Law Governed Interaction)
  • Faz a governança de leis (e não de normas)
  • LGI previne a violação de leis, e não reage as
    violações
  • Pode controlar 3 tipos de eventos
  • Os que envolvem troca de mensagem entre agentes
  • Falhas que podem ocorrer na transmissão de
    mensagens
  • Compromissos devido a obrigações
  • Tem o poder para mandar
  • Trocar a mensagem que está sendo enviada
  • Criar uma nova mensagem
  • Mudar o estado interno do agente
  • Controle o histórico de interações
  • Governa o comportamento de membros de uma mesma
    comunidade de agentes

6
LGI 3 Princípios básicos
  • A lei de uma comunidade pode regular a interação
    entre os membros da comunidade de uma maneira que
    pode ser sensível ao histórico de interações
  • A governança tem que ser local a comunidade a
    qual a lei se aplica
  • As leis devem ser governadas prevenindo a
    violação e de maneira descentralizada
  • Formação das leis
  • UPON e IF c DO o

7
LGI L(Law), I(Interpreter of law), S(State)
8
TuCSoN 3 I/II
  • Enfoca na governança de recursos
  • Agentes interagem através de um blackboard
    chamado tuple centers
  • Tuple centers são spaces (espaço de tuplas) com
    noção de especificação de comportamento
  • Especificação de políticas de controle de acesso
    aos tuple center
  • É possível especificar qual agente pode acessar
    cada tuple center (visibilidade)
  • É possível especificar que tipo de acesso pode
    ser feito por cada agente

9
TuCSoN II/II
  • ACLdefault_at_areaed1 lt
  • issue1editor1, insert papers,
  • issue1editor1, withdraw reviews,
  • publisher, everythinggt
  • Problema
  • Governança restrita para os recursos postos no
    espaço de tupla

10
Implementing Norms 4
  • Regula as mensagens públicas e as ações visíveis
    pelo sistema de governança
  • Inclui dicas de como detectar a violação para
    cada tipo de norma
  • Ex criação de uma lista de ações negras e um
    mecanismo para informar se uma determinada ação
    foi executada
  • Problema
  • Não regula as mensagens que não são publicas, e
    sim privadas entre dois agentes
  • Não regula as ações que não visíveis pelo sistema
    de governança

11
Sistema de Governança 5
  • Sistema governa o comportamento dos agentes
    baseado nos testemunhos que recebe de outros
    agentes sobre violações de normas por terceiros
  • Governa qualquer tipo de ação mesmo sendo pública
    ou privada
  • Mensagens publicas ou privadas testemunhas por
    aqueles que receberam (ou deveriam ter recebido)
    as mensagens
  • Outras ações publicas ou privadas por qualquer
    agente que vê (ou deveria ter visto) o evento
    conseqüente da execução da ação

12
Assume que...
  1. Todo agente tem que conhecer todas as normas
    aplicadas a ele
  2. Todo agente tem que conhecer todas as normas que
    influenciam seu comportamento
  3. Todo agente é capaz de enviar testemunhos sobre
    violações de normas
  4. Algumas violações podem ter sido ignoradas ou não
    observadas
  5. Agentes pode enviar falso testemunhos
  6. O mecanismo pode possuir agentes específicos para
    ajudar na governança (policiais)

13
Arquitetura
14
Referencias
  • Ameli M. Esteva, J. A. Rodr guez-Aguilar, B.
    Rosell, and J. L. Arcos. AMELI An Agent-based
    Middleware for Electronic Institutions. In
    Proceedings of the 3rd International Joint
    Conference on Autonomous Agents and Multi-Agent
    Systems (AAMAS 2004), pages 236--243, New York,
    USA, 2004.
  • LGI Minsky, N. H. (2005) Law Governed
    Interaction (LGI) A Distributed Coordination and
    Control Mechanism
  • TuCSoN Cremonini, M. Omicini, A Zambonelli, F.
    Coordination and Access Control in Open
    Distributed Agent Systems The TuCSoN Approach.
    In Proceedings of the 4th International
    Conference on Coordination Languages and Models,
    LNCS 1906, Springer-Verlag, London, 2000, pp
    99-114.
  • Vázquez-Salceda, J., Aldewereld, H., Dignum, F.
    Implementing Norms in Multiagent Systems. LNAI
    3187. Springer-Verlag (2004) 313 327
  • Silva, V. Duran, F. Guedes, J., Lucena, C.
    Governing Multi-Agent Systems, In Journal of
    Brazilian Computer Society, special issue on
    Software Engineering for Multi-Agent Systems,
    number 2 volume 13, SBC, pp. 19-34, 2007. ISSN
    0104-6500

15
Modelos e Sistemas de Reputação
  • Viviane Torres da Silva
  • viviane.silva_at_ic.uff.br
  • http//www.ic.uff.br/viviane.silva/sma

16
Modelos e Sistemas de Reputação
  • O que são?
  • Modelos centralizados x descentralizados x
    híbridos
  • Regret
  • FIRE
  • Report

17
Motivação
  • Sistemas multi-agentes aberto
  • São sociedades de agentes heterogêneos e
    desenvolvidos por diferentes desenvolvedores que
    pode interagir para alcançar objetivos comuns ou
    diferentes
  • Agentes necessitam saber quais são os agentes nos
    quais podem confiar
  • Agente A deseja um serviço que C sabe executar
  • A nunca interagiu com C
  • A não sabe se C é confiável ou não
  • Como saber se um agente é confiável ou não?

18
Sistemas de Reputação
  • Agentes avaliam o comportamento de outros agentes
  • Mal comportamento ? má reputação
  • Bom comportamento ? boa reputação
  • Sistemas de reputação clássicos
  • eBay e Amazon
  • Recebem informação sobre a satisfação com as
    interações, i.e., recebem as reputações dos
    agentes
  • São pessoas que enviam estas informações

19
Sistemas de Reputação
  • Objetivo avaliar o comportamento dos agente e
    proporcionar as reputações dos agentes
  • Modelo de Reputação Centralizado
  • Modelo de Reputação Descentralizado

20
Modelo de Reputação Centralizado
  • Exemplo eBay e Amazon

21
Modelo de Reputação Centralizado
  • Vantagens
  • A reputação é sempre conhecida
  • A reputação está sempre atualizada pois é calcula
    através da informação que recebem de outros
    agentes
  • Desvantagens
  • Os agentes não são capazes de armazenar as
    reputações dos agentes com os quais interagiram
  • Não existe nenhum mecanismo para verificar se a
    informação fornecida é verdadeira ou falsa
  • Oferecem uma única reputação global, não
    consideram contextos diferentes

22
Modelo de Reputação Simples e Descentralizado
23
Modelo de Reputação Simples e Descentralizado
  • Vantagens
  • Os agentes, que podem estar executando em um
    sistema multi-agentes de larga escapa e
    distribuído, não necessitam se comunicar com um
    mecanismo centralizado
  • Cada agente é capaz de armazenar a reputação dos
    outros agente desde seu ponto de vista
  • Desvantagens
  • É necessário interagir com o agente primeiro para
    depois conhecer sua reputação
  • A reputação que um agente conhece de outro agente
    pode não estar atualizada se faz tempo que os
    agentes não interagem

24
Modelo de Reputação Baseado em Testemunhos
25
Modelo de Reputação Baseado em Testemunhos
  • Vantagens
  • Possibilidade de conhecer a reputação de um
    agente antes de interagir com ele
  • Desvantagens
  • Em sistemas com muitos agentes pode custar muito
    encontrar agentes que já interagiram com o agente
    desejado
  • As reputação dos agentes são baseadas no ponto de
    vista do agente que está fazendo a avaliação
  • Pode ser difícil interagir muito com um agente
    para poder fornecer uma reputação consistente
  • Se um agente não conhece o agente que está
    enviando a reputação, como confiar na reputação
    recebida?

26
Modelo de Reputação Baseado em Reputações
Certificadas
0,9
27
Modelo de Reputação Baseado em Reputações
Certificadas
  • Vantagens
  • Não é necessário buscar agentes que já tenham
    interagido com o agente desejado
  • Desvantagens
  • A reputação do agente pode estar superestimada
  • As reputações certificadas são influenciadas pelo
    ponto de vista do agente que as calculou

28
Modelo de Reputação Híbrido
29
Modelo de Reputação Híbrido
  • Os agentes não são capazes de armazenar as
    reputações dos agentes com os quais interagiram
  • Não existe nenhum mecanismo para verificar se a
    informação fornecida é verdadeira ou falsa
  • Oferecem uma única reputação global, não
    consideram contextos diferentes
  • É necessário interagir com o agente primeiro para
    depois conhecer sua reputação
  • A reputação que um agente conhece de outro agente
    pode não estar atualizada se os agentes
    interagiram a muito tempo
  • Em sistemas com muitos agentes pode custar muito
    encontrar agentes que já interagiram com o agente
    desejado
  • As reputações dos agentes são baseadas no ponto
    de vista do avaliador
  • Pode ser difícil interagir muito com um agente
    para poder fornecer uma reputação relevante
  • Se um agente não conhece o agente que está
    enviando a reputação, como confiar na reputação
    recebida?
  • A reputação de agente pode estar superestimada
  • As reputações certificadas são influenciadas pelo
    ponto de vista do agente que as calculou

Centralizado
Simples
Desvantagens de outros modelos
Testemunhos
Certificada
30
Sistema de Reputação Regret 1
  • Dimensão Individual
  • Modelagem das interações diretas dos agentes
  • Confiança direta avalia cada elemento do
    contrato
  • Ex qualidade do produto, preço, data de entrega,
  • Dimensão Social
  • Utiliza testemunhos enviados por outros agentes
  • Reputação baseada em testemunhos reputação
    construída com informações enviadas por outros
    agentes
  • Reputação baseada no sistema reputação atribuída
    com base em comportamento de outros agentes
    desempenhando os mesmos papéis

31
Sistema de Reputação Regret 1
  • Dimensão Ontológica
  • Combina diferentes reputações
  • Modelo descentralizado simples
  • Dimensão individual
  • Modelo descentralizado baseado em testemunhos
  • Reputação baseada em testemunhos

32
Sistema de Reputação FIRE 2
  • Reputação de interação (ou direta)
  • Modela as interações diretas
  • Reputação por papel
  • Atribui uma reputação ao agente se baseando em
    reputações de interações que obteve quando
    interagiu com outros agentes desempenhando o
    mesmo papel
  • Reputação por testemunha
  • Reputação construída se baseando na informação
    enviada por outros agentes
  • Reputação certificada
  • Informação enviada por outros agentes sobre seu
    comportamento em interações passadas

33
Sistema de Reputação FIRE 2
  • Modelo descentralizada simples
  • Reputação por interação
  • Reputação por papel
  • Modelo descentralizado baseado em testemunhos
  • Reputação por testemunho
  • Modelo descentralizado baseado em reputação
    certificada
  • Reputação certificada

34
Sistema Híbrido para Governar os Agentes 4
  • O sistema governa o comportamento dos agentes
    através de um conjunto de normas (ou leis)
  • O sistema estabelece um conjunto de normas
  • Os agentes executam de acordo com as normas ou
    violando as normas
  • Quando um agente viola una norma, outro agente
    envia para o sistema seu testemunho sobre a
    violação
  • Os agentes podem mentir!!

35
Sistema Híbrido para Governar os Agentes 4
B 0,6 A 0,8
Judgment System
Reputation System REGRET
Bs and As reputations?
A is 90 guilt of violating N1
A is 90 guilt of violating N1
As reputation?
0,5
Application
Punishment System
As punishment
36
Sistema de Reputação Report 3
  • Recebe um veredicto do sistema de julgamento com
    a probabilidade do agente ter violado a norma
  • Veredicto agente probabilidade norma
  • Calcula a reputação do agente
  • A reputação de um agente pode variar entre 0,1
  • Armazena a reputação dos agentes
  • Armazena por contexto reputação por cada norma
    violada, reputação por cada papel desempenhado
    quando violou a norma, e reputação global

37
Sistema de Reputação Report 3
  • Tipos de reputação
  • Reputação por papel
  • Reputação de um agente quando desempenha um papel
  • Ex a reputação do agente como vendedor é 0,8
  • Reputação por norma
  • Reputação do agente em relação a una norma
  • Ex a reputação do agente em relação a norma
    entregar na data é 0,6
  • Reputação global
  • Reputação do agente independentemente do papel ou
    da norma
  • Ex a reputação do agente (como vendedor e
    comprador) é 0,7

38
Referências
  1. Fire T. Huynh, N. Jennings, and N. Shadbolt.
    Fire An integrated trust and reputation model
    for open multi-agent systems. In Proceedings of
    the 16th European Conference on Artificial
    Intelligence (ECAI), pages 1822, 2004.
  2. Regret J. Sabater and C. Sierra. Reputation and
    social network analysis in multi-agent systems.
    In Proceedings of First International Conference
    on Autonomous Agents and Multiagent Systems
    (AAMAS), pages 475482, 2002.
  3. Report Guedes, J. Silva, V. Lucena, C. A
    Reputation Model Based on Testimonies In Kolp,
    M. Garcia, A. Ghoze, C. Bresciani, P.
    Henderson-Sellers, B. Mouratidis, A. (Eds.),
    Agent Oriented Information Systems IV Proc. of
    the 8th International Bi-Conference Workshop
    (AOIS_at_AAMAS 2006 post-proceedings), LNCS 4898,
    Springer-Verlag, pp. 37-52, 2008.
  4. V. Silva, F. Duran, J. Guedes, and C. Lucena.
    Governing multi-agent systems. Journal of
    Brazilian Computer Science, 2(13)1934, 2007.
  5. Silva, V Hermoso, R. Centeno, R. A Hybrid
    Reputation Model Based on the Use of
    Organization, COIN_at_AAMAS 2007 post-proceedings,
    LNAI 5428, Springer-Verlag, pp. 111-125, 2009.

39
Raciocínio
  • Viviane Torres da Silva
  • viviane.silva_at_ic.uff.br
  • http//www.ic.uff.br/viviane.silva/sma

40
Raciocínio
  • Racionalização é o processo cognitivo de ver a
    razão para uma determinada crença, conclusão ou
    ação
  • Existem dois tipos de raciocínio
  • Raciocínio dedutivo
  • Raciocínio indutivo
  • Algoritmos utilizados
  • Encadeamento para traz (Backward channing)
  • Encadeamento para frente (Forward channing)
  • Lógica nebulosa

41
Raciocínio Dedutivo
  • O raciocínio dedutivo se baseia na análise de
    premissas, i.e., nas razões para chegar a
    conclusão
  • Se as premissas forem verdadeiras, a conclusao
    será verdadeira
  • Exemplo
  • Premissa 1 Todos os seres humanos são mortais
  • Premissa 2 João é um ser humano
  • Conclusão João é mortal
  • Varias lógicas formais foram propostas para
    descrever o raciocínio dedutivo
  • Lógica modal, lógica proposicional, lógica de
    predicados,

42
Raciocínio Indutivo I/II
  • A verdade das premissas não garantem a verdade da
    conclusão
  • A conclusão de um argumento indutivo descreve a
    probabilidade da conclusão ser verdadeira
  • Normalmente se utiliza quando é difícil ou
    impossível conhecer todos os fatos para chegar a
    conclusão

43
Raciocínio Indutivo II/II
  • Exemplo
  • Premissa O sol nasceu no oriente todas as manhãs
    até hoje
  • Conclusão O sol nascerá no oriente amanhã
  • Premissa Todas as pessoas que vi nesta cidade
    são baixas
  • Conclusão Todas as pessoas desta cidade são
    baixas

44
Forward channing e Backward channing
45
Regras IfThen
  • Uso de regras ifthen para fazer a representação
    do conhecimento em aplicações de Inteligência
    Artificial
  • Dois exemplos de algoritmos que se baseiam em
    regras ifthen
  • Forward chaining
  • Backward chaining
  • Forward channing utilizado para produzir novos
    fatos
  • Backward channing verifica se a conclusão é
    verdadeira ou falsa

46
Forward channing I/V
  • O encadeamento começa com o conjunto de dados
    disponíveis para alcançar a conclusão
  • Utiliza regras de inferência para extrair novos
    dados até alcançar a conclusão
  • Uma máquina de inferência que utiliza forward
    channing busca no conjunto de regras de
    inferência uma onde a condição no IF seja
    verdadeira
  • Quando encontra, a regra é executadas e a
    informação no THEN passa a ser verdade, i.e., o
    novo dado entra no conjunto de dados da máquina

47
Forward channing II/V
  • São três os elementos básicos
  • A base de regras e os fatos
  • A memória de trabalho para guardar os dados
    durante a inferência
  • A máquina de inferência que executa as regras
  • Exemplo
  • Regra 1 IF num_rodas lt 4 THEN
    veículobicicleta
  • Regra 2 IF num_rodas gt 4 and motorsim
  • THEN veículoveículo_motorizado
  • Regra 3 IF veículoveículo_motorizado and
    tamanhogrande
  • THEN veículoônibus

48
Forward channing III/V
  • Fatos iniciais na base de dados
  • Num_rodas4, motorsim, tamanhogrande
  • Regra 1 IF num_rodas lt 4 THEN
    veículobicicleta
  • Regra 2 IF num_rodas gt 4 and motorsim
  • THEN veículoveículo_motorizado
  • Regra 3 IF veículoveículo_motorizado and
    tamanhogrande
  • THEN veículoônibus

FALSO
VERDADEIRO
INCLUSÃO NA MEMÓRIA
VERDADEIRO
INCLUSÃO NA MEMÓRIA
49
Forward channing IV/V
  • Fatos finais na base
  • Num_rodas4
  • motorsim
  • tamanhogrande
  • veículoveículo_motorizado
  • veículoônibus

50
Backward channing I/IV
  • A conseqüência ou conclusão é avaliada primeiro
  • Utiliza as regras para responder perguntas que
    verificam se a conseqüência é verdadeira ou falsa
  • Somente as regras que são relevantes a pergunta
    são executadas

51
Exemplo Backward channing II/IV
  • Vamos supor que queremos saber se o veículo que
    temos é um ônibus
  • Começamos com a memória vazia
  • Testamos a regra que verifica se o veículo é um
    ônibus
  • Regra 3 IF transporteveículo_motorizado and
    tamanhogrande
  • THEN veículoônibus
  • Para que o veículo seja um autobús é necessário
    que as condiciones na regra 3 sejam verdadeiras

52
Exemplo Backward channing III/IV
  • A condição veículoveículo_motorizado está
    relacionada a regra 2, então
  • Para que as condiciones na regra 3 sejam
    verdades, é necessário que as condiciones na
    regra 2 sejam verdade
  • Regra 2 IF num_rodas gt 4 and motorsim
  • THEN veículoveículo_motorizado
  • Verifico se a informação num_rodas gt 4 e
    motorsim, e tamanhogrande estão na memória. Si
    não están, então perguntar ao usuário se seu
    veículo tem estas propriedades

53
Lógica Nebulosa (Fuzzy Logic)
54
Lógica Clássica
  • Uma declaração é verdadeira ou falsa
  • Uma declaração não pode ser ao mesmo tempo
    parcialmente verdadeira ou parcialmente falsa
  • A e A formam todas as possibilidades para A
  • Lógica difusa viola estas premissas

55
Lógica Nebulosa
  • Algo pode e deve coexistir com seu oposto
  • A experiência humana não pode ser classificada
    sempre como verdadeira ou falsa
  • O sim ou o não podem ser respostas incompleta
  • Alguém pode ter dúvida sobre a resposta
  • Conjunto da lógica clássica
  • O elemento pertence ou não ao conjunto
  • Conjunto nebuloso
  • A certeza com a que um elemento pertence ao
    conjunto varia entre 0,1

caliente
agradable
frío
56
Raciocínio na Lógica Nebulosa
  1. Transformação das variáveis do problema em
    valores nebulosos
  2. Aplicação dos operadores nebulosos
  3. Aplicação da implicação
  4. Combinação entre todas as saídas nebulosas
    possíveis
  5. Transformação de resultado nebuloso em resultado
    nítido

57
Raciocínio com Normas
58
Objetivo
  • Como um agente sabe o conjunto de normas
    aplicadas a ele?
  • Normas que estão ativas e que necessitam ser
    seguidas
  • Como um agente sabe que outros agentes violaram
    normas?
  • Normas violadas por outros agentes podem
    influenciar o comportamento de outro agente
  • Implementar um mecanismo que pode, de acordo com
    o conjunto de ações, dizer para os agentes quais
    são as normas ativas e as violadas

59
Implementando Normas com JESS
  • Jess é um sistema baseado em regras que mantém
    uma coleção de fatos na sua base de conhecimento
  • Fatos são incluídos na base de fatos e regras são
    ativadas de acordo com os novos fatos
  • Regras LHS gt RHS
  • LHS (left-hand side) lado esquerdo da regra
  • Fatos que foram incluídos na base
  • RHS (right-hand side) lado direito da regra
  • Fatos que serão incluídos na base

60
Implementando Normas com JESS
  • Fatos
  • As ações executadas pelos agentes
  • Os objetos no ambiente
  • A informação sobre as normas cumprida, ativa,
    inativa, e violada
  • A informação sobre as punições e os prêmios
  • Regras
  • Ativar e desativar uma norma
  • Informar sobre o cumprimento e a violação de uma
    norma
  • Informar sobre as punições e os prêmios de um
    agente

61
Normas x Regras em Jess
  • Cada norma normalmente está associada a 4 regras
    em Jess
  • Regra 1 Ativa a norma de acordo com as condições
    de ativação
  • Regra 2 Desativa a norma de acordo com as
    condições de desativação
  • Regra 3 Informa sobre o cumprimento da norma e
    os prêmios se a norma foi cumprida
  • Regra 4 Informa sobre a violação da norma e as
    punições se a norma foi violada
Write a Comment
User Comments (0)
About PowerShow.com