Introduction aux systmes multiagents - PowerPoint PPT Presentation

1 / 58
About This Presentation
Title:

Introduction aux systmes multiagents

Description:

Pierre constate alors qu'une autre de ses intentions devient opportune, il abandonne son engagement de faire une th se et accepte le poste qu'on lui a offert. ... – PowerPoint PPT presentation

Number of Views:201
Avg rating:3.0/5.0
Slides: 59
Provided by: rogernkamb
Category:

less

Transcript and Presenter's Notes

Title: Introduction aux systmes multiagents


1
Introduction aux systèmes multi-agents
  • Roger Nkambou
  • Daniel Doubois

2
Introduction à la notion dagent
  • Comment formaliser le problème de construction
    dun agent ?
  • Dichotomie entre la notion dagent et de son
    environnement
  • Plus simple à traiter
  • Un agent est une entité qui perçoit et agit
  • Un agent est une fonction dune perception (ou
    séquence de percepts) à des actions

3
Agent
  • Percept unité élémentaire de perception (via
    des capteurs)
  • A un ensemble dactions (via des effecteurs)
  • Lagent possède une fonction f Pgt A
  • Agent architecture programme (implantation de
    f )

4
Exemples dagents
  • Agent humain
  • C yeux, oreilles, nez, etc.
  • E Mains, jambe, bouche, autres parties du corps
  • Agent robot
  • C cameras and capteurs infrarouges
  • E moteurs comme effecteurs
  • Agent logiciel
  • C Saisies de données, lecture d'un fichier,
    paquets réseau reçus comme des capteurs
  • E Affichage à l'écran, écriture de fichiers,
    paquets envoyés sur le réseau

5
Environnement de lagent aspirateur
  • 2 localisations A et B
  • Perceptions localisation et contenu,
    exADirty
  • Actions Left, Right, Suck, NoOp
  • Une fonction possible
  • Si la localisation courante est sale, alors
    aspirer, sinon aller à lautre localisation

6
Concept de rationalité
  • Un agent est rationnel sil effectue toujours
    laction appropriée étant donnée sa perception
    et ses actions possibles.
  • Quest-ce quune action appropriée?
  • Définie par une mesure de performance.
  • La rationalité de lagent dépend de 4 facteurs
  • La mesure de performance
  • Un agent est rationnel si pour toute séquence de
    percepts, il sélectionne laction qui maximise la
    mesure de performance rationnel réussi
  • La clairvoyance
  • Entretien une séquence percepts rationnel
    clairvoyant
  • Lomniscience
  • Sait tout sur son environnement rationnel
    omniscient ?
  • Les actions possibles
  • Ce que lagent sait faire rationnel capacité
    daction pertinente
  • Cela peut impliquer que dispose des capacités d
  • exploration, apprentissage, autonomie

7
Aspirateur exemple dagent rationnel
  • Lagent aspirateur est rationnel si
  • La mesure de performance accorde un point par
    case nettoyée
  • Lenvironnement de lagent est connu mais pas
    lemplacement initial de lagent ni la
    distribution de la poussière
  • Lagent perçoit correctement la case où il se
    trouve et sa propreté (ou pas)
  • Actions Droite, Gauche, Aspirer, NRF

8
Aspirateur  ex dagent non rationnel
  • Lagent aspirateur nest pas rationnel si
  • Sil continue des déplacements dans un
    environnement propre (actions non optimale)
  • Sil a une pénalité pour chaque déplacement un
    agent rationnel devrait minimiser les
    déplacements dans ce cas!
  • Si lenvironnement peut changer un agent
    rationnel devrait le vérifier périodiquement
    (révision des croyances)
  • Si lenvironnement est inconnu un agent
    rationnel devrait lexplorer.

9
Exemple de situation rationnelle
  • Situation se munir dun parapluie
  • Est-ce rationnel ?
  • Cela dépend de la météo, et de ma connaissance de
    la météo.
  • Si jai entendu le bulletin météo, que je le
    crois et que je pense quil va pleuvoir, alors il
    est rationnel de se munir dun parapluie.
  • Une action est considérée comme rationnelle si
    elle conduit à bien faire ce que lagent essaie
    de faire!
  • Cela nindique pas par exemple que ce que lagent
    essaie de faire est intelligent ou stupide.

10
Agent rationnel et environnement
  • Pour modéliser un agent rationnel, on doit
    spécifier lenvironnement où doit se dérouler la
    tâche de lagent
  • Lenvironnement représente le problème à résoudre
  • Lagent représente la solution
  • On doit définir les propriétés de cet
    environnement

11
Environnement dune tâche
  • PEAS (Performance, Environment, Actuators,
    Sensors)
  • Définir la mesure de performance
  • Notion de compromis en cas de conflits dans les
    objectifs à atteindre
  • Définir lenvironnement
  • Définir les capteurs
  • Définir les effecteurs

12
Ex Un agent taxi automatique
  • Mesure de performance?
  • Sécurité, arrivée à destination, minimisation du
    temps, maximisation du profit, minimisation de
    la consommation de carburant, légalité,
    maximisation du confort des passagers.
  • Environnement?
  • rues/autoroutes, trafic, piétons, météo
  • Effecteurs?
  • Contrôle de la direction, accélérateur, freins,
    klaxon, boite de vitesse,..
  • Capteurs?
  • Cameras Vidéo, accéléromètres, jauges, capteurs
    du moteur, clavier, GPS,

13
Ex Agent de shopping sur internet
  • Mesure de performance?
  • prix, qualité, pertinence, efficacité
  • Environnement?
  • Sites web, vendeurs, expéditeurs
  • Actuateurs?
  • Afficher à l'utilisateur, ouvrir lURL, remplir
    le formulaire
  • Capteurs?
  • pages HTML (textes, graphiques, scripts)

14
Propriétés de lenvironnement
  • Entièrement observable(vs. Partiellement
    observable)
  • Déterministe (vs. Non-Déterministe ou
    stochastique)
  • Episodique (vs séquentiel)
  • Statique (vs. Dynamique)
  • Discret (vs. Continu)
  • Mono-agent vs multi-agent

15
Entièrement observable(vs. Partiellement
observable)
  • Peut-on voir l état du monde directement?
  • Entièrement observable (vs. partiellement
    observable) lagent a accès en tout temps à
    toute linformation pertinente sur
    lenvironnement (on parle aussi détat)
  • Taxi automatique Partiellement accessible
  • Echecs accessible

16
Déterministe (vs. Non-Déterministe ou
stochastique)
  • Est-ce quune action conduit dun état à un seul
    autre état ?
  • Ex un agent qui conduit sur une route évolue
    dans un environnement stochastique (aléatoire)
  • Environnement déterministe échecs

17
Episodique (vs. Non-épisodique ou séquentiel)
  • Dans les environnements épisodiques,
    lexpérience de lagent est divisée en épisodes
    atomiques
  • Chaque épisode consiste en une perception de
    lagent et une action en réponse à cette
    perception
  • Le choix de laction dans chaque épisode dépend
    seulement de lépisode lui-même.
  • Exemple Tâche de classification
  • Dans les environnements séquentiels, la décision
    courante peut affecter les décisions futures
  • Exemples Echecs et taxi automatique

18
Statique (vs. Dynamique)
  • Est-ce que le monde peut changer pendant la
    délibération de lagent ?
  • Environnement statique mots-croisés
  • Environnement dynamique taxi automatique
  • Lorsque lenvironnement ne change pas mais que la
    performance de lagent change au fur et à mesure
    que le temps sécoule, on parle denvironnement
    semi-dynamique
  • Ex échecs chronométrés

19
Discret (vs. Continu)
  • Est-ce que les perceptions et les actions sont
    discrètes (comme des entiers) ou continues (comme
    les nombres réels)?
  • un nombre fini de perceptions et dactions
    différentes?
  • Exemple Les échecs ont un nombre fini détats
    discrets et disposent dun ensemble discret de
    perceptions et dactions
  • Le taxi automatique possède des états et des
    actions continus.

20
Mono-agent vs Multi-agent
  • Environnement mono-agent
  • Environnement multi-agent concurrentiel les
    échecs
  • Environnement multi-agent partiellement
    coopératif évitement de collisions par
    différents taxis automatiques
  • Environnement multi-agent partiellement
    concurrentiel trouver un stationnement
  • Communication entre les agents
  • Comportement stochastique souvent nécessaire!

21
Types denvironnement
Le type denvironnement détermine largement la
modélisation de lagent Le monde réel est
partiellement observable, non déterministe,
séquentiel, dynamique, continu, multi-agent
22
Structures dagents
  • 4 types de base
  • Les agents réflexes simples
  • Les agents réflexes fondés sur des modèles
  • Les agents fondés sur les buts
  • Les agents fondés sur lutilité
  • Agents évolués les agents capables
    dapprentissage

23
Les agents réflexes simples
Sélectionner des actions en fonction de la
perception courante et sans tenir compte de
lhistorique des perceptions
Règles condition-action
24
Implantation dun agent reflexe aspirateur
25
Inconvénients des agents reflexes
  • Les agents reflexes sont simples, mais leur
    intelligence est très limitée!
  • Lagent ne peut fonctionner que si une décision
    correcte peut être prise en fonction de la
    perception courante.
  • Lenvironnement doit être complètement observable
  • Pb des boucles infinies souvent rencontrées, on
    peut tenter dy remédier par un mécanisme de
    randomisation

26
Les agents réflexes fondés sur des modèles
  • Lagent doit connaître son environnement (ex
    mémorisation de la topologie de lenvironnement)
  • Lagent doit maintenir un état interne qui dépend
    de lhistorique des perceptions
  • La mise à jour de cet état interne nécessite deux
    types de connaissances à encoder dans lagent
  • Une information sur la manière dont le monde
    évolue indépendamment de lagent
  • Une information sur la manière dont les actions
    de lagent affectent lenvironnement

27
Agent possédant un modèle
28
Les agents fondés sur les buts
  • Connaitre létat courant de lenvironnement nest
    pas toujours suffisant pour décider de laction à
    accomplir (ex. décision à une jonction de route)
  • Lagent a besoin dune information sur le but qui
    décrit les situations désirables
  • Lagent peut alors combiner cette information
    avec linformation sur les résultats des actions
    possibles afin de choisir laction qui satisfait
    le but
  • Un tel agent nécessite des capacités de recherche
    et de planification

29
Les agents fondés sur les buts
30
Comparaison
  • Les agents basés sur les buts sont flexibles car
    la connaissance qui supporte leurs décisions est
    représentée explicitement et peut être modifiée
  • Pour lagent reflexe, les règles condition-action
    doivent être modifiées et réécrites dans toute
    nouvelle situation
  • Il est facile de modifier le comportement dun
    agent basé sur les buts

31
Les agents fondés sur lutilité
  • Les buts seuls ne sont pas suffisants pour
    générer un comportement intéressant dans beaucoup
    denvironnements. Ils permettent seulement de
    faire une distinction binaire entre les états
     satisfait  et  non satisfait 
  • Une mesure de performance plus générale doit
    permettre une comparaison entre les différents
    états du monde en fonction de la satisfaction
    exacte de lagent sils sont atteints.
  • Une fonction dutilité associe un nombre réel à
    un état. Ce nombre décrit le degré de
    satisfaction associé à létat.

32
Les agents fondés sur lutilité
33
Les agents capables dapprentissage
  • Turing Plutôt que de programmer des machines
    intelligentes à la main, ce qui nest pas
    vraiment réalisable, il faut construire des
    agents apprenants et les instruire de la tache à
    accomplir
  • Lapprentissage permet à lagent dopérer dans
    des environnements inconnus et de devenir plus
    compétents quinitialement.

34
En résumé
  • Les agents interagissent avec leur environnement
    à travers des effecteurs et des capteurs
  • La fonction de lagent décrit ce que lagent fait
    dans toute circonstance
  • La mesure de performance évalue le comportement
    de lagent dans son environnement
  • Un agent parfaitement rationnel maximise la
    performance attendue

35
Exemple darchitecture dagent agent BDI
(Définition)
  • Basée sur le modèle BDI (Croyance-Désir
    Intention)
  • BDI Belief, Desire and Intention
  • Croyances
  • informations que l'agent possède sur
    l'environnement et sur d'autres agents qui
    existent dans le même environnement.
  • Les croyances peuvent être incorrectes,
    incomplètes ou incertaines et sont donc
    différentes des connaissances de l'agent, qui
    sont des informations toujours vraies.
  • Les croyances peuvent changer au fur et à mesure
    que l'agent, par sa capacité de perception ou par
    l'interaction avec d'autres agents, recueille
    plus d'information.

36
Agent BDI (Définition)
  • BDI (suite)
  • Les désirs
  • représentent les états de l'environnement, et
    parfois de lui-même, que l'agent aimerait voir
    réalisés.
  • Un agent peut avoir des désirs contradictoires 
    dans ce cas, il doit choisir parmi ses désirs un
    sous-ensemble qui soit consistant.
  • Les intentions
  • sont les désirs que l'agent a décidé d'accomplir
    ou les actions qu'il a décidé de faire pour
    accomplir ses désirs.
  • Même si tous les désirs d'un agent sont
    consistants, l'agent peut ne pas être capable de
    les accomplir tous.

37
Architecture BDI (Fondement)
  • La théorie de laction rationnelle (proposée par
    Michael Bratman) est à la base du modèle BDI.
  • Cette théorie sinspire sur la façon dont les
    gens raisonnent dans la vie de tous les jours, en
    décidant, à chaque moment, ce qu'ils ont à faire.
  • Cette théorie montre que les intentions jouent un
    rôle fondamental dans le raisonnement pratique,
    car elles limitent les choix possibles qu'un
    humain (ou un agent artificiel) peut faire à un
    certain moment.
  • Illustration
  • L'agent Pierre a la croyance que, si quelqu'un
    passe son temps à étudier, cette personne peut
    faire une thèse de doctorat. En plus, Pierre a le
    désir de voyager beaucoup, de faire une thèse de
    doctorat et d'obtenir un poste d'assistant à
    l'université. Le désir de voyager beaucoup n'est
    pas consistant avec les deux autres et Pierre,
    après réflexion, décide de choisir, parmi ces
    désirs inconsistants, les deux derniers. Comme il
    se rend compte qu'il ne peut pas réaliser ses
    deux désirs à la fois, il décide de faire d'abord
    une thèse de doctorat. En ce moment Pierre a
    l'intention de faire une thèse et, normalement,
    il va utiliser tous ses moyens pour y parvenir.
    Il serait irrationnel de la part de Pierre, une
    fois sa décision prise, d'utiliser son temps et
    son énergie, notamment ses moyens, pour voyager
    autour du monde. En fixant ces intentions, Pierre
    a moins de choix à considérer car il a renoncé à
    faire le tour des agences de voyage pour trouver
    l'offre de voyage qui le satisferait au mieux.

38
Architecture BDI (Composantes)
revc B x P -gtB est la fonction de révision des
croyances de l'agent lorsqu'il reçoit de
nouvelles perceptions sur l'environnement, où P
représente l'ensemble des perceptions de
l'agent  elle est réalisée par la composante
Révision des croyances  options D x I-gtI est
la fonction qui représente le processus de
décision de l'agent prenant en compte ses désirs
et ses intentions courantes  cette fonction est
réalisée par la composante Processus de
décision  des B x D x I-gtD est la fonction
qui peut changer les désirs d'un agent si ses
croyances ou intentions changent, pour maintenir
la consistance des désirs de l'agent (on suppose
dans notre modèle que l'agent a toujours des
désirs consistants)  cette fonction est
également réalisée par la composante Processus de
décision  filtre B x D x I-gtI est la
fonction la plus importante car elle décide des
intentions à poursuivre  elle est réalisée par
la composante Filtre plan B x I-gt PE est la
fonction qui transforme les plans partiels en
plans exécutables, PE étant l'ensemble de ces
plans  elle peut utiliser, par exemple, une
bibliothèque de plans (LibP).
39
Architecture BDI (Algorithme de contrôle)
  • Reprenons l'exemple de Pierre introduit plus
    haut. Si Pierre a décidé que son intention est de
    faire une thèse de doctorat, il s'est alors
    obligé à cette intention. Pierre commence à
    travailler et faire sa recherche. Entre temps, il
    découvre qu'il n'aime pas trop travailler et
    qu'il préfère passer son temps avec ses amis dans
    les bistros. Pierre se rend compte que son
    intention est impossible à accomplir, ce qui le
    conduit à abandonner son intention de faire une
    thèse. Dans un autre cas, comme Pierre veut aussi
    gagner un peu d'argent, il prend un job dans une
    compagnie. Comme il est très éloquent et
    persuasif, on lui offre un poste dans la
    compagnie qui lui demande de voyager beaucoup
    pour représenter les intérêts de la compagnie.
    Pierre constate alors qu'une autre de ses
    intentions devient opportune, il abandonne son
    engagement de faire une thèse et accepte le poste
    qu'on lui a offert.
  • Soient B0, D0 et I0 les croyances, désirs et
    intentions initiales de l'agent.
  • Algorithme de contrôle d'agent BDI (par
    Woodridge)
  • 1      B B02      D D03      I I04     
    répéter            4.1    obtenir nouvelles
    perceptions p            4.2    B revc(B,
    p)            4.3    I options(D,
    I)            4.4    D des(B, D
    ,I)            4.5    I filtre(B, D,
    I)            4.6    PE plan(B, I)           
    4.7    exécuter(PE)        jusqu'à ce que
    l'agent soit arrêtéfin

La question est Combien de temps lagent
reste-t-il obligé par une intention ?
40
Architecture BDI (Algorithme de contrôle et
stratégies dobligation)
  • 3 principales stratégies d'obligation 
  • Obligation aveugle (ou obligation fanatique). Un
    agent suivant cette stratégie va maintenir ses
    intentions jusqu'à ce qu'elles soient réalisées,
    plus précisément jusqu'à ce qu'il croie qu'elle
    sont réalisées.
  • Pas bone pas efficace l'environnement change
    entre le moment où l'agent a choisi (filtré) ses
    intentions, et le moment où ces intentions
    doivent être accomplies.
  • Obligation limitée. L'agent va maintenir ses
    intentions, ou bien jusqu'à ce qu'elles soient
    réalisées, ou bien jusqu'à ce qu'il croie
    qu'elles ne sont plus réalisables.
  • Obligation ouverte. Lagent maintient ses
    intentions tant que ces intentions sont aussi ses
    désirs. Cela implique aussi que, une fois que
    l'agent a conclu que ses intentions ne sont plus
    réalisables, il ne les considère plus parmi ses
    désirs.

41
Arch. BDI (Algo de contrôle et stratégies
dobligation)
Algorithme de contrôle d'agent BDI avec
obligation ouverte 1      B B02      D
D03      I I04      répéter           
4.1    obtenir nouvelles perceptions
p            4.2    B revc(B, p)           
4.3    I options(D, I)            4.4    D
des(B, D ,I)            4.5    I filtre(B, D,
I)            4.6    PE plan(B, I)           
4.7 tant que (PEltgt et nonaccompli(I, B)
et possible(I, B))
répéter                     - x première(PE) 
exécuter(x)  - PE reste(PE)            
         - obtenir nouvelles perceptions
p                     - B revc(B,
p)                     - D des(B, D
,I)                     - I filtre(B, D,
I)                     - PE plan(B,
I)            fin tant que        jusqu'à ce
que l'agent soit arrêtéfin
  • Algorithme de contrôle d'agent BDI avec
    obligation limitée
  • 1      B B02      D D03      I I04     
    répéter            4.1    obtenir nouvelles
    perceptions p            4.2    B revc(B,
    p)            4.3    I options(D,
    I)            4.4    D des(B, D
    ,I)            4.5    I filtre(B, D,
    I)            4.6    PE plan(B, I)           
    4.7 tant que (PEltgt et nonaccompli(I, B) et
    possible(I, B)) répéter                     - x
    première(PE)  exécuter(x)  PE
    reste(PE)                     - obtenir
    nouvelles perceptions p                     - B
    revc(B, p)            fin tant que       
    jusqu'à ce que l'agent soit arrêtéfin

possible(I, B) est la fonction qui vérifie si,
après avoir obtenu la perception p sur
l'environnement et révisé ses croyances, les
intentions choisies sont encore réalisables 
nonaccompli(I, B) est la fonction qui vérifie
si, par hasard, les intentions de l'agent sont
déjà accomplies avant même que l'exécution de son
plan soit terminée.
42
BDI et architecture dagents réatifs
  • Une excellente architecture pour agent
    intelligent ou cognitif intégrant une grande
    capacité à raisonner.
  • Toutefois, les agents réactifs peuvent aussi
    donnés des résultants intéressants même dans des
    tâches complexes (Ex Exploration de Mars)
    pouvant nécessité lintelligence.
  • Lintelligence dans ces agents réactifs nen est
    pas une au sens IA du terme, mais une qui émerge
    de linteraction entre les composants simples ou
    entres les agents réactifs dans lenvironnement.
  • Nécessité davoir des architectures hybride
    combinant les vertus de la réactivité et du
    raisonnement.
  • Cest le cas de larchitecture InteRRaP
    (("Integration of Reactive Behavior and Rational
    Planning" Intégration du comportement réactif
    et planification rationnelle).

43
Quelques exemples doutil de construction de SMA
  • JADE (Java Agent DEvelopment Framework) Pour
    limplémentation de SMA à travers un middle-ware
    compatible FIPA (http//jade.tilab.com/community-3
    rdpartysw.htm)
  • JESS (Java Expert System Shell) c'est du CLIPS
    en Java. Il permet la construction d'agents selon
    les techniques des systèmes à base de règles
    (http//herzberg.ca.sandia.gov/docs/70/embedding.h
    tml)
  • Agent Factory Pour le prototypage rapide dagents
    intelligents (http//www.agentfactory.com/index.ph
    p/Main_Page/).
  • Cougaar Agent Architecture logiciel libre Java
    pour la construction de SMA
  • Jadex BDI Agent System (JADE extension) Extension
    de JADE Pour les agents BDI (http//vsis-www.info
    rmatik.uni-hamburg.de/projects/jadex/)
  • 3APL Langage de programmation des agents
    cognitifs (http//www.ercim.org/publication/Ercim_
    News/enw53/dastani.html)

44
Interaction et coopération entre agents
  •         Interactions
  •         Coordination
  •         Négociation
  •         Communication entre agents
  • Méthode de conception de SMA

45
Topologie des interactions (Ferber)
  •         Agents indépendants
  •          Collaboration simple entre agents
  •          Encombrement
  •          Collaboration coordonnée
  •          Compétition individuelle pure
  •          Compétition collective pure
  •          Conflit individuel pour des ressources
  • Conflit collectif pour des ressources

46
Indépendance entre agents
  • Il ny a réellement pas dinteraction dans ce cas
    puisque 
  • les agents ont des buts compatibles (c-à-d qui ne
    sont pas en conflits)
  • les agents ont des ressources suffisantes
  • les agents ont les capacités quil faut.

47
Collaboration simple
  • -   les agents ont des buts compatibles
  • -   les agents ont des ressources suffisantes
  • -   les agents ont des capacités insuffisantes
  •        gt partage de tâches
  •        gt partage des informations
  • Exemple 
  • Collaboration de spécialistes pour la
    résolution dun problème pour lequel aucun na la
    capacité de le résoudre tout seul.

48
Encombrement
  • -   les agents ont des buts compatibles
  • -   les agents ont des capacités suffisantes
  • -   les agents ont des ressources insuffisantes
  •        gt conflit daccès aux ressources
  •        gt les agents peuvent se gêner
  • Exemple
  • o Trafic aérien
  • o Gestion de stock etc.

49
Compétition individuelle pure
  • -    Les agents ont des capacités suffisantes
  • -    Les agents ont des ressources suffisantes
  • -    Les agents ont des buts incompatibles
  • gt ils doivent négocier ( lutter ) pour
    atteindre leurs buts
  • - On dit quil y a compétition pure car laccès
    aux ressources nest pas un enjeu
  • - Il ny a pas dinteraction en vue dune
    coordination des efforts
  • Exemple  Compétition sportive

50
Compétition collective pure
  • -  Les agents ont des ressources suffisantes
  • -  Les agents ont des capacités insuffisantes
  • -  Les agents ont des buts incompatibles
  • ð   ils doivent donc sassocier et se regrouper
    sous forme de  coalition  pour atteindre leurs
    buts
  • ð   On voit donc se former des grouper dagents
    unis par le lien de collaboration coordonnée
  • ð   Les coalitions et groupes saffrontent
    entre eux.
  • -  Exemple  Course de patin sur glace avec
    relais 400 m relais

51
Conflits individuels pour les ressources
  • -   Les agents ont des buts incompatibles.
  • -   Les agents ont des capacités suffisantes.
  • -    Les agents ont des ressources insuffisantes
    (donc risques de conflits).
  •  
  • Exemples
  • -  compétition pour un poste dans une entreprise.
  • -  compétition entre entreprises pour avoir une
    position dominante sur le marché.

52
Conflits collectifs pour des ressources
  • -  Les agents ont des buts incompatibles.
  • -  Les agents ont des capacités insuffisantes.
  • -  Les agents ont des ressources insuffisantes.
  •    gt les agents doivent donc s'associer ou se
    regrouper pour acquérir des ressources
  • Ex Affrontements en équipes (hockey,
    football, etc.)

53
Coopération entre agents
  • Durfee propose 4 buts génériques pour établir la
    coopération 
  • Augmenter le taux de finalisation des tâches
    grâce au parallélisme et aux interactions
    positives.
  • Augmenter le nombre de tâches réalisables grâce
    au partage de ressources (information, expertise,
    etc.).
  • Augmenter les chances de finaliser des tâches en
    les dupliquant et en utilisant éventuellement des
    modes de réalisation différents.
  • Diminuer les interférences entre tâches en
    évitant les interactions négatives.

54
Étendues de la coopération
  • La coopération s'étend de la coopération totale à
    l'antagonisme total.
  • Les agents optant pour la coopération totale
    peuvent délaisser leurs buts pour répondre aux
    besoins des autres agents afin d'assurer une
    meilleure coordination.
  • Cela risque de donner lieu a plus de
    communications
  • Les agents antagonistes ne vont pas coopérer et
    dans le cas leurs buts respectifs vont se trouver
    bloqués.
  • Dans de tels systèmes les communications sont
    minimaux.
  • Les systèmes réels se situent entre les deux
    extrêmes coopération totale et antagonisme
    total.
  • La coopération totale est généralement mise en
    oeuvre dans la résolution distribuée de problèmes

55
Coopération totale et résolution distribuée de
problèmes
  • Décomposition du problème en sous-problèmes
  • Attribution des sous-problèmes aux agents
  • Résolution des sous-problèmes
  • Intégration (Synthèse)
  • Solution globale

56
Coopération totale et résolution distribuée de
problèmes (suite)
  • Les agents coopèrent pour résoudre des problèmes
    qu'ils ne peuvent pas résoudre individuellement.
  • Chaque agent utilise ses connaissances et ses
    ressources pour résoudre localement un ou
    plusieurs sous problèmes.
  • Les solutions partielles à tous les
    sous-problèmes sont par la suite intégrées.
  • Exemples traitement de la parole, évaluation
    d'une situation distribuée, etc.

57
Interactions entre agents coopérants
  • On se doit de tenir compte des contraintes que
    les actions des autres agents placent sur le
    choix des actions de chaque agent.
  • Approche classique à la coordination les agents
    doivent être en mesure de reconnaître les
    interactions entre les différents sous-buts pour
    pouvoir, soit les ignorer, soit les résoudre.
  • Coordination dynamique dans le PGP (partial
    global planning), les agents interagissent en se
    communiquant leurs plans (partiels) et leurs buts
    selon un niveau d'abstraction approprié.
  • Ces communications vont permettre à chacun
    d'anticiper quelles seront les actions futures
    des uns et des autres, augmentant ainsi la
    cohérence de l'ensemble.
  • Comme les agents coopèrent, le receveur d'un
    message peut utiliser les informations reçues
    afin d'ajuster sa propre planification.

58
Interactions entre agents égo-centrés
  • Dans ce cas, les interactions se basent
    principalement sur La négociation
  • La négociation est utilisée comme méthode de
    coordination et de résolution de conflits.
  • La négociation est également utilisée pour
    l'allocation de tâches et les changements de
    plans.
Write a Comment
User Comments (0)
About PowerShow.com