Title: Introduction aux systmes multiagents
1Introduction aux systèmes multi-agents
- Roger Nkambou
- Daniel Doubois
2Introduction à la notion dagent
- Comment formaliser le problème de construction
dun agent ? - Dichotomie entre la notion dagent et de son
environnement - Plus simple à traiter
- Un agent est une entité qui perçoit et agit
- Un agent est une fonction dune perception (ou
séquence de percepts) à des actions
3Agent
- Percept unité élémentaire de perception (via
des capteurs) - A un ensemble dactions (via des effecteurs)
- Lagent possède une fonction f Pgt A
- Agent architecture programme (implantation de
f )
4Exemples dagents
- Agent humain
- C yeux, oreilles, nez, etc.
- E Mains, jambe, bouche, autres parties du corps
- Agent robot
- C cameras and capteurs infrarouges
- E moteurs comme effecteurs
- Agent logiciel
- C Saisies de données, lecture d'un fichier,
paquets réseau reçus comme des capteurs - E Affichage à l'écran, écriture de fichiers,
paquets envoyés sur le réseau
5Environnement de lagent aspirateur
- 2 localisations A et B
- Perceptions localisation et contenu,
exADirty - Actions Left, Right, Suck, NoOp
- Une fonction possible
- Si la localisation courante est sale, alors
aspirer, sinon aller à lautre localisation
6Concept de rationalité
- Un agent est rationnel sil effectue toujours
laction appropriée étant donnée sa perception
et ses actions possibles. - Quest-ce quune action appropriée?
- Définie par une mesure de performance.
- La rationalité de lagent dépend de 4 facteurs
- La mesure de performance
- Un agent est rationnel si pour toute séquence de
percepts, il sélectionne laction qui maximise la
mesure de performance rationnel réussi - La clairvoyance
- Entretien une séquence percepts rationnel
clairvoyant - Lomniscience
- Sait tout sur son environnement rationnel
omniscient ? - Les actions possibles
- Ce que lagent sait faire rationnel capacité
daction pertinente - Cela peut impliquer que dispose des capacités d
- exploration, apprentissage, autonomie
7Aspirateur exemple dagent rationnel
- Lagent aspirateur est rationnel si
- La mesure de performance accorde un point par
case nettoyée - Lenvironnement de lagent est connu mais pas
lemplacement initial de lagent ni la
distribution de la poussière - Lagent perçoit correctement la case où il se
trouve et sa propreté (ou pas) - Actions Droite, Gauche, Aspirer, NRF
8Aspirateur ex dagent non rationnel
- Lagent aspirateur nest pas rationnel si
- Sil continue des déplacements dans un
environnement propre (actions non optimale) - Sil a une pénalité pour chaque déplacement un
agent rationnel devrait minimiser les
déplacements dans ce cas! - Si lenvironnement peut changer un agent
rationnel devrait le vérifier périodiquement
(révision des croyances) - Si lenvironnement est inconnu un agent
rationnel devrait lexplorer.
9Exemple de situation rationnelle
- Situation se munir dun parapluie
- Est-ce rationnel ?
- Cela dépend de la météo, et de ma connaissance de
la météo. - Si jai entendu le bulletin météo, que je le
crois et que je pense quil va pleuvoir, alors il
est rationnel de se munir dun parapluie. - Une action est considérée comme rationnelle si
elle conduit à bien faire ce que lagent essaie
de faire! - Cela nindique pas par exemple que ce que lagent
essaie de faire est intelligent ou stupide.
10Agent rationnel et environnement
- Pour modéliser un agent rationnel, on doit
spécifier lenvironnement où doit se dérouler la
tâche de lagent - Lenvironnement représente le problème à résoudre
- Lagent représente la solution
- On doit définir les propriétés de cet
environnement
11Environnement dune tâche
- PEAS (Performance, Environment, Actuators,
Sensors) - Définir la mesure de performance
- Notion de compromis en cas de conflits dans les
objectifs à atteindre - Définir lenvironnement
- Définir les capteurs
- Définir les effecteurs
12Ex Un agent taxi automatique
- Mesure de performance?
- Sécurité, arrivée à destination, minimisation du
temps, maximisation du profit, minimisation de
la consommation de carburant, légalité,
maximisation du confort des passagers. - Environnement?
- rues/autoroutes, trafic, piétons, météo
- Effecteurs?
- Contrôle de la direction, accélérateur, freins,
klaxon, boite de vitesse,.. - Capteurs?
- Cameras Vidéo, accéléromètres, jauges, capteurs
du moteur, clavier, GPS,
13Ex Agent de shopping sur internet
- Mesure de performance?
- prix, qualité, pertinence, efficacité
- Environnement?
- Sites web, vendeurs, expéditeurs
- Actuateurs?
- Afficher à l'utilisateur, ouvrir lURL, remplir
le formulaire - Capteurs?
- pages HTML (textes, graphiques, scripts)
14Propriétés de lenvironnement
- Entièrement observable(vs. Partiellement
observable) - Déterministe (vs. Non-Déterministe ou
stochastique) - Episodique (vs séquentiel)
- Statique (vs. Dynamique)
- Discret (vs. Continu)
- Mono-agent vs multi-agent
15Entièrement observable(vs. Partiellement
observable)
- Peut-on voir l état du monde directement?
- Entièrement observable (vs. partiellement
observable) lagent a accès en tout temps à
toute linformation pertinente sur
lenvironnement (on parle aussi détat) - Taxi automatique Partiellement accessible
- Echecs accessible
16Déterministe (vs. Non-Déterministe ou
stochastique)
- Est-ce quune action conduit dun état à un seul
autre état ? - Ex un agent qui conduit sur une route évolue
dans un environnement stochastique (aléatoire) - Environnement déterministe échecs
17Episodique (vs. Non-épisodique ou séquentiel)
- Dans les environnements épisodiques,
lexpérience de lagent est divisée en épisodes
atomiques - Chaque épisode consiste en une perception de
lagent et une action en réponse à cette
perception - Le choix de laction dans chaque épisode dépend
seulement de lépisode lui-même. - Exemple Tâche de classification
- Dans les environnements séquentiels, la décision
courante peut affecter les décisions futures - Exemples Echecs et taxi automatique
18Statique (vs. Dynamique)
- Est-ce que le monde peut changer pendant la
délibération de lagent ? - Environnement statique mots-croisés
- Environnement dynamique taxi automatique
- Lorsque lenvironnement ne change pas mais que la
performance de lagent change au fur et à mesure
que le temps sécoule, on parle denvironnement
semi-dynamique - Ex échecs chronométrés
19Discret (vs. Continu)
- Est-ce que les perceptions et les actions sont
discrètes (comme des entiers) ou continues (comme
les nombres réels)? - un nombre fini de perceptions et dactions
différentes? - Exemple Les échecs ont un nombre fini détats
discrets et disposent dun ensemble discret de
perceptions et dactions - Le taxi automatique possède des états et des
actions continus.
20Mono-agent vs Multi-agent
- Environnement mono-agent
- Environnement multi-agent concurrentiel les
échecs - Environnement multi-agent partiellement
coopératif évitement de collisions par
différents taxis automatiques - Environnement multi-agent partiellement
concurrentiel trouver un stationnement - Communication entre les agents
- Comportement stochastique souvent nécessaire!
21Types denvironnement
Le type denvironnement détermine largement la
modélisation de lagent Le monde réel est
partiellement observable, non déterministe,
séquentiel, dynamique, continu, multi-agent
22Structures dagents
- 4 types de base
- Les agents réflexes simples
- Les agents réflexes fondés sur des modèles
- Les agents fondés sur les buts
- Les agents fondés sur lutilité
- Agents évolués les agents capables
dapprentissage
23Les agents réflexes simples
Sélectionner des actions en fonction de la
perception courante et sans tenir compte de
lhistorique des perceptions
Règles condition-action
24Implantation dun agent reflexe aspirateur
25Inconvénients des agents reflexes
- Les agents reflexes sont simples, mais leur
intelligence est très limitée! - Lagent ne peut fonctionner que si une décision
correcte peut être prise en fonction de la
perception courante. - Lenvironnement doit être complètement observable
- Pb des boucles infinies souvent rencontrées, on
peut tenter dy remédier par un mécanisme de
randomisation
26Les agents réflexes fondés sur des modèles
- Lagent doit connaître son environnement (ex
mémorisation de la topologie de lenvironnement) - Lagent doit maintenir un état interne qui dépend
de lhistorique des perceptions - La mise à jour de cet état interne nécessite deux
types de connaissances à encoder dans lagent - Une information sur la manière dont le monde
évolue indépendamment de lagent - Une information sur la manière dont les actions
de lagent affectent lenvironnement
27Agent possédant un modèle
28Les agents fondés sur les buts
- Connaitre létat courant de lenvironnement nest
pas toujours suffisant pour décider de laction à
accomplir (ex. décision à une jonction de route) - Lagent a besoin dune information sur le but qui
décrit les situations désirables - Lagent peut alors combiner cette information
avec linformation sur les résultats des actions
possibles afin de choisir laction qui satisfait
le but - Un tel agent nécessite des capacités de recherche
et de planification
29Les agents fondés sur les buts
30Comparaison
- Les agents basés sur les buts sont flexibles car
la connaissance qui supporte leurs décisions est
représentée explicitement et peut être modifiée - Pour lagent reflexe, les règles condition-action
doivent être modifiées et réécrites dans toute
nouvelle situation - Il est facile de modifier le comportement dun
agent basé sur les buts
31Les agents fondés sur lutilité
- Les buts seuls ne sont pas suffisants pour
générer un comportement intéressant dans beaucoup
denvironnements. Ils permettent seulement de
faire une distinction binaire entre les états
satisfait et non satisfait - Une mesure de performance plus générale doit
permettre une comparaison entre les différents
états du monde en fonction de la satisfaction
exacte de lagent sils sont atteints. - Une fonction dutilité associe un nombre réel à
un état. Ce nombre décrit le degré de
satisfaction associé à létat.
32Les agents fondés sur lutilité
33Les agents capables dapprentissage
- Turing Plutôt que de programmer des machines
intelligentes à la main, ce qui nest pas
vraiment réalisable, il faut construire des
agents apprenants et les instruire de la tache à
accomplir - Lapprentissage permet à lagent dopérer dans
des environnements inconnus et de devenir plus
compétents quinitialement.
34En résumé
- Les agents interagissent avec leur environnement
à travers des effecteurs et des capteurs - La fonction de lagent décrit ce que lagent fait
dans toute circonstance - La mesure de performance évalue le comportement
de lagent dans son environnement - Un agent parfaitement rationnel maximise la
performance attendue
35Exemple darchitecture dagent agent BDI
(Définition)
- Basée sur le modèle BDI (Croyance-Désir
Intention) - BDI Belief, Desire and Intention
- Croyances
- informations que l'agent possède sur
l'environnement et sur d'autres agents qui
existent dans le même environnement. - Les croyances peuvent être incorrectes,
incomplètes ou incertaines et sont donc
différentes des connaissances de l'agent, qui
sont des informations toujours vraies. - Les croyances peuvent changer au fur et à mesure
que l'agent, par sa capacité de perception ou par
l'interaction avec d'autres agents, recueille
plus d'information.
36Agent BDI (Définition)
- BDI (suite)
- Les désirs
- représentent les états de l'environnement, et
parfois de lui-même, que l'agent aimerait voir
réalisés. - Un agent peut avoir des désirs contradictoires
dans ce cas, il doit choisir parmi ses désirs un
sous-ensemble qui soit consistant. - Les intentions
- sont les désirs que l'agent a décidé d'accomplir
ou les actions qu'il a décidé de faire pour
accomplir ses désirs. - Même si tous les désirs d'un agent sont
consistants, l'agent peut ne pas être capable de
les accomplir tous.
37Architecture BDI (Fondement)
- La théorie de laction rationnelle (proposée par
Michael Bratman) est à la base du modèle BDI. - Cette théorie sinspire sur la façon dont les
gens raisonnent dans la vie de tous les jours, en
décidant, à chaque moment, ce qu'ils ont à faire.
- Cette théorie montre que les intentions jouent un
rôle fondamental dans le raisonnement pratique,
car elles limitent les choix possibles qu'un
humain (ou un agent artificiel) peut faire à un
certain moment. - Illustration
- L'agent Pierre a la croyance que, si quelqu'un
passe son temps à étudier, cette personne peut
faire une thèse de doctorat. En plus, Pierre a le
désir de voyager beaucoup, de faire une thèse de
doctorat et d'obtenir un poste d'assistant à
l'université. Le désir de voyager beaucoup n'est
pas consistant avec les deux autres et Pierre,
après réflexion, décide de choisir, parmi ces
désirs inconsistants, les deux derniers. Comme il
se rend compte qu'il ne peut pas réaliser ses
deux désirs à la fois, il décide de faire d'abord
une thèse de doctorat. En ce moment Pierre a
l'intention de faire une thèse et, normalement,
il va utiliser tous ses moyens pour y parvenir.
Il serait irrationnel de la part de Pierre, une
fois sa décision prise, d'utiliser son temps et
son énergie, notamment ses moyens, pour voyager
autour du monde. En fixant ces intentions, Pierre
a moins de choix à considérer car il a renoncé à
faire le tour des agences de voyage pour trouver
l'offre de voyage qui le satisferait au mieux.
38Architecture BDI (Composantes)
revc B x P -gtB est la fonction de révision des
croyances de l'agent lorsqu'il reçoit de
nouvelles perceptions sur l'environnement, où P
représente l'ensemble des perceptions de
l'agent elle est réalisée par la composante
Révision des croyances options D x I-gtI est
la fonction qui représente le processus de
décision de l'agent prenant en compte ses désirs
et ses intentions courantes cette fonction est
réalisée par la composante Processus de
décision des B x D x I-gtD est la fonction
qui peut changer les désirs d'un agent si ses
croyances ou intentions changent, pour maintenir
la consistance des désirs de l'agent (on suppose
dans notre modèle que l'agent a toujours des
désirs consistants) cette fonction est
également réalisée par la composante Processus de
décision filtre B x D x I-gtI est la
fonction la plus importante car elle décide des
intentions à poursuivre elle est réalisée par
la composante Filtre plan B x I-gt PE est la
fonction qui transforme les plans partiels en
plans exécutables, PE étant l'ensemble de ces
plans elle peut utiliser, par exemple, une
bibliothèque de plans (LibP).
39Architecture BDI (Algorithme de contrôle)
- Reprenons l'exemple de Pierre introduit plus
haut. Si Pierre a décidé que son intention est de
faire une thèse de doctorat, il s'est alors
obligé à cette intention. Pierre commence à
travailler et faire sa recherche. Entre temps, il
découvre qu'il n'aime pas trop travailler et
qu'il préfère passer son temps avec ses amis dans
les bistros. Pierre se rend compte que son
intention est impossible à accomplir, ce qui le
conduit à abandonner son intention de faire une
thèse. Dans un autre cas, comme Pierre veut aussi
gagner un peu d'argent, il prend un job dans une
compagnie. Comme il est très éloquent et
persuasif, on lui offre un poste dans la
compagnie qui lui demande de voyager beaucoup
pour représenter les intérêts de la compagnie.
Pierre constate alors qu'une autre de ses
intentions devient opportune, il abandonne son
engagement de faire une thèse et accepte le poste
qu'on lui a offert.
- Soient B0, D0 et I0 les croyances, désirs et
intentions initiales de l'agent. - Algorithme de contrôle d'agent BDI (par
Woodridge) - 1 B B02 D D03 I I04
répéter 4.1 obtenir nouvelles
perceptions p 4.2 B revc(B,
p) 4.3 I options(D,
I) 4.4 D des(B, D
,I) 4.5 I filtre(B, D,
I) 4.6 PE plan(B, I)
4.7 exécuter(PE) jusqu'à ce que
l'agent soit arrêtéfin
La question est Combien de temps lagent
reste-t-il obligé par une intention ?
40Architecture BDI (Algorithme de contrôle et
stratégies dobligation)
- 3 principales stratégies d'obligation
- Obligation aveugle (ou obligation fanatique). Un
agent suivant cette stratégie va maintenir ses
intentions jusqu'à ce qu'elles soient réalisées,
plus précisément jusqu'à ce qu'il croie qu'elle
sont réalisées. - Pas bone pas efficace l'environnement change
entre le moment où l'agent a choisi (filtré) ses
intentions, et le moment où ces intentions
doivent être accomplies. - Obligation limitée. L'agent va maintenir ses
intentions, ou bien jusqu'à ce qu'elles soient
réalisées, ou bien jusqu'à ce qu'il croie
qu'elles ne sont plus réalisables. - Obligation ouverte. Lagent maintient ses
intentions tant que ces intentions sont aussi ses
désirs. Cela implique aussi que, une fois que
l'agent a conclu que ses intentions ne sont plus
réalisables, il ne les considère plus parmi ses
désirs.
41Arch. BDI (Algo de contrôle et stratégies
dobligation)
Algorithme de contrôle d'agent BDI avec
obligation ouverte 1 B B02 D
D03 I I04 répéter
4.1 obtenir nouvelles perceptions
p 4.2 B revc(B, p)
4.3 I options(D, I) 4.4 D
des(B, D ,I) 4.5 I filtre(B, D,
I) 4.6 PE plan(B, I)
4.7 tant que (PEltgt et nonaccompli(I, B)
et possible(I, B))
répéter - x première(PE)
exécuter(x) - PE reste(PE)
- obtenir nouvelles perceptions
p - B revc(B,
p) - D des(B, D
,I) - I filtre(B, D,
I) - PE plan(B,
I) fin tant que jusqu'à ce
que l'agent soit arrêtéfin
- Algorithme de contrôle d'agent BDI avec
obligation limitée - 1 B B02 D D03 I I04
répéter 4.1 obtenir nouvelles
perceptions p 4.2 B revc(B,
p) 4.3 I options(D,
I) 4.4 D des(B, D
,I) 4.5 I filtre(B, D,
I) 4.6 PE plan(B, I)
4.7 tant que (PEltgt et nonaccompli(I, B) et
possible(I, B)) répéter - x
première(PE) exécuter(x) PE
reste(PE) - obtenir
nouvelles perceptions p - B
revc(B, p) fin tant que
jusqu'à ce que l'agent soit arrêtéfin
possible(I, B) est la fonction qui vérifie si,
après avoir obtenu la perception p sur
l'environnement et révisé ses croyances, les
intentions choisies sont encore réalisables
nonaccompli(I, B) est la fonction qui vérifie
si, par hasard, les intentions de l'agent sont
déjà accomplies avant même que l'exécution de son
plan soit terminée.
42BDI et architecture dagents réatifs
- Une excellente architecture pour agent
intelligent ou cognitif intégrant une grande
capacité à raisonner. - Toutefois, les agents réactifs peuvent aussi
donnés des résultants intéressants même dans des
tâches complexes (Ex Exploration de Mars)
pouvant nécessité lintelligence. - Lintelligence dans ces agents réactifs nen est
pas une au sens IA du terme, mais une qui émerge
de linteraction entre les composants simples ou
entres les agents réactifs dans lenvironnement. - Nécessité davoir des architectures hybride
combinant les vertus de la réactivité et du
raisonnement. - Cest le cas de larchitecture InteRRaP
(("Integration of Reactive Behavior and Rational
Planning" Intégration du comportement réactif
et planification rationnelle).
43Quelques exemples doutil de construction de SMA
- JADE (Java Agent DEvelopment Framework) Pour
limplémentation de SMA à travers un middle-ware
compatible FIPA (http//jade.tilab.com/community-3
rdpartysw.htm) - JESS (Java Expert System Shell) c'est du CLIPS
en Java. Il permet la construction d'agents selon
les techniques des systèmes à base de règles
(http//herzberg.ca.sandia.gov/docs/70/embedding.h
tml) - Agent Factory Pour le prototypage rapide dagents
intelligents (http//www.agentfactory.com/index.ph
p/Main_Page/). - Cougaar Agent Architecture logiciel libre Java
pour la construction de SMA - Jadex BDI Agent System (JADE extension) Extension
de JADE Pour les agents BDI (http//vsis-www.info
rmatik.uni-hamburg.de/projects/jadex/) - 3APL Langage de programmation des agents
cognitifs (http//www.ercim.org/publication/Ercim_
News/enw53/dastani.html)
44Interaction et coopération entre agents
- Interactions
- Coordination
- Négociation
- Communication entre agents
- Méthode de conception de SMA
45Topologie des interactions (Ferber)
- Agents indépendants
- Collaboration simple entre agents
- Encombrement
- Collaboration coordonnée
- Compétition individuelle pure
- Compétition collective pure
- Conflit individuel pour des ressources
- Conflit collectif pour des ressources
46Indépendance entre agents
- Il ny a réellement pas dinteraction dans ce cas
puisque - les agents ont des buts compatibles (c-à-d qui ne
sont pas en conflits) - les agents ont des ressources suffisantes
- les agents ont les capacités quil faut.
47Collaboration simple
- - les agents ont des buts compatibles
- - les agents ont des ressources suffisantes
- - les agents ont des capacités insuffisantes
- gt partage de tâches
- gt partage des informations
- Exemple
- Collaboration de spécialistes pour la
résolution dun problème pour lequel aucun na la
capacité de le résoudre tout seul.
48Encombrement
- - les agents ont des buts compatibles
- - les agents ont des capacités suffisantes
- - les agents ont des ressources insuffisantes
- gt conflit daccès aux ressources
- gt les agents peuvent se gêner
- Exemple
- o Trafic aérien
- o Gestion de stock etc.
49Compétition individuelle pure
- - Les agents ont des capacités suffisantes
- - Les agents ont des ressources suffisantes
- - Les agents ont des buts incompatibles
- gt ils doivent négocier ( lutter ) pour
atteindre leurs buts - - On dit quil y a compétition pure car laccès
aux ressources nest pas un enjeu - - Il ny a pas dinteraction en vue dune
coordination des efforts - Exemple Compétition sportive
50Compétition collective pure
- - Les agents ont des ressources suffisantes
- - Les agents ont des capacités insuffisantes
- - Les agents ont des buts incompatibles
- ð ils doivent donc sassocier et se regrouper
sous forme de coalition pour atteindre leurs
buts - ð On voit donc se former des grouper dagents
unis par le lien de collaboration coordonnée - ð Les coalitions et groupes saffrontent
entre eux. - - Exemple Course de patin sur glace avec
relais 400 m relais
51Conflits individuels pour les ressources
- - Les agents ont des buts incompatibles.
- - Les agents ont des capacités suffisantes.
- - Les agents ont des ressources insuffisantes
(donc risques de conflits). -
- Exemples
- - compétition pour un poste dans une entreprise.
- - compétition entre entreprises pour avoir une
position dominante sur le marché.
52Conflits collectifs pour des ressources
- - Les agents ont des buts incompatibles.
- - Les agents ont des capacités insuffisantes.
- - Les agents ont des ressources insuffisantes.
- gt les agents doivent donc s'associer ou se
regrouper pour acquérir des ressources - Ex Affrontements en équipes (hockey,
football, etc.)
53Coopération entre agents
- Durfee propose 4 buts génériques pour établir la
coopération - Augmenter le taux de finalisation des tâches
grâce au parallélisme et aux interactions
positives. - Augmenter le nombre de tâches réalisables grâce
au partage de ressources (information, expertise,
etc.). - Augmenter les chances de finaliser des tâches en
les dupliquant et en utilisant éventuellement des
modes de réalisation différents. - Diminuer les interférences entre tâches en
évitant les interactions négatives.
54Étendues de la coopération
- La coopération s'étend de la coopération totale à
l'antagonisme total. - Les agents optant pour la coopération totale
peuvent délaisser leurs buts pour répondre aux
besoins des autres agents afin d'assurer une
meilleure coordination. - Cela risque de donner lieu a plus de
communications - Les agents antagonistes ne vont pas coopérer et
dans le cas leurs buts respectifs vont se trouver
bloqués. - Dans de tels systèmes les communications sont
minimaux. - Les systèmes réels se situent entre les deux
extrêmes coopération totale et antagonisme
total. - La coopération totale est généralement mise en
oeuvre dans la résolution distribuée de problèmes
55Coopération totale et résolution distribuée de
problèmes
- Décomposition du problème en sous-problèmes
- Attribution des sous-problèmes aux agents
- Résolution des sous-problèmes
- Intégration (Synthèse)
- Solution globale
56Coopération totale et résolution distribuée de
problèmes (suite)
- Les agents coopèrent pour résoudre des problèmes
qu'ils ne peuvent pas résoudre individuellement. - Chaque agent utilise ses connaissances et ses
ressources pour résoudre localement un ou
plusieurs sous problèmes. - Les solutions partielles à tous les
sous-problèmes sont par la suite intégrées. - Exemples traitement de la parole, évaluation
d'une situation distribuée, etc.
57Interactions entre agents coopérants
- On se doit de tenir compte des contraintes que
les actions des autres agents placent sur le
choix des actions de chaque agent. - Approche classique à la coordination les agents
doivent être en mesure de reconnaître les
interactions entre les différents sous-buts pour
pouvoir, soit les ignorer, soit les résoudre. - Coordination dynamique dans le PGP (partial
global planning), les agents interagissent en se
communiquant leurs plans (partiels) et leurs buts
selon un niveau d'abstraction approprié. - Ces communications vont permettre à chacun
d'anticiper quelles seront les actions futures
des uns et des autres, augmentant ainsi la
cohérence de l'ensemble. - Comme les agents coopèrent, le receveur d'un
message peut utiliser les informations reçues
afin d'ajuster sa propre planification.
58Interactions entre agents égo-centrés
- Dans ce cas, les interactions se basent
principalement sur La négociation - La négociation est utilisée comme méthode de
coordination et de résolution de conflits. - La négociation est également utilisée pour
l'allocation de tâches et les changements de
plans.