Partie 4: Raisonnement pratique - PowerPoint PPT Presentation

1 / 47
About This Presentation
Title:

Partie 4: Raisonnement pratique

Description:

Au contraire, une fois que j'ai adopt l'intention de jouer au basket-ball, le choix est fait, et je ne dois plus peser le pour et le contre. ... – PowerPoint PPT presentation

Number of Views:24
Avg rating:3.0/5.0
Slides: 48
Provided by: nicolep81
Category:

less

Transcript and Presenter's Notes

Title: Partie 4: Raisonnement pratique


1
Partie 4 Raisonnement pratique
DAMAS Dialogues, Agent et Multiagents
2
Raisonnement pratique
  • Le raisonnement dit  pratique  est un
    raisonnement dirigé vers les actions. Cest un
    raisonnement sur QUOI FAIRE impliquant les
    attitudes motivationnelles telles que les
    désires, les buts, les intentions et les
    obligations.
  • Il se distingue du raisonnement théorique qui est
    lui dirigé vers les croyances. Cest un
    raisonnement sur CE QUI EST LE CAS impliquant des
    attitudes informationnelles comme les croyances
    et les connaissances.

3
Raisonnement pratique (suite)
  • Le raisonnement pratique des humains consiste en
    deux activités
  • Délibération qui consiste à décider quel état
    daffaires il convient de réaliser
  • Raisonnement moyens-fins qui consiste à décider
    comment réaliser cet état daffaire?
  • La sortie du processus de délibération
    intentions

4
Intentions
  • 1) Intentions posent problèmes dans la mesure où
    il faut déterminer comment les réaliser
  • Si jai une intention de réaliser y, il faudra
    que je dégage des ressources pour ça.
  • 2) Les intentions fournissent un filtre pour
    adopter dautres intentions qui ne doivent pas
    rentrer en conflit
  • Si jai lintention de réaliser y, je pourrais
    être amené à adopter f si ces deux intentions ne
    rentrent pas en conflit.
  • 3) Si un agent échoue à réaliser une intention,
    il est alors incliné à re-tenté de la réaliser.

5
Intentions (suite)
  • 4) Agents croient que leurs intentions sont
    possibles
  • Agents croient quil y a au moins  une voie  où
    leurs intentions pourraient réussir.
  • 5) Agents ne croient pas quils ne peuvent pas
    réussir leurs intentions
  • Il nest pas rationnel pour un agent dadopter
    lintention que f sil croit que f nest pas
    possible.
  • 6) Sous certaines conditions, les agents croient
    quils peuvent réussir leurs intentions.

6
Intentions (suite)
  • 7) Les agents ne sattendent pas à tous les
    effets de leurs intentions
  • Si je crois que f ) y et que jai lintention de
    f, je nai nécessairement pas lintention que y.
  • 5) Ce problème connu comme leffet de bord peut
    sillustrer par lexemple je crois qualler
    chez le dentiste donne des maux de dents et jai
    lintention daller chez le dentiste mais ceci
    nimplique nullement que jai lintention davoir
    mal aux dents.

7
Intentions vs désirs
  • Il convient de noter que les intentions sont plus
    forts que les désirs. Voici ce que dit Bratman à
    ce sujet
  • Mon désir de jouer au basket-ball cet après-midi
    nest quune simple influence sur ma conduite de
    cet après midi. Il doit rivaliser avec dautres
    avant de choisir ce que je dois faire. Au
    contraire, une fois que jai adopté lintention
    de jouer au basket-ball, le choix est fait, et je
    ne dois plus peser le pour et le contre. Quand
    laprès midi est là, je dois juste procéder pour
    exécuter mon intention.

8
Intentions vs buts
  • Intentions sorties du processus de
    délibération.  A determination to act in a
    certain way (Merriam Webster) 
  • But  the end toward which effort is directed 
    (Merriam Webster) .
  • Intentions et buts réfèrent à ce quon planifie
    de faire ou de réaliser. Ex mon intention est de
    balayer la salle vs mon but est de balayer la
    salle.

9
Agents planificateurs
  • Planification, une notion qui démarre presque
    avec lIA
  • Planification programmation automatique en vue
    de concevoir une série dactions liées les unes
    aux autres en vue de réaliser un but.
  • La planification a toujours été vue comme
    centrale à tout agent, jusquau questionnement de
    Brooks et al. à propos dune IA située et
    réactive.
  • Lun des premiers travaux a été celui de Fikes et
    Nilsson qui ont introduit STRIPS, depuis pas mal
    de travaux et toujours pas de solution
    définitive.

10
Planification raisonnement moyens-fins
  • Idée de base est de donner à lagent
  • Une représentation du but/intention à réaliser
  • Une représentation des actions quil peut
    exécuter et
  • Une représentation de lenvironnement
  • Ceci est essentiellement une programmation
    automatique appelée planification.

11
Raisonnement moyens-fins
12
Raisonnement moyens-fins
  • Des questions importantes
  • Comment représenter le but (intention ou tâches)
    à réaliser?
  • Comment représenter létat de lenvironnement?
  • Comment représenter les actions disponibles à
    lagent?
  • Comment représenter le plan lui même?

13
Exemple de plan
14
Plan (suite)
15
Autre exemple
  • Le monde des blocks

16
Le monde des blocks
  • Pour représenter lenvironnement, on a besoin
    dune ontologie
  • On(x,y)
  • OnTable(x)
  • Clear(x)
  • Holding(x)

17
Le monde des blocks (suite)
  • Avec une telle ontologie, on pourrait représenter
    la situation de départ
  • Clear(A)
  • On(A,B)
  • OnTable(B)
  • OnTable(C)
  • Nous utilisons la supposition du monde clos qui
    stipule que tout ce qui nest pas explicitement
    exprimé est supposé faux

18
Le monde des blocks (suite)
  • Un but est représenté comme un ensemble de
    formule.
  • Voici par ex un but OnTable(A) OnTable(B)
    OnTable(C)
  • Actions peuvent être représentées à la STRIPS

19
STRIPS
  • Exemple 1
  • Stack empiler. Stack(x,y) a donc
  • Pre Clear(y) Æ Holding(x)
  • Del Clear(y) Æ Holding(x)
  • Add ArmEmpty Æ On(x,y)
  • Unstack(x,y)
  • Pre On(x,y) Æ Clear(x) Æ ArmEmpty
  • Del On(x,y) Æ ArmEmpty
  • Add Holding(x) Æ Clear(y)

20
STRIPS
  • Exemple 2
  • Pickup(x)
  • Pre ?
  • Del ?
  • Add ?
  • PutDown(x)
  • Pre ?
  • Del ?
  • Add ?

21
Plan utilisant STRIPS
  • Quest ce quun plan
  • But OnTable(A) On(B,A) On(C,A), quel est alors
    le plan pour réaliser ce but?
  • Plan ?
  • Un plan serait donc une séquence dactions où les
    variables seraient remplacées par des constantes.

22
Algo des raisonneurs pratiques
  • while true
  • observe le world
  • update internal world
  • deliberate about the intention to achieve
    next
  • use means-ends reasoning to get a plan for
    the considered intention
  • execute the plan
  • end while.

23
Monoagent et multiagent
  • while true
  • observe le world (non concerné)
  • update internal world (non concerné)
  • deliberate about the intention to achieve next
    (tenir compte des autres agents?)
  • use means-ends reasoning to get a plan for
    the considered intention (et les autres agents
    sil y a lieu ???)
  • execute the plan
  • end while

24
Autres problèmes
  • Délibération et raisonnement moyens-fins prennent
    du temps.
  • Supposons que lagent délibère à t0, comme son
    raisonnement moyen-fins à t1 et exécute son plan
    à t2. Dans ce cas
  • tdelib t1 t0
  • tme t2 t1

25
Problèmes (suite)
  • Si on suppose que la délibération est
     optimale , autrement dit quelle donne la
    meilleure intention selon le principe de la
    maximalisation de lutilité attendue
  • Au temps t1, lagent ne peut être optimal que si
    son intention a été exécutée à t0.
  • Si t1-t0 nest pas faible, lagent prendrait
    alors le risque dexécuter une intention qui
    pourrait avoir déviée de beaucoup de loptimal.

26
 Bon comportement  si
  • Quand tdelib et tme sont assez faibles
  • Quand le monde est garanti de rester statique
    tant que lagent délibère et planifie afin que
    les suppositions sur lesquelles sest fait le
    choix de lintention et lélaboration du plan,
    restent valides.
  • Quand lintention qui est optimale à t0 est
    garantie de rester optimale jusquà t2.

27
Délibération de lagent
  • Comment un agent délibère?
  • Il commence par voir les options qui soffrent à
    lui
  • Il choisit (selon certains critères) parmi ces
    options et sengage envers quelques unes
  • Les options sur lesquelles sengage lagent
    forment les intentions.

28
Délibération (suite)
  • On pourrait alors décomposer la fonction
     deliberate  en deux composantes fonctionnelles
  • Génération doptions via une fonction options qui
    prend les croyances et les intentions du moment
    et qui génère un ensemble doptions (désires)
  • Filtrage via une fonction filtering qui choisit
    entre différentes alternatives en compétition et
    qui donnent les options sur lesquelles lagent
    sengage.

29
Délibération (suite)
30
Stratégie dengagements
31
Engagements (suite)
  • Les stratégies dengagements suivantes font débat
    au sein de la communauté SMA.
  • Blind commitment
  • Cet agent maintient son intention jusquà ce
    quil croit quelle a été réaliséefanatique.
  • Single-minded commitment
  • Cet agent maintient son intention jusquà ce
    quil croit quelle a été réalisée ou quil lui
    est impossible de la réaliser.
  • Open-Minded commitment
  • Cet agent la maintient tant quil croit quelle
    est possible.

32
Engagements (suite)
  • Bien entendu, lagent devrait être engagé envers
    à la fois les
  • fins (les états daffaire quil veut atteindre)
    et les
  • moyens (le mécanisme par lequel lagent veut
    atteindre ses fins
  • La boucle précédente sur-engage lagent, il
    faudra alors la changer pour re-planifier si
    problème.

33
Boucle avec re-planification
34
Boucle avec re-planification
  • Ça reste encore sur-engagé aux niveau des
    intentions. Lagent ne considère jamais si ses
    intentions sont appropriées ou non.
  • Il devrait être por exemple single-minded
    committed et sarrêter quand ses intentions ont
    réussies ou sont impossibles à réaliser

35
Un agent single-minded
36
Logique BDI
  • Partant de la logique classique Ç,Æ,, etc.,
  • Augmentée avec la logique temporelle à branches
    CTL, on introduit des quantificateurs le long
    des chemins, soit

37
Logique BDI
  • On introduit alors les opérateurs modaux suivants

38
Logique BDI
  • On introduit alors les opérateurs modaux suivants

39
Implémenter le BDI IRMA
  • IRMA a 4 structures de données symboliques
  • Une librairie de plans, et
  • Des représentations explicites
  • des croyances informations disponibles à
    lagent représentés symboliquement
  • des désirs les choses que lagent voudraient
    rendre vraieson pourrait penser à des tâches
    alloués à lagent
  • des intentions des désirs que lagent a choisi
    et sur lesquels il sest engagé.

40
Implémenter le BDI IRMA
  • IRMA a également
  • Un raisonneur pour raisonner sur le monde, une
    sorte dengin dinférence
  • Un analyseur fin-moyens qui détermines quel plan
    il convient dutiliser pour telle ou telle
    intention.
  • Un analyseur dopportunités qui surveille
    lenvironnement et qui génère des options
  • Un processus de filtrage qui détermine les
    options compatibles avec les intentions
    courantes et
  • Un processus de délibération responsable pour
    décider des  meilleures  intentions à adopter.

41
Implémenter le BDI PRS
  • PRS a donné lieu à loutil JACK, il contient
  • Une librairie de plans représentant la
    connaissance procédurale de lagent ce sont des
    connaissances sur les mécanismes qui peuvent être
    utilisés par lagent afin de réaliser ses
    intentions
  • Les options disponibles à lagent sont
    directement déterminés par les plans que lagent
    a. Un agent nayant pas de plans na pas
    doptions

42
PRS(suite)
  • Dans PRS, la planification ne se fait pas selon
    les principes de base. Au contraire, cest des
    recettes manuellement construites par avance.
    Plans dans PRS ont les composantes suivantes
  • A goalle postcondition of the plan
  • A contextla précondition du plan et
  • a bodyla  recette , c-a-d le corps du plan.

43
Implémenter le BDI PRS
44
PRS (suite)
  • Au départ PRS a une collection de plans, un ou
    plusieurs buts de départ, quelques croyances
    initiales et un but de haut niveau qui agit au
    start-up. Ce but est comme la  main method  de
    Java.
  • Quand lagent démarre, le but à réaliser est mis
    dans la pile des intentions, qui contiennent
    toutes les intentions en attente.
  • Lagent cherche alors dans sa libraire de plans,
    les plan ayant comme postcondition lintention se
    trouvant au top de la pile.

45
PRS (suite)
  • Parmi tous ces plans, seuls certains peuvent
    avoir leurs pré-conditions satisfaites,
    conformément aux croyances courantes.
  • Lensemble des plans qui (i) satisfassent la
    post-condition et (ii) les pré-conditions,
    deviennent des options pour lagent.
  • Pour sélectionner entre ses différentes options,
    lagent pourrait faire appel soit à
  • Des méta-plans, ou
  • À lutilité des plans.
  • Le plan choisi est alors exécuté

46
HOMERun agent qui planifie
  • HOMER, un robot simulé pour la marine
  • Il prend ses instructions de lopérateur humain
    en anglais centré autour dun vocabulaire de 800
    mots
  • Il peut planifier comment réaliser ses
    instructions, exécuter le plan et le modifier en
    cours de route si le besoin se fait ressortir
  • Il peut au travers de sa episodic memory répondre
    à des questions relatives à ses expériences
    passées

47
HOMERun agent qui planifie
Write a Comment
User Comments (0)
About PowerShow.com