€¦ · résumé un système mdtiagents est généralement conçu en vue de faire coopérer...

119
houar Sadat Beiloula VERS UN MODELE FORMEL POUR LA DYNAMIQUE DES CROYANCES DANS LE CONTEXTE DES COMMUNICATIONS ENTRE AGENTS Mémoire présenté à la Faculté des études supérieures de l'université Laval pour l'obtention du grade de maître ès sciences (&leSc.) Département d'informatique FACULTE DES SCIENCES ET DE GÉME UNIVERSITÉ LAVAL Juin 2000 @ Anouar Sadat Belloula, 2000

Upload: dangdan

Post on 15-Sep-2018

214 views

Category:

Documents


0 download

TRANSCRIPT

Page 1: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

h o u a r Sadat Beiloula

VERS UN MODELE FORMEL POUR LA DYNAMIQUE DES CROYANCES DANS LE CONTEXTE DES

COMMUNICATIONS ENTRE AGENTS

Mémoire présenté

à la Faculté des études supérieures de l'université Laval

pour l'obtention du grade de maître ès sciences (&leSc.)

Département d'informatique FACULTE DES SCIENCES ET DE GÉME

UNIVERSITÉ LAVAL

Juin 2000

@ Anouar Sadat Belloula, 2000

Page 2: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

National Library I * m of Canada Bibliothèque nationale du Canada

Acquisitions and Acquisitions et Bibliographic Services services bibliographiques

395 Wellington Street 395, rue Wellington OttawaON KIAON4 Ottawa ON K1AON4 Canada Canada

The author has granted a non- exclusive licence dowing the National Library of Canada to reproduce, loan, distribute or seil copies of this thesis in microform, paper or electronic formats.

The author retains ownership of the copyright in this thesis. Neither the thesis nor substantial extracts from it may be printed or otherwise reproduced without the author's permission.

L'auteur a accordé une licence non exclusive permettant à la Bibliothèque nationale du Canada de reproduire, prêter, distribuer ou vendre des copies de cette thèse sous la forme de microfiche/£ilm, de reproduction sur papier ou sur format électronique.

L'auteur conserve la propriété du droit d'auteur qui protège cette thèse. Ni la thèse ni des extraits substantiels de celle-ci ne doivent être imprimés ou autrement reproduits sans son autorisation.

Page 3: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Résumé

Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution d'un problème ou la réalisation d'un but commun. Cette coopération est surtout réalisée a travers la communication entre ces entités autonomes et sociables. Cette communication permet le mouvement d'informations, i n t en t io~e l ou non intentionnel, d'un agent source a un ou plusieurs agents destinataires. En général, ces informations transmises ont des effets directs sur la dynamique des croyances.

Dans ce mémoire, nous aborderons le développement d'un modèle formel pour décrire cette dynamique des croyances sous l'influence de la communication. Pour ce faire, nous avons procédé en deux étapes. La première étape a consisté à introduire la Iogique des justifications. Les motivations qui nous ont poussé à introduire cette nouvelle logique est que la dynamique des croyances est fortement influencée par la notion de justification des croyances. En effet, et d'un point de vue communication, le concept des conditions préparatoires d'un acte du langage assertif [74] exige du côté de locuteur que ce dernier a des justifications (des raisons ou des arguments) envers les croyances qu'il veut communiquer. D'un point de vue révision des croyances, la théorie fondatiomelle [31] exige du côté de l'interlocuteur que ce dernier n'accepte comme croyances que des croyances justifiées. Donc, la logique des justifications va nous permettre de raisonner sur les justiûcations des croyances d'un agent évoluant dans un systéme mdtiagents. Elle est surtout considéree comme un cadre formel qui permet d'utiliser le raisonnement non-monotone en vue d'une modèlisation formelle du processus de la révision des croyances. Notre choix d'un formalisme non-monotone pour modéliser la dynamique des croyances est fondé sur l'idée de Makimon et Gêrdenfon (511 qui ont montré qu'il existe des fortes connexions entre les formalismes de raisonnement non-monotones et la révision des croyances. En effet, ils ont même établi une relation étroite, bilatérale entre ces deux théories. Ce choix est également fond6 sur la notion d'implicature dans la communication et plus particulièrement sur la notion du maxime de quantité de Grice [301 et la notion des conventions implicites dans la communication (9, 541. La deuxième étape a pour objectif l'introduction d'un systéme d'inférence non-monotone. Ce système non-monotone permet la révision d'une base de croyances d'un agent évoluant dans un système multiagents. Il est basée sur des techniques non-monotones et une spécification sémantique de la théorie AGM et de quelques actes du langage FIPA ACL par la logique des justifications. Finalement, une caractérisation tractable de Ia relation d'enracinement épistémique d t i a g e n t s est proposée. Cette caractérisation est basée sur la notion de la logique modale probabiliste qui est introduite en vue d'une traduction numérique de la logique modale.

Directeur de recherche Co-Directeur de recherche Étudiant Brahim Chaib-draa Nadir Belkhi t er Anouar Sadat BelIoda

Page 4: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

-4 ma fiancée Amina.

Page 5: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Avant-propos

Je voudrais remercier tout ceux qui m'ont aidé à réaliser ce traMj voudrais exprimer ma gratitude aux personnes s u i ~ n t e s :

II. En particulier, je

A mon directeur de recherche, M. Brahim Chaibdraa pour avoir dirigé et supervisé ce travail. Je le remercie pour son support financier qui m'a permis d'entreprendre mes études de maîtrise, pour sa continuelle disponibilité ainsi que ses remarques judicieuses.

h, M. Nadir Beikhiter pour ces précieux conseils, son soutien indéfectible, et tous les enseignements qu'il m'a apportés tant ,ur le plan professionnel que personnel.

Que mes parents trouvent dans chaque ligne de ce mémoire un signe de reconnaissance. Je salue de même ici mes collègues du laboratoire D.A.M.A.S. Ce lieu m'a permis, bien

des fois, de me ressourcer et de me remettre au travail.

Page 6: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Table des matières

Résumé

Avant-propos

Table des matiGres

Liste des tableaux

Table des figures

1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1 Le contexte de l'étude

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2 bfotivations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3 Objectifç

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4 Organisation du mémoire

2 Préliminaires logiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1 Logiques monotones

. . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Logique propositionnelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.2 Logique modale

. . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.3 Logique épistemique . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.4 L'omniscience logique

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2 Logiques non-monotones . . . . . . . . . . . . . . . . . . . . . . . 2.2.1 Logique des défauts de Reiter

. . . . . . . . . . . . . . . . . . 2.2.2 Logique non-monotone de McDermott . . . . . . . . . . . . . . . . . . . . 2.2.3 Logique autoépistémique de Moore . . . . . . . . . . . . . . . . . . . . 2.2.4 Hypothèse de monde clos de Reiter

. . . . . . . . . . . . . . . . . . . . . 2.2.5 Complétion de prédicat de Clark . . . . . . . . . . . . . . . . . 2.2.6 Théorie de circonscription de McCarthy

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3 Discussion

3 Dynamique des croyances . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.1 Exemples

3.2 Propriétés . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3 Révision des croyances

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.1 Expansion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.2 Révision

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Contraction

Page 7: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

. . . . . . . . . . . . 3.3.4 Relation entre expansion. révision et contraction 42 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.5 Mise en oeuvre 43

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4 ;Mise à jour des croyances 44 3.4.1 Miseajour . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.2 Effacement 46 . . . . . . . . . . . . . . . . . 3.4.3 Relation entre mise à jour et effacement 47

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.4.4 Mise en oeuvre 47 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5 Discussion 49

4 Communication 50 . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1 Théorie des actes du langage 50

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 Actes du Iangage 30

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.2 Le but iuocutoire 51 . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3 La direction d'ajustement 52

. . . . . . . . . . . . . . . 4.1.4 Les conditions sur le contenu propositionnel 52 . . . . . . . . . . . . . . . . . . . . . . . . 4.1.3 Les conditions préparatoires 53

. . . . . . . . . . . . . . . . . . . . . . . . . 4.1.6 Les conditions de sincérité 53 . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.7 Le degré de puissance 53

. . . . . . . . . . . . . . . . . . . . 4.1.8 La récursivité de la force illocutoire 54 . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.9 Les conditions de succès 55

. . . . . . . . . . . . . . . . . . . . . . . 4.1.10 Les conditions de satisfaction 55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.1.1 1 La logique iuocutoire 55 . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2 La pragmatique du langage 57

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3 Le langage KQML 58 . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.1 Spécification syntaxique 59

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.2 Les performatives 60 . . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.3 Specificationsémantique 62 . . . . . . . . . . . . . . . . . . . . . . . . . 4.3.4 Les régles de conversation 65

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4 Discussion 69

5 Dynamique des croyances sous l'iduence de la communication 70 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1 Introduction 70

. . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.1 Revision des croyances 71 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.1.2 Communication 72

. . . . . . . . . . . . . . . . . . . 5.1.3 Raisonnement non-monotone (RNM) 73 5.2 Relations entre révision des croyances, communication et R I . . . . . . . . 74

5.2.1 Relation entre la communication et la révision des croyances . . . . . . 74 . . . . . . . . . . . 5.2.2 Relation entre le RNM et la révision des croyances 74

. . . . . . . . . . . . . . . 5.2.3 Relation entre le IENM et la communication 75 . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3 Logique des justifications (LJ) 75

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1 Mot i~ t ions 76 5.3.2 La syntaxe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.3 La sémantique 78 . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.4 La théorie des preuves 79 . . . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Révision des croyances dans LJ 84

. . . . . . . . 5.4.1 Spécification sémantique du langage FIPA ACL dans LJ 86 . . . . . . . . . . 5.4.2 Spécification sémantique de la théorie AGM dans LJ 86

5.4.3 Processus de révision par des techniques non-monotones . . . . . . . . 87

Page 8: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.5 Mise en oeuvre 96 . . . . . . . . . . . . . . . . . . . . . . . . 5.5.1 Logique modale probabiliste 96

. . . . . . . . . . . . . . . . . . 5.5.2 Enracinement épistémique multiagents 99 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.6 Discussion 100

6 Conclusion 102 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.1 Récapitulatif 102

. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2 Apports 103 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3 Perspectives 104

Bibliographie 105

Page 9: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Liste des tableaux

Significations de O et O les plus utilisées . . . . . . . . . . . . . . . . . . . . . . 8

. . . . . . . . . . . . . . . . Les fondements de la théorie des actes du langage 56 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Les mots clés de KQML 60

. . . . . . . . . . . . . . . . . . . . . . . . . . . . Les performatives de KQ.iML 61 . . . . . . . . . . . . . . . . . . . . . . . . Spécification sémantique de KQML 63

. . . . . . . . . . . . . . . . . . . . Spécification sémantique de KQhL (suite) 64

La sémantique de quelques performatives de F P A ACL . . . . . . . . . . . . . 73 La sémantique de quelques performatives de FIPA ACL dans LJ . . . . . . . . 86

. . . . . . . . . . . . . . . 6.1 Les perspectives de continuation de notre recherche 104

Page 10: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Table des figures

4.1 Exemple des mini-conversations en langage KQML . . . . . . . . . . . . . . . . 66 . . . . . . . . . . . . 4.2 Exemple des mini-conversations en langage KQML (suite) 67 . . . . . . . . . . . . 4.3 Exemple des mini-conversations en langage KQbE (suite) 68

Effets d'expansion. de contraction et de révision sur une base de croyances . . 72 . . . . . . . . . . . . . . . . . . Schéma détaillé de la dynamique des croyances 85 . . . . . . . . . . . . . . . . . Exemple de persistence d'une base de croyances 91

. . . . . . . . . . . . . . . . . . . Exemple d'expansion d'une base de croyances 92 . . . . . . . . . . . . . . . . . Exemple de contraction d'une base de croyances 93

Exemple d'un autre type de contraction d'une base de croyances . . . . . . . . 94 . . . . . . . . . . . . . . . . . . . Exemple de révision d'une base de croyances 95

La sémantique des mondes possibles de Kripke . . . . . . . . . . . . . . . . . . 97

Page 11: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Chapitre 1

Introduction

1.1 Le contexte de I'etude

Le système intentionnel tel que présenté par Dennett [17j, nous semble intéressant pour la modélisation informatique. Il y a plusieurs raisons à cela :

1. C'est un modèle sur lequel on peut se baser pour anaiyser et concevoir des systèmes informatiques int eiligents (appelés agents) ;

2. C'est un modèle qui aide à comprendre et à expliquer les systèmes complexes ;

3. C'est un modèle qui fait ressortir certaines régularités et certains motifs d'actions qui sont indépendants de l'implantation physique des agents ;

4, C'est un modéle qui facilite la conception d'agents informatiques capables d'interagir efficacement.

Il est cependant, fort utile de se poser la question de la légitimité de l'attribution d'at- titudes mentales a des agents artificiek. Dans Ia communauté informatique, la majorité des chercheurs pensent qu'il est légitime et utile d'attribuer des états mentaux à des agents arti- ficiels. McCarthy, l'un des pionniers en intelligence artificielle, soutient, par exempIe, que :

-4ttribuer des attitudes mentales ù une machzne est légitime Zorsp'une telle at- tribution ezpr-ime la meme information à propos de la machine, qu'elle exprime à propos d'une personne. Cette attribution est utile quand elle now permet de comprendre la structure de la machine, son comportement ancien ou fidur, ou comment la réparer ou l'crmitiorer . . . exprimer misonnablernent et brièvement ce qui est connu à propos de l'état d'une machine dans une situation particulière peut nécessiter I'attn'butaon de qualités mentales. [52][kduction libre/

Selon McCarthy, il est donc avantageux d'avoir un modèle représentant les attitudes men- tales. Ce modèle nous donne la possibilitk de décrire le comportement d'un système sans avoir recours a une description détaillée de son implantation en machine ou de ses composants physiques. Nous pouvons, également, l'utiliser pour évaluer un système, en jugeant si ses at- titudes mentales sont conformes à des spécifications préétablies. Les attitudes mentales qui ont étC les plus étudiées en informatique sont les croyances, les connaissances, les intentions, les désirs, les préférences, les obligations et les engagements. Parmi les thèmes de recherche où ces attitudes ont un rôIe central, on peut citer :

1. l'interaction entre les connaissances et l'action [61, 441 ;

2. la compréhension du langage naturel et la théorie des actes du langages [2,3,13,27,501;

Page 12: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Introduction 2

3. la formalisation d'agents rationnels basée sur une architecture intégrant croyances, désirs et intentions [68, 6, 7, 11, 121 ;

4. la programmation orientée agent [75, 76, 461 ;

5. les logiques pour la spécification et la vérification des systèmes multi-agents [78] ;

6. les logiques pour la formalisation d'agents à rationalité Limitée [33] ; 7. spécification et raisonnement sur les connaissknces dans les systèmes distribués [22] ;

8. la robotique cognitive [45, 491.

Panni les attitudes mentdes citees auparavant, nous aborderons dans ce mémoire la notion des croyances. Cette notion est associ6e à celle de révision : toute information qui fait l'objet d'une croyance peut-être remise en question. Cette capacité de pouvoir remettre en question un fait, une déduction, une loi ou un jugement est à la base de notre capacité d'adaptation cognitive, c'est-à-dire la faculté que nous avons, êtres humains, d'accommoder notre système cognitif à un monde en perpétuelle évolution, cette évolution étant le fruit des actions des différents agents intervenants dans notre univers.

li en est de même pour les agents intervenant dans le cadre d'un système multiagents, qui doivent être capable de remettre en question leurs informations et de réviser leurs jugements. Par exemple, dans le problème de la poursuite, les prédateurs doivent réviser leurs croyances concernant la position de la proie et décider de l'action à entreprendre en fonction de cette croyance. Si le temps de réaction et de propagation des co~~~munications n'est pas négligeable, les predateurs disposeront parfois d'informations erronées, la situation de la proie ayant changé entre-temps.

1.2 Motivations

La plupart des travaux de recherche portant sur la revision des croyances se sont maheu- reusement concentrés sur les aspects statiques. C'est ainsi que jusqu'à récemment, un agent artinciel est modélisé comme une entitd ayant des attitudes mentales qui ne changent pas au cours du temps. C'est @ce aux travaux menés en philosophie qu'on est venu à s'intéresser aux aspects dynamiques. En fait, la philosophie des sciences recomaî t deux types de changements : les grands et les petits. Les grands changements sont appeles par Kuhn 1401 les révolutions scientifipues; la relativité d'Einstein en est un exemple. Les petits changements, étudiés prin- cipalement par Popper [66] et Lakatos [43], représentent généralement ce qui change suite au progrès évolutif. Un aspect sigmficatif de ces petits changements est l'aspect de révision des cmyances, c'est ii dire, le changement de croyances qu'un agent opère quand il est confronté à de nouvelles informations provenant de son monde extérieur. La révision est ici considé- rée dans son sens le plus général, à savoir, celui de changement. Dans ce cas, les operations de changements de croyances par rapport aux propositions, dûs aux nouvelles informations peuvent être classés comme suit [l, 291 :

1. Expansion : une nouvelle croyance avec toutes ses conséquences possibles p doit Stre acceptée par un système de croyances BC. Le système de croyances qui en résulte, en étendant BC par (o et ses conséquences logiques, est noté BC:.

2. Contraction : une nouvelle croyance p doit être retradée d'un système de croyances BC sans l'ajout de nouvelles informations. Pour que le système de croyances résultant soit consistant, il faudrait aussi abandonner certaines autres croyances de BC. L'opération de contraction de BC avec <p est notée BCG.

Page 13: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

3. Réwision : un système de croyance BC doit être étendu à une nouvelle croyance cp, typiquement inconsistante avec ce systéme. Pour garder le système de croyances résul- tant, consistant, il faudrait rétracté certaines a n c i e ~ e s croyances de BC. L'opération de révision de BC par rp est noté BC;.

Ces trois aspects ont donné lieu, ces dernières années, à une intense activité de recherche. Cependant, bien des points restent en suspend, particulièrement :

1. l'influence des actes du langage s u la dynamique des croyances ;

2. l'influence de la sincérité, la compétence et les préferences des intervenants à un dialogue, sur cette dynamique:

3. le développement d'un modèle formel qui décrit cette dynamique.

Ce sont ces différents points qui nous ont motivés pour entamer notre recherche.

1.3 Objectifs

Les principaux objectifs visés par le travail que nous présentons sont les suivants :

1. contribuer à l'élaboration d'une logique qui tient compte de la dynamique des croyances suite à une interaction basée sur le discours. Cette logique doit rendre compte des Capa- cités cognitives restreintes des locuteurs humains, aussi bien que des capacités créatives de leur compétences Linguistiques. Elle doit particulièrement permettre de raisonner sur les justifications des croyances d'un agent évoluant dans un contexte multiagents.

2. étudier la révision des croyances sous I1iduence des actes du langage dans le cadre de la logique des justifications. Il convient d'étudier, entre autres, l'incidence de la sincérité, la compétence et les préférences des intervenants à un dialogue, sur le processus de la révision des croyances.

1.4 Organisation du mémoire

Ce mémoire vise à contribuer à la dynamique des croyances engendrée par les actes du langage suite à une conversation entre agents. Il est organisé de la façon suivante : le chapitre 2 est consacré à la présentation de quelques outils formels utilisés pour le dkveloppement de notre modèle. Le chapitre 3 est consacré à la dynamique des croyances. Dans la première partie de ce chapitre, la théorie AGM de la révision des croyances, proposée par Mchourrdn, Giirdenfors et Makinson, est présentee. La deuxième partie est consacrée à la mise à jour d'une base de croyances. Le chapitre 4 est consacré B la communication dans les systèmes multiagents. Dans ce chapitre, une présentation de la ~heorie des actes du Iangage est exposée. Le chapitre 5 représente notre contribution personnelle. Dans la première partie de ce chapitre, la syntaxe, la sémantique et la théorie des preuves de la logique des justifications sont proposées. Dans la deuxième partie de ce chapitre, le raisonnement non-monotone est appliqué pour résoudre le problème de la révision des croyances sous l'influence de la communication dans le cadre de la logique des justifications. Cette deuxième partie consiste surtout à introduire un système axiomatique qui contient surtout les axiomes de persistence, d'expansion, de contraction et de révision et qui permet de maintenir la consistance de la base des croyances d'un agent évoluant dans un environnement multiagents. Enfin, le dernier chapitre, conclut avec un récapitulatif des thèmes abordés dans ce mémoire et un bref exposé des perspectives de continuité de cette étude.

Page 14: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Chapitre 2

Préliminaires logiques

La logique clasique s 'attache à la formalisation du raisonnement strictement cor- rect. La modélisation du razsonnement, telle qu'elle est visée en intelligence arti- ficielle, ne doit pas se restreindre à la formalbation d'une intelligence sans faille. Une grande part de notre intelligence réside dans notre faculté d'élaborer des rai- sonnements judicieux, quoique entachés d'incertitudes. En particulier, face à une infornation incomplète, incertaine ou éuohtiue, nos raisonnements sont souvent plausibles et sujets à rétrisaon. Il est clair à priori qu'un systéme logique permettant de formaliser pareil raisonnement révisable doit être non-monotone. Ce chapitre donne un -osé introductif des différentes logiques qui existent pour la modélisa- tion de ce raisonnement nonmonotone après avoir présenté un aperçu général sur les logiques monotones les plus utilisées dans le domaine des systèmes mdti-agents.

2.1 Logiques monotones

Si l'intelligence artScieUe est l'art de programmer le raisonnement, la loga'que, qui per- met de formaliser ce raisonnement, en est le fondement scientifique. En effet, le but de la logique est de nous donner un outil permettant de distinguer les inférences correctes des infé- rences incorrectes. Il n'est donc pas du tout surprenant que la logique ait joué un rôle central en intelligence artificielle et que la plupart des fomdismes actuels de representation de la connaissance soient plus ou moins directement basés sur la logique mathématique. Ce rôle de la logique dans la problématique de la représentation de la connaissance et du raisonnement est multiple :

La logique peut être utilide directement comme outil de représentation de la connais- sance et du raisonnement.

a La logique peut également faire office de référence et d'étalon d'expressivité, de modèle de compétence, de garant de principes logiques élémentaires et peut aider à la déhition précise de techniques alternatives.

a Elle définit un certain nombre de principes et de lois indispensables à la résolution de nombreux problèmes.

a Elle permet l'andyse du sens d'une représentation de connaissances et l'analyse de Ia validité des inféIences.

Page 15: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires Iogiques 5

A cet égard, la logique est l'outil par excellence permettant l'analyse de la connaissance et du raisonnement. Or, historiquement, elle n'a pas été créée pour cela, mais pour expliciter les bases du raisonnement mathématique. Cependant, on la considère parfois comme l'aboutisse- ment du programme de recherche qui, depuis Leibniz, vise & définir un formalisme non ambigu dans lequel il devient possible d'exprimer nos connaissances. Certains logiciens appuient cette prétention en s'intéressant à la traduction de quelques expressions d'usage courant en formules logiques, et en laissant parfois entendre que toute connaissance evprimable en langage naturel possede une telle traduction. Il n'est donc pas étonnant que les premiers informaticiens qui se sont intéressés à la compréhension automatique aient écrit des programmes de conversion de l'anglais vers la logique des prédicats. Pourquoi en &-il ainsi ? Y a-t-il des raisons profmdes qui confèrent à la logique une vocation privilégiée à représenter les comaissances ? De bons arguments sont faciles à trouver pour étayer à la fois une réponse atfumative et une réponse négative :

Réponse af imat ive Une représentation, avons-nous dit, doit avant tout $tre utilisable. Utiliser une représen- tation, c'est effectuer sur eue des opérations en vue d'obtenir un résultat d'une forme dé- terminée. Si cet te représentation possède une sémantique, les opérations légales doivent se limiter aux transformations préservant la valeur de vérité. Or, ce sont précisément ces transfomat ions qu'étudie la logique [48].

Réponse négative En t&e des exigences que l'on peut avoir à l'égard de l'intelligence artificieile, on trouve la robustesse et l'efficacité. Or. il est connu que ces exigences sont antinomiques de celles de complétude et de validité, qui plus est, nous avons insisté sur le fait qu'une représentation n'a pas en soi de valeur de vérité. A quoi sert-il de se limiter à des transformations préservant la vérité, si cette notion de vérité s'introduit d'une manière artificielle dans la représentation [591?

Conclwion En représentation des connaissances, il ne faut pas considerer la logique avec les mêmes yeux que les logiciens ! Ii s'agira pour nous d'un outil le plus fiable que nous ayons. En d'autres termes, une méthode dont on peut prouver l'inconsistance n'a aucun inter& pour le logicien, mais si elle est rapide, et si les inconsistances qu'elle introduit sont suEsamment rares, elle n'est pas loin d'étre idéale pour l'intelligence artificielle.

Nous avons parlé jusqu'ici de la logique, comme si elle formait un corps de doctrine unique. Or, il existe plusieurs logiques. Il est m&me intéressant de constater que l'introduction d'une nouvelle logique visait souvent à améliorer l'adéquation à un probléme de représentation des connaissances, et non à remédier à d'éventuels défauts internes des logiques existantes. D'une façon générale, nous pouvons déWr une logique [20] en termes de ses constituants essentiels qui sont :

Un ensemble de symboles logiques : qui définit les éléments de base pour la construction du langage de représentation de la logique;

Des ~ g l e s sy71tusiques : qui ont pour but de construire des phrases significatives à partir des symboles logiques ;

a Une théorie des modèles : qui a pour but d'établir un mécanisme sémantique d'évaluation des formules. Par sémantique, nous entendons que nous d o n s donner un sens à nos atomes, puis donner un sens une formule a partir de la valeur de vérité des atomes qui la composent et des connecteurs qui relient ces atomes. La théorie des modèles est une

Page 16: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires logiques 6

formalisation de la notion intuitive que nous avons de la vérité ou de la fausseté d'une phrase en fonction des propositions qui la composent ;

a Une théorie de preuves : qui est une théorie purement syntaxique. Par syntaxique, nous entendons que le mode de déduction utilisé est purement formel et se définit unique- ment en termes de règles mécaniques sur les formules (les éléments du langage), sans s'intéresser à leur valeur de vérité. Elle s'oppose en cela à la théorie des modèles qui donne a chaque formule une valeur sémantique, c'est-à-dire un sens. En nous appuyant sur un certain nombre de formules fixées au départ, que nous appellerons homes , par application de règles d'inférence, agissant sur ces ariomes ou sur les formules déjà dé- duites da ces axiomes, nous obtiendrons de nouvelies r'omuies, que nous appeiierons théorèmes, sur lesquelles nous pourrons répéter le processus. Les axiomes sont les prin- cipes fondamentaux de la logique, et les règles d'inférence assurent la partie créative du mécanisme déductif. II n'y a derriére ce mécanisme aucune notion de vérité ou de faus- seté des énoncés. Nous pouvons même considérer les symboles de connecteurs comme purement formels.

La théorie de preuves d'une logique est construite pour être en bonne correspondance avec la théorie des modèles de cette logique. Dans ce cas, une logique est dite adéquate si tout théorème (l- i p ) est une formule valide (+ p). Tandis qu'une logique est dite complète si toute formule valide (/= p) est un théorème (l- q). Dans le cas où la logique est adéquate et cornpléte, les symboles k et sont équivalents.

2.1.1 Logique propositionnelle

La logique propositionnelle 1201 est la partie la plus élémentaire de la logique, dans la mesure où les propositions ne sont pas analysées, mais simplement envisagées sous le rapport de leur vérité ou de leur fausseté. Son étude représente pourtant une étape fondamentale, et certaines des propriétés fines des logiques plus compliquées viennent en fait de la structure propositionnelle. D'autre part, elle constitue un cadre simplifié pour présenter quelques idées fécondes que nous mettrons à profit dans des circonstances plus évoluées.

La syntaxe

Le langage propositionnel est un langage formel constitué d'expressions appelées formules. Ces formules sont construites à partir d'un ensemble, not6 Prop, de symboles appelés pro- positions, variables propositiomelles ou formules atomiques, et d'un ensemble de constantes logiques, à savoir : 7, h, V, >, G, vmi et fam. En utilisant cet alphabet, le langage formel propositionnel Lp est défini par les deux règles syntaxiques suivantes :

La sémantique

Supposant que M = (L) est le modèle formel associé à tp oii L représente uri sous ensemble de Prop qui ne contient que les propositions vraies. Dans ce cas, la sémantique de la logique propositionnelle est définie par la relation de satisfaction bp qui est définie inductivement par les règles sémantiques suivantes :

Page 17: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires logiques

a Sem-1. M F p p ssi p E L Sem-2. M k p -cp ssi MF-p p

a Sem-3. M tp p A Ji ssi M k p p et M k p + a Sem-4. M kp ip V (I ssi M F p <p ou M k p $ 0 Sem-5. M +Y (O > $ ssi MF? y~ ou &1 k p + S e m - 6 . M k p r p e ~ ssi ( M + p p e t M C p l / > ) ~ ~ ( M F p p e t M % p r l t )

Selon cette sémantique, les deux constantes fa= et mi sont dCfhies respectivement par les deux formules (9 A -p) et (7 fauz). Tandis que les formules p V $J et ip 3 11 sont définies respectivement par ies à e w formules 7 jlcp A j et -q7 v q.

Théorie de preuves

Aziornes : si p, + et 7 sont des formules, alors les formules suivantes sont des schémas axiomes :

(v 3 (QI 4). K T 3 14 3 ((-<p 3 i I ) 3 w* ((Y) 2 (@ 2 7)) ((rp 3 11) 3 ((O 7))).

Règle d'inférence : si ip et rp > 11 sont des théorèmes alors $ est un théorème. Cette règle est appelée modus ponem et notée : si l- p, t p > ~,6 alors k $.

2.1.2 Logique modale

La logique modale [SI a été introduite en raison de la mauvaise représentation de la cau- salité en logique ordinaire. En effet, la formule ip > 11. prend la valeur mi dés que p est fa=, ce qui donne à penser qu'un lien de causalité unit toute proposition fausse à toute autre proposition. Cependant, on peut en donner une meilleure approximation en introduisant la notion de monde possible. L'idée est d'aEiirxner que cp est la cause de peut se représenter par : Il n'est pas possible de concevoir un monde où l'on a p et y+. La représentation de la causalité au moyen de cette idée n'est pas apparue comme pleinement satisfaisante, mais nous ne cherchons pas à approfondir ici ses avantages ni ses inconvénients. Qu'il nous suffise d'affirmer qu'elle a eu des conséquences extrêmement importantes pour la représentation des connaissances.

De plus, l'évolution de l'univers est difficile à représenter en logique classique. Pour rendre cette dernière plus expressive, il faut l'introduction de modalités traduisant des notions a priori non quantsables : possibilité, obligation, croyance, etc. Les opérateurs modaux sont des opérateurs qui portent sur des formules logiques pour en modifier, en infléchir le sens. On peut considérer les opérateurs modaux comme de nouveaux quantificateurs avec un sens qui dépendra du contexte. Les deux opérateurs modaux qui expriment les deux modalités : possibilité et nécessité, sont respectivement représentées par les deux symboles O et-O. La table 2.1 récapitule les significations de ces deux opérateurs les plus héquement utilisées.

La première signification de O est «il est nécessaim et celle de O est «il est possiblm. La formule 09 signifie que la formule p est nécessairement vraie. Tandis que la formule signifie que (o est possiblement vraie. La vérité exprimée par El est une vérité nécessaire, c'est- à-dire dans aucun cas ne peut être faux. Par contre, la vérité exprimee par O est une vérité contingente, c'est-à-dire la fausseté de 9 peut être envisagée. Donc, la forte expressivité de la logique modale est une propriété remarquable. On peut donner à chacun des deux opérateurs

Page 18: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Prdliminaires logiques

- i temporelle 1 rp sera toujours vrai 1 rp sera parfois vrai [ épistémique 1 cp est connu 1 l'inverse de ip n'est pas connu 1

09 il est possible que cp cp est pennis

Logique aléthique déontique

TAB. 2.1: Significations de O et O les plus utilisées.

OP il est nécessaire que cp cp est obligatoire

plusieurs significations en fonction de la modalité qu'on voudrait exprimer à la seule condition de respecter la reIation de dualité qui lie les deux opérateurs, a savoir : 0 = 43.

La syntaxe

Syntaxiquement, la logique modale n'est qu'une logique propositionnelle enrichie par les deux opérateurs modaux et O. Dans ce cas, le langage formel CM de la logique modale est défini par les règles syntaxiques suivantes :

L'interprétation du calcul propositiomel classique comme composition de fonctions boo- Eenriies élémentaires ne s'applique pas à la logique modale. En effet, la composition d'un op4rateur de nécessité avec une proposition vraie peut conduire, suivant les cas, soit a un énoncé vrai, soit B un énoncé faux. Par exemple, d a neige est blanchm est UR énoncé vrai, mais wzécessairernent, la nezge est blanchm n'est pas vrai. Pourtant, «nécessaarement, la neige est blanche ou la neige n'est pas blanchm est vrai. La différence entre Ies deux énoncés auxquels s'applique l'opérateur de nécessité est que l'un est vrai B cause des circonstances, c'est-à-dire des lois de la physique, alors que l'autre est vrai en vertu des lois de la logique. Il faut donc distinguer entre les vérités de fait et les vérités logiques. Le point de vue gé- néralement adopté est de considérer un énoncé comme nécessairement vrai si sa vérité est indépendante des circonstances.

La sémantique qui était utilisée pour concrktiser ce point de vue est la sémantique des mondes possibles de Kripke [39]. L'univers est consideré comme un ensemble de mondes reliés par une relation d'accessibilité. Chaque monde représente une vue de ce que pourrait possiblement être le monde. L'ensemble des mondes possibles est un modèle complet pour le langage sans opérateurs modaux. En &et, chaque monde possible spécifie la vérite ou la fausseté de chaque formule d'une manière consistante. Le monde réel représente un monde particulier. Les modalitCs sont incorporées dans la relation d'accessibilité. Cette relation, qui définit les transitions d'un monde à un autre, est liée à la forme des axiomes. Par exemple, le schéma d'axiome Clcp 3 9 sera vrai dans toute structure où la vérité de l'énoncé cp dans tous les mondes accessibles à partir du monde actuel implique la vérité de cp dans le monde actuel. Il est donc nécessaire que Ie monde actuel soit accessible à lui-même. Autrement dit, il est nécessaire que la relation d'accessibilité soit @eziue.

D'après ce qui précéde, la logique modale a pour modèle M = (W, R, V) :

- W : représente l'ensemble des mondes possibles.

- 7Z W x W : représente la relation d'accessibilité.

Page 19: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

logiques 9

- V & [Prup -t W ] : représente la fonction de valuation qui associe à chaque proposition l'ensemble des mondes possibles pour lesqueis cette proposition est vraie.

Dans la logique modale, Nous dirons qu'un monde w2 est accessible à partir d'un monde wi, si et seulement si il existe une relation d'accessibilité entre w i et w2. Selon cette interprétation, la sémantique de la logique modale est déhie par la relation de satisfaction qui est définie inductivement par les règles sémantiques suivantes :

Sem-1. &c,w kMp ssi w €V@),oÙpE P ~ o p 0 Sem-2. M, w kM -cp ssi M, w F,M cp Sem-3. M , w ~ , ~ c p r \ $ ssi k 1 , w b , ~ c p e t M , w / = ~ * l Sem-4. M, w LJw Eip ssi (Vwl[ < ui, w' >E 73 : M, w' bM ip )

l Sem-5. M, w F M Op ssi (3w11 < w , w' > E 7Z : M,w' b , ~ i p )

Théorie de preuves

La sémantique précédente engendre certaines propriétés importantes de la relation d'ac- cessibilit6. Parmi ces propriétés, on trouve :

R est réflexive ssi (Vw : (w , w) E R) O 7Z est sérielle ssi (Qw : (3w' : (w, w') E R)) 0 R est transitive ssi (VwL, w2, w3 : (wL, w2) E R A (w?, w3) E 72 * (utl, w 3 ) E R) 7Z est euclidienne ssi ( V W ~ , w2, w3 : (wl, w2) E 7Z A (wi, w3) E 7Z * (w2, w3) E 72)

Donc, un modèle de la logique modale qui satisfait les propriétés précédentes valide les formules (axiomes) suivantes :

a l'axiome T : UV > rp (72 est réflexive).

0 l'axiome 4 : Op > Op (7Z est sérielle).

a l'axiome 4 : 09 > 0 0 ~ (R est transitive).

a l'axiome 5 : 09 3 509 (R est euclidienne).

En plus, toute axiomatisation de la logique modale doit comporter :

0 Tous les axiomes de la logique des propositions et la règle du modus ponens;

Le schéma d'axiome de distribution noté K : O(rp > $) > (Up > O@) ;

La règle d'inférence de nécessité : si F ip alors i- 09.

Une logique modale est dite normale si elle contient le schéma d'axiome K et si eue est dotée de la règle d'inférence de nécessité.

2.1.3 Logique épistémique

Si la fonction premiére de la logique modale est la formalisation des modes de nécessité et de possibilité, l'un de ses autres champs d'application est la modélisation et I1ana?yse des paradigmes de connaissance et de cmyance [321. A cette fin, différents systèmes logiques uti- lisent des langages formels comportant des opérateurs modaux de croyance et de connaissance. Dans ce cas, la logique est dite logique de m y a n c e e t de connaissance ou logique épistémique. La syntaxe et la sémantique de cette logique sont identiques à celles de la logique modale en remplaçant respectivement les deux opérateurs modaux O et O par L et M. L'opérateur

Page 20: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Pr6liminaù.w logiques 10

modal universel L prend respectivement les significations uest c m et «est connw. Son dual, l'opérateur existentiel Ml prend respectivement les significations « 1 'inverse n'est pas c m ) et «l'inverse n'est pas connw. La relation de dualité sera : L r -Ml .

La relation d'accessibilité 7Z définit les liens entre les mondes compatibles avec les croyances ou les connaissances d'un agent. Pour montrer ce que les mondes possibles représentent pour la modélisation des croyances d'un agent, considérons qu'un agent i croit la formule 9. Imaginons, maintenant, que nous le prenons tel qu'il est dans un monde quelconque w et montrons hi tous les autres mondes un à la suite de l'autre. Si l'agent i trouve dans un monde qu'une formule est incompatible avec ce qu'il croit, alors ce monde-là ne lui est pas accessible. Par contre, si tout correspond ayec ce qu'il croit, CP nlonde !ui est mesible. Toat ce qd-m rgmt croit vrai doit obligatoirement être vrai dans tous les mondes accessibles et tout ce qu'il croit faux doit être faux. Toute formule pour laquelle il n'a aucune croyance particulière peut être vraie dans certains mondes et fausse dans d'autres. Voyons, maintenant, ce que les axiomes définissent comme propnetés pour les croyances et les connaissances d'un agent :

Le schéma d'axiome de distribution : L(rp > 11) > (Lv > L+) Le schéma d'axiome K défhit la fermeture sur les conséquences logiques d'une formule. Lorsque l'opérateur modal L signifie *est cm», alors le schéma K s i d e : nsi un agent croit à une formule alors il croit toutes les consbquences logiques de cette formulee. De même, lorsque l'opérateur modal L signifie uest connu», alors le schéma K signifie : ctsi un agent connait une formule alors il cornait toutes les conséquences logiques de cette formuIe».

r Le schéma d'axiome de la connaissance : Lp 3 cp Le schéma d'axiome T définit qu'une connaissance est une information vraie. Ce schéma d'axiome demande donc que «ce qui est connu soit vrai». Ce schéma sera ajouté au systeme modal normal lorsque l'on désire que l'opérateur L signifie «est connu». Par contre le schéma d'axiome T ne figurera pas dans un système d'axiomes formalisant les croyances pour la raison qu'une cro--ce peut parfois être erronee. Le système modal normal augmenté de T prend le nom des deux schémas d'axiomes modaux qu'il contient : on le note KT. Il est parfois plus simplement noté 7. Le schéma de l'introspection positive : Lp > LLrp Le schéma d'axiome 4 définit la faculté d'introspection positive qui est nécessaire A la formalisation d'une intelligence introspective parfaite. Lorsque l'opérateur modal L signifie «est cru», alors le schéma 4 signifie : «si un agent croit à une formule alors il croit qu'il la croit». De même, lorsque l'opérateur modal L s i d e «est connu^, dors le schéma 4 signifie : «si un agent connait une formule alors il sait qu'il connait cette formule^. Le système modal normal augmenté des schemas d'axiomes T et 4 est noté KT4 ou, plus classiquement, S4. Le schéma d'axiome de l'introspection négative : Mq 3 L M p Le schéma d'axiome 5 d é f i t la faculté d'introspection négative parfaite. Elle exprime une parfaite connaissance de nos limites de connaissances ou de croyances. Ce schéma d'axiome est équivalent à -Lp 3 L-Ltp. Lorsque l'opérateur modal L s i d e «est cru^, ce schéma signifie : mi un agent ne croit pas a une formule alors il croit qu'il ne la croit pas». De même, lorsque l'opérateur modal L signifie ctest connw), ce schéma signifie : «si un agent ne connait pas une formule alors il sait qu'il ne la corinait pas». Le système modal normal augmenté des schémas d'axiomes T, 4 et 5 est noté KT45 ou, plus classiquement, S5. Le schéma d'axiome D : Lrp 3 Mp

Page 21: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Ce schéma d'axiome est équivalent à Lp 3 ~ L l r p . Lorsque l'opérateur modal L signifie «est cru», ce schéma signifie : des croyances d'un agent ne sont pas contradictoires», c'est-à-dire un agent ne peut pas croire à la fois à une formule et à sa négation. De même, lorsque l'opérateur modal L signifie «est connu», ce schéma si&e : «les connaissances d'un agent ne sont pas contradictoires~, c'est-à-dire un agent ne peut pas avoir comme connaissance une formule et sa négation.

La n2gle d'inférence modale de nécessité : si F cp alors î- Lv. Lorsque l'opérateur modal L signifie uest cru», alors la règle de nécessité signifie : «toute formule valide est une croyance de l'agent». De même, lorsque l'opérateur modal L s i d e <est connun, data ki règle de nGcessit6 s i g d e : stoute formuie Mi ide est une connaissance de l'agent)).

Le choix d'un système modal dépendra du concept a modéliser. Si I'on veut caractériser la connaissance d'un agent intelligent ayant une parfaite capacité d'introspection logique sur ce qu'il connaît et ne connaît pas, on choisira le système modal S5. Si l'on désire modéliser les croyances d'un agent idéalement rationnel, c'est-à-dire un agent dont certaines croyances peuvent se révéler erronées mais qui cependant poss&de une parfaite faculté d'introspection logique sur ce qu'il croit et ne croit pas, on choisira le système K45, appelé aussi faible S5.

2.1.4 L90mniscience logique

Bien que très utilisée en intelligence artificielle distribuée pour décrire les croyances et les connaissances des agents, la logique épistémique est très controversées. La première de ces controverses concerne l'omniscience logique des agents ainsi définis. En effet, la logique épis- témique récIame absolument la règle de nécessité qui indique que toute formule valide, c'est- à-dire universellement vraie quel que soit le modèle, fait nécessairement partie des croyances de l'agent. L'inconvénient, c'est que cette régle, lorsqu'eile est associée à l'axiome K, impose à l'agent d'être capable de deduire toutes les consequences logiques de ses croyances et en particulier ceiles qui proviennent des conséquences universellement valides. Dans ce cas, on ne peut donc pas croire quelque chose qui soit en contradiction avec un fait universellement vrai. Les croyances fausses sont donc interdites, ce qui est pourtant le propre des croyances. De plus, cette semantique ne prend pas en compte le fait que les agents disposent de mé- moire et de processeurs lirnitbs. On ne peut donc se sortir de ces difEcultéç qu'en supposant que cette sémantique définit des agents dont les performances de déduction sont idéales. On fera aussi attention à limiter au maximum le nombre de formules universellement valides de telle maniére que des déductions non voulues ne puissent pas être engendrees par le système. Plusieurs tentatives ont été faites pour régler le problème de I'omniscience tout en gardant la nature fondamentale du modèle des mondes possibles. Les plus connues de ces tentatives sont ceIles de Levesque [47] et de Fagin et Halpern [21].

Logique de 19implicite et de l'explicite

Levesque [47] a proposé pour éviter t'omniscience logique de faire la distinction entre croyances q i i c i t e s et implz'cites. Les croyances explicites représentent ce qu'un agent croit ex- plicitement et les croyances implicites sont toutes les croyances obtenues à partir des croyances explicites par dérivat ion.

La syntaxe Syntaxiquement, la logique de Levesque n'est qu'une logique propositionnelle enrichie par deux opérateurs modaux, à savoir : B pour croyance explicite et L pour croyance

Page 22: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires logiques

implicite. Donc, le langage formel Lx& de la logique de I'implicite et de l'explicite est défini par les règles syntaxiques suivantes :

La sémantique Sémantiquement, les croyances explicites et implicites sont définies à partir de situations. Les situations peuvent être considérées comme des mondes possibles à la seule dsérence que dans une situation, à toute proposition peuvent être assignées les valeurs wai7 fa- les deux à la fois ou aucune des deux. La logique de Levesque a pour modèle M = (S,B, 7, F) :

- S : ensemble de situations ;

- B C S : ensemble des situations compatibles avec les croyances explicites d'un agent ;

- 7 ç [Prop -t S! : est une fonction qui, pour une proposition plimitive, donne comme résultat l'ensemble des situations où cette proposition est vraie ;

- F C PT^ + S] : est une fonction qui, pour une proposition primitive, donne comme résultat l'ensemble des situations oti cette proposition est fausse.

Tb) représente toutes les situations où p est vraie, tandis que 3 ( p ) représente toutes les situations oii p est fausse. Une situation s est :

- partielle : si elle ne supporte ni la vérite ni la fausseté d'au moins une proposition P ;

- incohé~nte : si elle supporte à la fois la vérité et la fausseté d'au moins une pro- position p ;

- complète : si elle d é h i t la vérité ou la fausseté pour toute proposition p. .4utrernent dit, s appartient exactement à 7@) ou 3@) pour toute proposition p ;

- compatible avec une situation sr, si s et s' concordent partout où s' est définie. Autrement dit, si s' E T(p) alors s E 7 ( p ) et si s' E P ( p ) alors s E 3 ( p ) pour toute proposition p.

Levesque définit deux relations de satisfaction Cr et t3. La relation +r supporte la vérité et ia relation k3 supporte la fausseté. Selon cette interprétation, la sémantique de la logique de l'implicite et de l'explicite est défmie par ces deux relations de satisfaction qui sont définies inductivement par les règles sémantiques suivantes, où 8' est l'ensemble de toutes les situations complétes de S qui sont compatibles avec les situations de B :

0 Sem-1. 0 Sem-2.

Sem-3. Sem-4. Sem-5. Sem-6.

0 Sem-?. Sem-8.

0 Sem-9. Sem-10.

Page 23: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

PréLiminaires logiques 13

La relation entre B et L est déhie par Bp 2 Lv. Donc, si 9 est une croyance explicite, alors c'est aussi une croyance implicite. L se comporte comme un opérateur modal classique et I'opérateur B a les propriétés suivantes :

O les croyances explicites ne sont pas fermées sur l'implication : Bv h B(p 3 @) A YB$ peut etre satisfaite ;

a les formules valides ne sont pas nécessairement des croyances explicites : -B(p V l p ) peut être satisfaite ;

a les croyances explicites ne sont pas fermées sur l'implication valide : Bip A lB(p A (11 v -d~)) peut 6tre satisfaite.

Bien que la logique de Levesque règle certains problèmes de l'omniscience, elle a été l'objet de beaucoup de critiques. La plus importante concerne le concept de situation incohérente. Ce concept n'est halement qu'une prouesse technique qui ne règle le problème qu'en apparence. Il est généralement admis que l'incohérence se situe dans la pensée ou dans le discours, mais pas dans les choses. Ce qu'il faut retenir de la logique de Levesque est la pertinente distinction entre croyance explicite et croyance implicite.

Logique génerale de conscience

En se basant sur la distinction entre croyances explicites et croyances implicites et sans recourir aux situations incohérentes, Fagin et Halpern [21] ont proposé la logique générale de conscience.

La syntaxe En plus des opérateurs B et L de Levesque, Fagin et Halpern ont introduit dans leur logique un troisième opérateur note A. Donc, le langage formel t ç c de la logique générale de conscience est défini par les régles syntaxiques suivantes :

Syn-1. Si p E Prop alors p E Lçc S p - 2 . Si p, $ E tçc, i E Agent alors TV, p A 11, &ip, Li<pt Bip E Lçc

O La sémantique La logique générale de conscience a pour modèle M = (S, {A), {Bi), V ) :

- S : ensemble de situations ;

- Bi C S x S : ensembIe des situations compatibles avec les croyances explicites de l'agent i ;

- : est une fonction qui associe à une situation un ensemble de formules ;

- V Ç [Prop + SI : fonction de duation.

&cp a pour interprétation l'agent i est conscient de p. Donc, pour chaque agent, on a Bi pour la croyance explicite, Li pour la croyance implicite et Ai pour la conscience. L'opérateur de conscience joue essentiellement le rôle d'un a t r e syntaxique dans chaque monde possible. d&) se compose des propositions dont l'agent i est conscient dans la situation S. Les formules qui sont dans &(s) sont celles dont l'agent i est conscient et ne sont pas nécessairement ceIles qu'il croit. Selon cette interprétation, la sémantique de la logique générale de conscience est définie par la relation de satisfaction bçc qui est d é f i e inductivement par les règles sémantiques suivantes :

Sem-1. M, s kçc p ssi s E V ( p ) , o ù p E Prop a Sem-2. M, s kçc -<p ssi M, s Fçc y~

Page 24: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Pr&liminai.es logiques

Dans cette logique, un agent croit explicitement une formule s'il croit implicitement cette formule et il est conscient de cette formule. Ce qui donne : Biip s Lip ri Aiv. Cela signifie que pour qu'un agent puisse croire explicitement une formule il doit en etre conscient. La règle de nécessité est affaiblie, car pour qu'une formule valide soit crue par un agent il faut qiie !'zgezt soir cocscient de cette fornde. Ces so~cfications pemettevt dc i k g k plusieurs formes de l'omniscience logique. La plus importante est que I'agent cesse de croire toutes les conséquences logiques de ses croyances. En effet, Bip A B i ( p > $) A -Bi$ peut être ~atisfaite puisque un agent peut être conscient de cp et de cp 3 sans toutefois être conscient de $.

La logique générale de conscience arrive à résoudre plusieurs problèmes de l'omniscience. Cependant, sa définition de la croyance explicite comme conjonction de la croyance implicite et de la conscience a été l'objet de plusieurs critiques. La définition considère Ia conscience comme un réservoir d'énoncés. Autrement dit, Gtre conscient d'une formule sigdie avoir cette formule présente dans une structure représentant la conscience. -D'un autre côté, l'opérateur de conscience A est un concept syntaxique puisque son argument est un énoncé et non une proposition. Cela ne permet pas de faire de connections entre lui et la relation d'accessibilité. Par conséquent, la relation entre relation d'accessibilité et croyance explicite est affaiblie. Plusieurs propriét4s obtenues à partir du modèle des mondes possibles ne peuvent plus être obtenues dans la logique générale de conscience (371.

Enfin, la logique génerale de conscience attribue à l'agent une immunité par rapport aux croyances incohérentes. Si l'agent peut ne pas croire une formule valide par afFaiblissement de la règle de la nhcessite, il ne peut, par contre, croire une contradiction. Certes l'agent peut Ctre conscient à la fois de cp et de i c p mais il ne peut croire cp et croire -9. Cette impassibilité est liée à la definition de la croyance explicite comme la conjonction de la conscience et de la croyance implicite. C'est pour cette raison que Fagin et Halpern ont proposé la logique de raisonnement local [2 11.

Logique de raisonnement locai

Dans la logique de raisonnement local, un agent peut considérer une pluralité d'ensembles de mondes possibles correspondant ch- à un amas (cluslers) de croyances. Ces amas de croyances constituent les états d'esprit de l'agent. Selon cette considération, Bi<p A Bilv peut être satisfaite puisqu'un agent peut dans un état d'esprit croire cp et dans un autre croire -p. Donc, un agent est capable de déduire des croyances contradictoires à partir des situations cohérentes. L'idée demère cette logique est que la raison pour laquelle les humains ont des croyances contradictoires est que ces croyances résident dans des amas séparés. Dans ce cas, un agent est vu comme un ensemble d'états d'esprit à la manière dont bI1Iisky [60] le suggère dans sa Société de t'esprit (Society of Minds), où chaque état d'esprit a son amas de croyances qui peut contredire d'autres états d'esprit. Cette approche est aussi définie par Demett [181, qui tente d'élaborer une théorie de la conscience en prenant comme point de départ l'idée que le système cognitif d'un être humain est fondamentalement constitué d'entités indépendantes qui entrent en compétition et cooperent pour donner une signification au monde environnant.

La syntaxe Syntaxiquement, la logique de raisonnement local est une logique de l'implicite et de

Page 25: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires logiques 15

l'explicite rnulti-agents. Autrement dit, la logique de raisonnement locd n'est qu'une logique propositio~melle enrichie par les deux opf rateus modaux : Bi pour croyance explicite local et Li pour croyance implicite, mais avec des interprétations Mérentes de celle de la logique générale de conscience. Donc, le langage formel Laf de la logique de raisonnement locd est défini par les règles syntaxiques suivantes :

a Syn-1. Si p E Prop alors p f Caf Syn-2. Si cp, i, E L x , i E Agent alors 79, rp A $, Biv , L iv E LRf

a La sémantique Dans la logique de raisonnement Iocd, Bi9 a pour interprétation l'agent i croit (F dans un certain état d'esprit. Un agent i croit implicitement p, noté Li9, s'il arrive à déduire rp à partir des croyances communes de tous ses états d'esprit. Pour les logiques précé- dentes, donnant une situation s, {s1((s7 3') E 8) } est vu comme l'ensemble des situations possibles visibles par l'agent i à partir de la situation S. Dam la logique de raisonne- ment local? il n'existe pas nécessairement qu'un seul ensemble de situations possibles. Par contre, il y a autant d'ensembles qu'il y a d'amas de croyances, où chaque ensemble correspond a un amas de croyances qui représente un état d'esprit. Dans ce cas, une croyance implicite est définie comme suit : l'agent i croit implicitement p si p est vraie dans chaque situation qui est considérée possible dans tous les états d'esprit. Il faut noter que lorsqu'un agent n'a pas de situations communes entre ses états d'esprit, il peut déduire des croyances contradictoires à partir des états d'esprit différents. Dans ce cas, l'agent croit implicitement à fam.

Plus formellement, la logique de raisonnement local a pour modèle Ad = (&K Cl? * - L n ) :

- S : ensemble de situations ;

- V E [Prop + S] : fonction de valuation.

- (*(s) : ensemble non vide de sous ensembles non vides de S.

Intuitivement, si Ci (s ) = (SI,. . . , Sk) dors l'agent i croit parfois que SI est l'ensemble exact des situations possibles visibles à partir de la situation s, parfois il croit que c'est l'ensemble Sz, et ainsi de suite, dépendamment de son état d'esprit. Selon cette inter- pretation, la sémantique de la logique de raisonnement local est definie par la relation de satisfaction Far qui est définie inductivement par les régles sémantiques suivantes :

O Sem-1. M, s p ssi s ~ V ( p ) , o ù p ~ P r ~ p Sem-2. M,s -rp ssi M,sFW p

Sem-3. p ssi M , s + = p e t M,s bw$ Sem-4. M, s Bip ssi (3s' E Ci(s)lVst E SI : M, 3' bx 9) Sem-5. M, s km Lip ssi (Vs' E r)StEC.(sl S : M, S' 9)

D'après cette sémantique, il est évident que les croyances explicites ne sont pas fermées sur l'implication. En effet, la formule B ~ Q A Bi(p > $) h -Bi+ peut être satisfaite, puisqu'un agent peut avoir un état d'esprit où il croit p e t un autre état d'esprit où ii croit y > 11, sans toutefois avoir un état d'esprit où il croit Q et p 3 + en même temps pour qu'il puisse moire $. Autrement dit, la fermeture sur I'implication est définie seulement par rapport à un amas de croyances et non pas par rapport à toutes les croyances, c'est-&-dire l'union de tous ies amas. La fermeture sur l'implication s'en trouve donc affaiblie. Il convient de noter qu'un

Page 26: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires Iogiques 16

agent peut déduire des croyances contradictoires, c'est-&-dire la formule B;p A 7Biv peut être satisfaite puisque un agent peut avoir un état d'esprit où il croit ip et un autre état d'esprit où il croit -9. Tandis que la croyance B i ( p A -p) est impossible, puisqu'un agent n'a pas de croyances dans des mondes incohérents.

2.2 Logiques non-monot ones

Un reproche que l'on peut faire aux représentations de connaissances est qu'elles sup posent des raisonnements rigoureux (corrects), dors que les co~aissances sur lesquelles nous nous zpp.1iyms habit ilellanent ne sont pas toujours formellement exactes. Dans ia plupart des domaines, les règles auxquelles les experts font référence ne sont qu'approximativement exactes et tolèrent en tout cas des exceptions. Nous pouvons dire, par exemple, que «tous les oiseaux volent, sauf les autruches, les pingouins, etc.». Il est en général intéressant d'ex- ploiter une connaissance telle que d e s oiseaux généralement volent» et de ne remettre notre raisonnement en question que pour une série d'exceptions notées à l'avance. C'est ce que l'on appelle le misonnement non-monotone [Tl]. Phsieurs fornalismes ont eté proposés pour ex- primer que «tous les x ont la propriété P sauf si on a ezpliciternent noté le contraire pour certaznes znstances de Za variable x». Donc, la plupart de nos connaissances sur le monde réel sont typiques, plut6t qu'universelles, c'est-à-dire qu'il est souvent prudent d'en choisir une interprétation qui permette de les munir d'exceptions, même si initialement l'existence d'exceptions n'est pas certaine. Ainsi, on peut trés bien &mer que *tous les états membres de 1'O.N. U. sont des états souvemins» et raisonner sur cette h a t i o n pendant longtemps, avant de se rappeler que «la Biélowsie et l'ukraine sont membres de 1'O.N. U., et n'ont pas les caractéristzques des états souvemzm». Les logiques que nous avons vues jusqu'à présent, nécessitent que l'on modifie les axiomes, lorsque des exceptions apparaissent. Par exemple, au lieu d'écrire :

on devrait, Iorsqu'on pense aux exceptions el, . . . , G, écrire :

ce qui présente l'inconvenient de ne pouvoir conclure si on ne sait rien sur la valeur d'un prédicat ~ ( x ) . En d'autres termes, cette solution n'exprime pas le fait que les exceptions sont exceptionnelles.

Le raisonnement non-monotone, au contraire, permet d'tcrire en substance : «tant que vous n'avez pas les moyens de prouver e i (a) , ou e2(a), etc., vous avez le droit d'anirmer que P(a) est vraie». Le qualificatif non-monotone donné à de telles logiques vient de ce que l'ajout de nouvelles informations, permettant de prouver par exemple q ( a ) , vient détruire des conclusions (ici : P(a)) précédemment demontrables. La propriété de monotonie : si T l- 9 alors TU N t- 9, propriété valide pour toutes les logiques vues jusqu'à prCsent, doit donc être invalidée ici, c'est-à-dire, si T t- p alors TU N F p. Il ne faut pas confondre non-monotonie et évolutivité. Dans ce dernier cas, les nouvelles informations correspondent a une modification de l'état du monde représenté. Elles peuvent donc contredire des informations déjà fournies. Au contraire' la non-monotonie prend en compte l'acquisition progressive d'informations sur un monde stable. Les nouvelles informations y complètent donc les anciennes sans pouvoir les contredire.

Page 27: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

P r m a i r e s logiques 17

D'un point de vue purement syntaxique, construire un système d'inférence non-monotone nécessite donc d'affaiblir les propriétés caractérisant les systèmes déductih de la logique clas- sique. Autrement dit, construire une logique non-monotone nécessite la définition d'une re- lation d'inférence permettant de tirer des conclusions qui ne sont pas vérifiées dans tous les modèles des prémisses. L'inadkquation des systèmes de déduction de la logique classique à la formalisation du raisonnement non-monotone s'explique également par le fait que leurs règles d'inférences sont uniquement pemissives [59]. Elles sont toujours de la forme : *Q est un théorème si Pl, 5, . . . , P, sont des théoremes*. Ces règles permettent seulement d'engen- drer de nouveaux théorémes et jamais d'invalider des résultats. Un système modélisant un raisonnement non-monotone devrait contenir également des règles restdctives de la forme : «Q est un théorème si Pi, Pz, . . . , P, ne sont pas des théorèmes».

D'un point de vue sémantique, les conclusions attendues d'un raisonnement non-monotone sont souvent simplement consistantes par rapport aux prémisses. Ceci traduit le fait qu'un raisonnement non-monotone n'est pas nécessairement logiquement correct, car des conclusions plausibles mais qui ne sont pas nécessairement certaines peuvent être inférées. Soulignons en- fin que formaliser le raisonnement non-monotone requiert la conception d'un cadre formel qui possède toute la souplesse nécessaire B la formalisation d'un raisonnement s'opérant en présence d'une information incomplète. Ce cadre formel doit aussi présenter la robustesse sufnsante pour permettre au raisonnement modélisé de s'adapter harmonieusement a l'évo- lution de la connaissance représentée. Pareil cadre formel doit permettre la circonscription dynamique de la connaissance réellement nécessaire au raisonnement. En particulier, il doit autoriser le raisonnement malgré l'absence de certaines informations de détail. Si un système non-monotone doit assurer par lui-même la retractabilité de ses inférences, il doit contenir des règles d'infënnce non-monotone, c'est-&dire des régles dont l'application peut être bloquée de manière dynamique. A cette fh, on peut concevoir des règles d'inférence munies de conditions d'application dont la vérification peut évoluer dynamiquement avec l'ensemble des prémisses. Leurs préconditions permettront de vérifier, avant inférence, qu'une assertion est consistante avec ce qui a déja éte inféré par le système à partir de l'ensemble actuel de prémisses.

l3tudié sous un angle épistémologique, le raisonnement peut apparaître non-monotone pour de multiples raisons. On peut distinguer deux formes fondamentales de raisonnement non-monotone. D'une part, un raisonnement est non-monotone lorsqu'ü est plawibie. Un tel raisonnement est incertain parce qu'il dépend d'idormations incomplètes, incertaines ou évolutives ou parce qu'il est incertain et modifiable du fait de sa propre nature. Parmi les logiques qui formalisent ce type de raisonnement, on trouve : la logique des défauts, la 10- gique non-monotone et la logique autoepistémique. D'autre part, un raisonnement peut étre non-monotone lonqu'il présente un caractère indexnical. De fait, nos raisonnements peuvent être non-monotones lonqu'ils dépendent d'une connaissance qui est supposée complète, mais qui ne l'est pas ou qui ne le demeure pas. Plus généralement, nous émettons souvent des conventions non-monotones et parfois implicites pour augmenter notre connaissance à propos d'informations incomplètes ou inconnues. Le raisonnement que nous tenons peut être logique ment correct vis-à-vis de cette connaissance augmentée. Il est toutefois non-monotone car il repose sur un dtat de connaissance qui peut évoluer. Parmi les techniques qui formalisent ce type de raisonnement, on trouve : I'hypothése de monde clos, complétion de prédicat, théo- rie de circonscription. La distinction entre ces deux types de raisonnement non-monotone est importante pour comprendre les champs d'application respectifs des différentes logiques non-monotones. Dans le reste du chapitre, nous prbentons les différents formalismes proposés pour obtenir ces deux m e s de raisonnement.

Page 28: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

2.2.1 Logique des défauts de Reiter

La logique des défauts de Reiter [70] tente de modéliser un type de raisonnement non- monotone, que nous pratiquons tous, qui consiste à réaliser des inférences en fonction de règles propres au domaine de l'application que nous supposons générales alors qu'elles admettent parfois des exceptions. Par exemple, si Titi est un oiseau, alors j'en infère que Titi vole. Tous les oiseaux ne volent pas, mais je me sens autorisé à condure que Titi vole s'il n'existe rien dans mes croyances qui m'interdise de tirer cette conclusion. Comme le fait que Titi vole est consistant avec mes croyances, je conclus que Titi vole, parce que cette conclusion est la plus naturelle pour moi. Ce type de raisonnement est appelé misonnernent par défaut. De façon pius formelle, ia iogique cies défauts permet de iormaiiser ie raisonnement par défaut sous ia forme de règles d'inference particulières. Ces règles sont appelées défauts ou règles de défaut et se représentent comme suit :

L'interprétation intuitive est celle-ci. Si a est cru et si 0 est consistant (la consistance est désignée par l'opérateur M) avec tout ce qui est cru, dors 7 peut être cru également. a est le pré-requis, P est la justification et 7 est le conséquent. Supposant qu'on note l'assertion HX est un oiseau» par Oiseau(x) et l'assertion ex vole» par VoZe(x). Dans ce cas, la logique des défauts de Reiter représente la règle «les oiseaux gén4mlement volent», appelée exemple canonique, de la manière suivante :

Oiseau(x) : MVole(x) Vole (x)

que l'on peut lire : nsi x est un oiseau et qu'il est consistant avec mes croyances présentes que x vole, alors on peut déduire que z vole». On reprbsente ainsi la règle générale, munie d'exceptions, enonçant que twiquement les oiseaux volent. Cette régle permet de traiter les cas d'exception sans nécessiter l'identification préalable de ces cas.

Une théorie des défauts est composée d'un ensemble F de formules et d'un ensemble D de défauts. De par leur forme logique, les régles de défaut sont plut& des règles d'inférence. Elles décrivent surtout les modifications à apporter à la base de croyances lorsque la conclusion est déduite par défaut.

Il est intéressant, en logique des défauts, de considérer les extensions de la théorie (F, D). Il s'agit des ensembles de croyances que l'on peut inférer à partir de (F, D). Pour reprendre un exemple classique, considérons les assertions suivantes :

- Les mollusques sont des coquillages

- Les céphalopodes sont des mollusques mais ne sont pas des coquillages (exception).

- Les nautiles sont des céphalopodes et sont des coquillages (exception à l'exception).

On peut transformer ces dimations en la théorie des défauts (F, D) suivante :

0 Les nautiles sont des céphalopodes :

Vx (Nautile (2) > Cephalopode(x) ) (F1)

Les c6phaIopodes sont des mollusques :

Page 29: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires Iogiq ues

Les nautiles sont des coquillages :

Si x est un mollusque et s'il est consistant avec mes croyances que x est un coquillage et n'est pas un cephalopode, dors x est un coquillage :

Si a est un céphaiopode et s'il est consistant avec mes croyances que x n'est pas un coquillage et n'est pas un nautile, dors x n'est pas un coquillage :

Cephalopode(x) : M(-Coquillage(x) h -Nautile(x)) -Coquillage (x)

Si x est un nautile, les formules F1, F2 et F3 nous permettent d'inférer que x est un céphalopode, un mollusque et un coquillage. Cette inférence est l'extension de la théorie formée par (F, D) U {Nautile(x)). Si x est un céphalopode et si x n'est pas un nautile: alors on infère de la formule F2 que x est un mollusque et du défaut D2, que x n'est pas un coquillage. Il s'agit là de l'extension de la théorie (F, D) ü {Cephalopode(x) h ~Naut i le (x) ) .

Supposant, maintenant, qu'on a une théorie initiale avec un ensemble de règles. Par dé- finition, une extension de cette théorie initiale est une nouvelle théorie définie par les deux conditions suivantes :

a Il existe aucune règle qui peut être appliquée d'une manière consistante pour obtenir une conclusion qui n'est pas déja dans l'extension.

0 L'extension est minimale par respect à la première condition

La première condition garantie qu'on a fait toutes les déductions consistantes possibles. L a seconde condition assure que l'on n'a pas ajouté des conclusions à la théorie initiale sans justification. D'un point de vue plus formd, on suppose qu'on a un opérateur unaire 6D qui prend comme opérande une théorie formelle E et produit comme résultat une nouvelle théorie formelle pour laquelle toutes les régles de défaut de l'ensemble D sont appliquées en respectant la consistance de la théorie E. Dans ce cas, la première condition veut dire, pour que E soit une extension, il faut que l'application des régles de défaut de l'ensemble D sur E n'ait aucun effet. Plus formellement, l'équation suivante doit être vériiiée :

Autrement dit, les eztensions sont les points &es de l'opérateur JD. La seconde condition veut dire simplement que E est minimale par respect à la première condition, c'est-&-dire les extensions en logique des défauts sont des points &es minimaux de l'opérateur JD.

Il existe deux sous-catégories importantes de la logique des défauts : les théories nomoles et les théories semi-nonnales. Dans une théorie normale, tous les défauts sont de la forme :

L'un des principaux résultats de Reiter est qu'une théorie ne comprenant que des défauts normaux possède toujours une extension, et si on augmente l'ensemble des defauts* l a nouvelle théorie normale admet une extension qui inclut l'extension de la théorie d'origine (semi- monotonie). Malheureusement, les théories normales présentent certains inconvénients liés à la transitivité des règles de dkfaut.

Consid6rons les deux règles nomdes de défaut suivantes :

Page 30: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

O Les instructeurs de la circulation aérienne (ICA) sont des contrôleurs (C) :

ICA (x) : MCatroleur (x) Cmt t 01 eur (3)

0 Les contrôleurs t r a d e n t dans des centres de contr6le en route (CCR) :

On constate que l'on peut inférer que les instructeurs de la circulation aérieme travaillent dans des centres de contrôle en route, ce qui inexact. On peut résoudre partiellement Le problème en introduisant un troisième défaut normal qui indiquerait qu'un instructeur de la circulation aérienne ne travaille pas dans un centre de contrôle en route. Cependant, cette technique donne une théorie qui admet deux extensions pour un instructeur particulier de la circulation aérienne, une qui afErme qu'il travaille dans un centre de contrôle en route et l'autre qu'il n'y travaille pas. Or nous souhaiterions favoriser la seconde extension. Il faut alors

O

0

modifier notre théorie normale en une théorie semi-nonnale dont les défauts seraient :

Les instructeurs de la circulation aérienne sont des contrôleurs : ICA(x) : MControleur (x)

Cmtrol eu^ (x)

Les instructeurs de la circulation aérienne ne travaillent pas dans des centres de contrôle en route :

Les contrôleurs t r a d e n t dans des centres de contrdle en route s'ils ne sont pas ins- tructeurs de la circulation aérienne :

Cette théorie possède la bonne extension pour un instructeur de la circulation aérienne x : {ICA(x) , Controleur(x), -TravailleCCR(x)). Le défaut 0 3 est un défaut semi-normal. Les défauts semi-normaux sont de la forme :

Les défauts semi-normaux sont contrôlés par la condition 7 supplémentaire. Malheureuse- ment les theories semi-mormales perdent la propriété de semi-monotonie et ne possèdent pas forcément d'extension. En plus, Reiter montre que de nombreuses situations, en représentation des connaissances, nécessitent le recours à des défauts non normaux.

2.2.2 Logique non-monotone de McDermott

La première tentative d'utiliser la logique modale pour modéliser le raisonnement non- monotone a été faite par McDermott et Doyle [58, 561. Cette logique s'écartent de la logique des défauts de Reiter principalement sur deux points :

ElIe ne formalise pas un ensemble de règles non-monotones propres au domaine de l'application, Les systèmes logiques proposés par McDermott et DoyIe sont des systèmes axiomatiques universels.

Page 31: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préiimhaires logiques 21

Elle ne s'intéresse plus à la construction d'une extension particulière d'une théorie mais aux fonnules présentes dans toutes les extensions d'une théorie.

McDermott et Doyle ont d& une technique élégante permettaat la définit ion des règles d'inférence non-monotone. Iki ont proposé une caractérisation non constructive des ensembles stables de f o d e s mutuellement consistantes qui peuvent être inférées de façon non-monotone sur la base d'une collection de prémisses. Ces ensembles sont les solutions d'une équation de point fixe portant sur la relation d'inférence dhfhie par le système non-monotone. Celui- ci peut étre vu comme un système axiomatique classique augmenté d'une règle particulière permettant d'inférer des assertions consistantes. Plus formellement, cet te approche consiste à eclidllr !a logique I n preaier o rbe par lm opérzteur modal M qui a la sémaritiqÿe s*uhante : «Mp» signine que erp est consistante avec les choses déja connuem. A titre d'exemple, la règle de défaut précédente d e s oiseauz: généralement volent» est exprimée par la formule suivante :

que l'on peut lire : <<si x est un oiseau et qu'il est consistant que x vole, alors x vole». Donc, l'intérêt des travaux de McDermott [56] réside dans une formulation élégante d'une règle specifkpe d'inférence non-monotone. Cette règle d'inférence est formulée comme suit : «On ne peut inférer l < p » l- Mp. En plus de cette régie, le système axiomatique non-monotone comportera les schémas d'axiomes de la logique des predicats ainsi qu'un certain nombre de schémas d'axiomes modaux. La prise en considération des schémas d'axiomes modaux fournira différents systèmes d'inférence non-monotone. Lorsque le système ne reprend que le schéma d'axiome de la connaissance T et le schéma d'axiome de distribution K, il sera baptisé non- monotone T. Dans le cas où il comportera respectivement, les trois schémas modaux K, T et 4 et la totalité de ceux-ci seront appelés non-monotone S4 et non-monotone 5 5 . Cette dénomination est choisie en correspondance avec l'appellation des systèmes modaux classiques (voir logique épistémique, chapitre 2). Autrement dit, si l'on exclut de L'axiomatisation la régle d'inférence non-monotone, on retrouve, les systémes modaux classiques T, S4 et S5.

La règle d'inférence non-monotone proposée n'est évidemment pas acceptable telle quelle. Elle introduit une circularité dans la définition de Ia relation d'inférence. Avant d'exposer une façon de résoudre ce problème, notons que la formulation initiale de cette règle d'inférence illustre bien la triple fonction que celle-ci est sensee remplir :

Elle permet d ' i n f é ~ r qu 'une assertion est possible, c'est-à-dire considante d'un point de vue logique. Elle permet d'inférer des forrndes de type M p La sigufication recherchée pour une formule Mp est «rp est possible^, ou encore, «cp est consistante». Ceci nécessite que -rp ne soit pas intérable, ce qui est assuré par la vérification de la précondition de la régle d'inférence non-monotone. Cependant pour que cette signification confér4e à L'opérateur modal M soit effectivement réalisée, il faut qu'elle respecte les propriétés des opérateurs modaux exprimées au moyen des schémas d'axiomes modaux du système.

0 Elle permet indirectement d'adopter comme uvnziesw les fornules simplement consis- tantes. Par exemple, si Mrp est Sérée au moyen de la règle d'inférence non-monotone et si un axiome a d a i r e Mv > p figure dans le systëme, alon on peut inférer p paz modus p+ nens. Par l'utilisation de cette technique, on passe ainsi de l'expression de la consistance d'un énoncé à lYaErmation de cet énoncé. En quelque sorte, on attribue au système Ia capacité d'adopter comme vraies des formules montrées consistantes.

Page 32: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

PréliminaSres logiques 22

O Elle confère au système un caractère non-monotone. Par exemple, si le système a pennis d'inférer la formule Mp, ou plus généralement une formule .rlr découlant de Mp, et si l'on ajoute un nouvel axiome qui permet au système d'inférer 19, dors la formde $J doit être retractée.

Pour traiter le problème de la circularité que l'on retrouve dans la définition de la règle d'inférence non-monotone, ainsi que le problème de caractérisation des ensembles de formules inferables, on va caractériser les points âues de l'application du système d'inférence par un ensemble A de prémisses. En termes intuitifs, ces points fixes sont des ensembles de formules pour lesquels aucune formde supplémentaire ne peut plus être inférée de façon consistante.

Cansid&ons !'m des qstemes axiumatiq~es d'hci2eiicr D =. non-monotone T, non- monotone $4 ou non-monotone S5. Désignons par S = 7, S4 ou Sa le système modal classique. Défhksons d'abord Ths(A) comme I'ensemble des formules du langage modal LM idrables à partir de l'ensembles A d'axiomes via le système S. Formellement :

R s'agit donc de l'ensemble des théorémes modaux que l'on peut démontrer, de façon monotone, à l'aide du système modal classique S, sur la base d'un ensemble A de prémisses.

Soit B un sous-ensemble de formules de LM. Déhissons HgpA(B) comme l'ensemble des formules conjecturales vis-à-vis de l'ensemble B, c'est-à-dire l'ensemble des formules qui sont consistantes avec les formules de l'ensemble B, mais qui ne sont pas démontrables à l'aide du systéme modal S à partir de l'ensemble A de prémisses. Formellement :

Les ensembles B de formules qui nous intéressent ici sont les sous-ensembles de LM qui sont les points fies de l'opkrateur Ths (A U XypA( )), c'est-à-dire les solutions de l'équa- tion récursive B = Ths(A U H y p A ( B ) ) . Le membre droit désigne l'ensemble de toutes les consêquences modales qui peuvent être idrées à partir de Ia réunion de l'ensemble A des prémisses et des formules conjecturales vis-&vis de l'ensemble B recherché. Un ensemble B de formules qui est un point fke pour cette équation sera appelé NonMonotoneA. lin en- semble NcmMonotoneA est donc un ensemble stable, constitué de toutes les conséquences modales de la réunion de l'ensemble A des axiomes et des formules conjecturales vis-à-vis de ce même ensemble NonMondmeA.

Les solutions de l'équation récursive ci-dessus donnent ainsi les ensembles marimaux de formules pouvant être infd~ées de façon consistante avec A. Ce sont en effet des ensembles comprenant toutes les conséquences logiques d'un ensemble A de prémisses, d'une part, et de toutes leurs propres formules conjecturales, d'autre part. Définissons ensuite l'ensemble THs(A) des théorèmes obtenus par le système d'inférence non-montone V, appliqué à un ensemble d'axiomes A, de la maniére suivante :

On donne ainsi le statut de théorème aux formules appartenant à tous les points &es de D. En l'absence de point fixe, THs(A) est défini comme l'ensemble des formules de LM. On s'écazte ainsi de la logique des défauts où l'on avait considéré comme théorèmes les formules d'un point fixe (extension) particulier d'un ensemble de défauts. Etant donnés deux sous- ensembles QI et Q2 de LM, la relation d'inférence non-monotone correspondant au système d'idrence D, notée IF, est d f i e comme suit :

Page 33: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

QI IFS Qz, si et seulement si QI C THs(Q1)

Un ensemble Q2 de formules apparaît dès lors comme un ensemble de théorèmes pour l'ensemble de prémisses QI, si et seulement si toute formule de Q2 appartient à tous les points fms de QI. Ce système logique permet de construire des ensembles diffaents de conclusions (points fixes) selon l'ordre d'application des inférences. En fait, il pourra y avoir plusieurs points &es.

A titre d'illustration, considkons deux exemples tirés de [58] :

Soit A = {Mp > l q , Mq > lp}, où p et q sont des constantes propositiomelles. Cet ense~b le de pré;?;isseç p~sséde deru: points tixs que l'on notera BI et &. L e point Exe Bi contient ~ p , mais ne contient pas -q. De même, B2 contient yq, mais ne contient pas -p. En effet, si Bi ne contient pas -q alors il contient Mq, d'oc, par modus ponens sur l'axiome Mq 3 l p , il contient -p. Le même raisonnement s'applique à B2.

Soit A = {Mp > l p } . Cet ensemble ne posséde pas de point fixe. En effet, si par hypothèse un point fixe ne contenait pas -p, il contiendrait Mp, d'où l'on tirerait qu'il contient -p, en contradiction avec I'hypothèse. S'il contenait 7p' alors il devrait contenir aussi Mp pour que Mp > -p soit vérifié. On aboutit à une contradiction puisque -p et Mp ne peuvent figurer simultanément dans un ensemble consistant.

L'apport principal de la logique non-monotone de McDermott réside dans la technique du point fixe utilisée pour caractériser les ensembles stables de conclusions d'un système non-monotone, ainsi que dans l'usage de la logique modale pour formaliser le raisonnement non-monotone. Toutefois, le choix du systeme modal à prendre en considération reste problé- matique. Désirant associer A l'opérateur modal M la s imca t ion de consistant, McDermott remarque que la logique modale qui semble la plus appropriée est ceUe du systéme non- monotone S5. Ce systéme logique prksente cependant une propriété inattendue (561 :

Autrement dit, il n'y a pas de théorème de non-monotone 55 qui ne soit un théorème du système monotone classique 5 5 correspondand. McDermott met alors en doute l'intérêt de non-monotone S5 et suggère, sans argument absolument convaincant, de choisir non-monotone S 4 p o u formaliser la non-monotonie.

Pour conclure, il faut dire que l'avantage de la logique de McDermott réside dans le fait qu'il est possible d'exprimer facilement des faits sur les règles de défaut, des règles de défaut sur des régles de défaut et ainsi de suite. Par contre, l'inconvénient est que la sémantique de l'opérateur M so&e de quelques problèmes techniques. Dans la section suimate, nous allons montrer comment la logique de McDermott peut être reconstruite via la modélisation d'un agent idéalement rationnel qui raisonne de façon introspective sur un ensemble initial de croyances. Le problème du choix du système modal pourra ainsi être résolu de manière satisfaisante.

2.2.3 Logique autoépistémique de Moore

La logique épistémique constitue un cadre de travail bien adapté à une formalisation d'un raisonnement non-monotone. Elle permet de définir et d'axiomatiser différents concepts épistémiques (croyance, connaissance, etc.) ainsi que leurs propriétés respectives. Moore (62, 631 a développé une logique basée sur la logique modale pour formaliser un raisonnement non-monotone, introspectif et idécrlement rationnel, qui est opéré sur un ensemble initial de

Page 34: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires logiques 24

croyances. Eue permet la formalisation d'énoncés de la fonne : «si je ne crois pas que p est védié alors @ est vérifié>. Par raisonnement idéalement rationnel, on entend un raisonnement idéalisé selon deux aspects : seules les conséquences logiques attendues de l'ensemble initial de croyances peuvent être inférées et toutes ces conséquences logiques doivent être prises en considération. Les ressources de raisonnement mises en oeuvre peuvent ainsi devoir être illimitées. Pareil raisonnement est non-monotone car l'ensemble des croyances de base d'un agent peut se modifier avec le temps, ce qui entraine la possibilité pour certaines inférences de se voir frappées d'interdiction. La logique de Moore, appelée logique autoépistémique, peut être vue comme une reconstruction de la logique non-monotone de McDermott [56] où les paradigmes d'inférence et de consistame eoIit re@xt& ?ES !2 fom&satiaa de certahes capacztés introspectives de misonnement. Dans cette logique, l'opérateur modal de possibilité M a été remplacé par son opérateur dual de nécessité L. Donc, Mp est équivalent à 1 L - q A titre d'exemple, la régle de défaut précédente d e s oiseavz généralement volent>> est exprimée par la formuie s u i ~ n t e :

que l'on peut lire : «si x est un oiseau et s'il n'est pas cru que x ne vole pas, alors x vole». Dans la logique autoépistémique, une théorie est un ensemble de formules du langage

formel LM. Par définition, le langage LM est le langage modal classique CM en utilisant l'opérateur modal L, d u d de M utilisé dans la logique de McDermott, pour la construction des formules modales. Dans ce cas, une formule de type Lv a l'interprétation suivante : «il est cru que cp est vérifiéex Une théorie autoépistémique est un sous-ensemble T de LM représentant un ensemble complet et adéquat de croyances qu'un agent idéalement rationnel peut construire sur la base d'un ensemble A de croyances initiales. Précisons d'abord quelles sont les propriétés sémantiques que doit posséder pareil ensemble T de formules. Introduisons à cet effet les définitions suivantes [63] :

Une interprétution pmposzt~onnelle d'une théorie autoépistémique T attribue des valeurs de vérité aux formules de l'ensemble T. Cette attribution de valeurs de vérité obéit aux régles classiques d'évaluation des formules compos6es de la logique des propositions. Elle donne une valeur de vérité arbitraire aux constantes propositionnelles et aux formules de type Lip («p est m). U n modèle propositionnel d'une t htbrie aut oépist &nique T est une interprétation pro- positiomeile de T dans laquelle toutes les formules de T sont vc5rifiées.

a Une int eqwétation îautoép2stt!mique d'une théorie aut oépist émique T est une int erpré- tation propositionnelle de T pour laquelle toute formule de type Lcp est vérifiée, si et seulement si 9 appartient à T. Ainsi, sous une interprétation autoépistémique, la for- mule Lp (69 est cm») est vérifiée, si et sedement si rp appartient à l'ensemble T des croyances de l'agent.

a Un modèle autoépistémique d'une théorie autoépistémique T est une interprétation au- toépistémique dans laquelle toute formule de T est vérifiée.

On peut alors greffer sur ces considérations sémantiques les concepts de complétude et d'adéquation adaptés au cadre autoépistémique [63]. Ces deux concepts sont définis comme suit :

Une théorie autoépistémique T est sémantiquement compkte, si et seulement si elle contient toute formule vtkifiée dans tout modèle autoépistémique de T. Autremeid dit, T est complète, si et seulement si T contient toutes les formules que l'agent est séman- tiquement autorisé A produire dans l'hypothèse où ses croyances sont vraies.

Page 35: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

PréLupinaires logiques 25

Une théorie autoépistémique T est a d é p ~ t e vis-à-vis d'un ensemble A de croyances de base, si et seulement si toute interprétation autoépistémique de T qui est un modèle de A est également un modèle de la théorie T. Autrement dit, les croyances d'un agent qui constituent la théorie autoépistémique sont vraies, si et seulement si les croyances de base de l'ensemble A le sont.

Par définition, une théorie autoépistémique T est stable si T est un ensemble de formules de LM rependant aux conditions suivantes :

2. Si 9 E T, dors Lq E T. 3. Si p 4 T, alors 7 L p E T.

La première règle assure que l'agent croit en toutes les conséquences logiques de ce qu'il croit, ce qui est indispensable si l'on veut que l'agent soit idéalement rationnel. La deuxième assure que la formule «rp est cru» appartient a l'ensemble T des croyances de l'agent si rp est une croyance de cet agent. La dernière assure que la formule «rp n'est pas cm» figure dans l'ensemble T des croyances de l'agent si la formule y~ n'y Bgure pas. De manière duale, une théorie autoépistémique T sera dite fondée sur un ensemble d'axiomes A si toutes les formules de T figurent parmi les conséquences logiques de l'ensemble A U {L<plcp E T) U {-Lplrp @ T). On peut alors établir les résultats suivants [631 :

1. Une théorie autoépistémique T est sémantiquement complète, si et seuiement si elle est stable.

2. Une théorie autoépistémique T est adéquate vis-à-vis d'un ensemble A de croyances de base, si et seulement si elle est fondie sur A.

Enfin, on appelle eqansion stable d'un ensemble de croyances initiales A, UR ensemble de croyances T qui est stable et fondé sur A. Les expansions stables sont les ensembles adéquats maximaux de croyances qu'un agent idealement rationnel est habilité a imaginer sur la base d'un ensemble initial de croyances. Les points fixes T de la logique non-monotone de Mc- Dermott peuvent 6tre comparés aux ensembles adéquats maximaux de croyances d'un agent idéalement rationnel. En enet, la definition de McDermott est effectivement équivalente à la définition suivante : T est un point fixe vis-à-vis de A, si et seulement si T est l'ensemble des conséquences modales de A U {M<pl-(o $ T). Donc, par la relation de dualité entre les opérateurs modaux M et L, cette régle autonsait l'infkence d'une f o d e de type 4 9 si la formule cp n'appartient pas au point fixe considéré.

Daas la logique de McDermott, un point k e était constitué de toutes les conséquences modales de la réunion de l'ensemble des formules Lp ainsi caractérisées et de l'ensemble A des axiomes. Par contre une eqaiision stable T est définie comme suit : T est une expansion stable de A, si et seulement si T est l'ensemble des consequences logiques de A ü {L<plrp E T) u {lLply~ 4 T}. On voit que dans la définition du point fke donnée par McDermott, il manque l'ensemble (Lrply~ E T) à la base des axiomes. Moore paraphrase cette lacune de la façon suivante : <sous une vision autoépistémipue de lyopémteur modal L, un agent de la logique non-monotone de McDermott est omniscient a propos de tout ce qu'il ne cmit pas, maLs peut tout ignorer de ce qu'il cmib [63]. En effet, il manque à la base d'axiomes les fornules de type «je crois que (o est vérifiée>>, lesquelles qualifient les croyances positives de l'agent.

A titre d'exemple, supposant qu'on considère A = {Oiseau(Titi), Oiseau(x) A -L-Vole(x) > Vole(x)). Cette théorie signifie que Titi est un oiseau (Oiseau(2'iti)) et

Page 36: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

PréLiminaires logiques

que si x est un oiseau et qu'il n'est pas cru que x ne vole pas, alors x vole. Pour cet exemple, on veut prouver que Titi vole. Autrement dit, Vole(Titi) sera un point fixe de I'équation précédente. P o u ce faire, il faut noter tout d'abord qu'il n'est pas sûr de conclure avec certitude que Titi ne vole pas vu que -Vole(Titi) n'est pas déductible à partir de A u {L<p 1 9 E A) ü {-L(o 1 (O $! A) . Autrement dit, -Vole(Titi) $ T. Donc, on peut déduire que -L-.Vole(Titi) E T, car vu que l'on ne peut pas prouver que Titi ne vole pas, alors il n'est pas cru que Titi ne vole pas. Donc, on peut conclure que T est la fermeture logique de l'ensemble {Oiseau(Titi), Oiseau(x) A TL-Vole(x) > Vole(+), -L~VoZe(Titi)}. Ainsi, on peut déduire que Vole(Titi) E T.

Signalons enfin que. bien que leurs domaines d'application puissent &tre différents: la 10- gique autoépistémique et la logique des défauts ont la mOme expressivité formelle [38]. Dans les sections qui suivent, nous examinons une autre famille de techniques logiques qui per- mettent de formalber un raisonnement non-monotone. Ces techniques s'inscrivent dans le cadre de la logique classique. Le principe fondamental sur lequel ils reposent est le suivant : un raisonnement peut évoluer quand il est opéré sur la base d'un ensemble limité mais évo- lutif d'informations, et, en particulier, lorsqutil repose sur des informations encore inconnues. Autrement dit, le raisonnement non-monotone formalisé par ces techniques s'effectue sur une base de connaissances augmentée par des conventions quant à l'information incomplète. Pour pouvoir être effectué, pareil raisonnement necessite l'application d'une politique appropriée vis-à-vis de telles informations. Cette politique se traduit le plus souvent par des conven- tions de minimisation. Basées sur certains critères de minimalité, ces conventions permettent de circonscrire l'information implicite qui peut être associée à un ensemble de connaissances initiales. Dans le domaine des bases de données et des bases de co~aissances, l'hypothèse de monde clos induit une telie convention. Elle se traduit sous la forme de principes et de techniques qui permettent de gouverner I'interrogation d'une base de connaissances de façon non-monotone par rapport à l'évolution du contenu de celle-ci. Elle peut aussi prendre la forme d'axiomes ou de schémas d'axiomes qui doivent étre ajoutés à la base de conaaissances sous la forme d'axiomes de complétion ou sous la forme d'un schéma d'axiomes de circunscription

2.2.4 Hypothese de monde clos de Reiter

Dans la pratique, il est souvent ciSicile d'expliciter tous les faits d'un monde à modéliser. En effet, tout ce qui n'est pas vrai constitue une telle masse d'informations que se pose le p r e blème de sa description. Une solution consiste à considérer cette cornaissance comme implicite en vertu de l'hypothèse de monde clos de Reiter [69]. Décrivons intuitivement l'application de cette hypothése aux bases de données ne contenant que des informations de forme logique élémentaire, pai exemple les faits d'une base de données relationnelle. Une telle hypothèse se traduit par la réfutation de toute information non enregistrée, c'est-à-dire seule l'information explicitement présente dans la base de données est supposée vraie. Autrement dit, toute autre information qui n'est pas explicitement présente dans la base de données est supposée fausse.

A titre d'illustration, considérons la base de données A représentant des liaisons aériennes en service entre différentes villes :

Vol (Montréal, Paris) Vol (Montréal, Casablanca) Vol (Montréal, Amsterdam) Vol (Oran, Casablanca)

Il s'agit d'une base de données élémentaires, en ce sens qu'elle est composée de littéraux

Page 37: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

P r W a i r e s logiques 27

concrets positifk, c'est-à-dire des formules atomiques sans aucune variable. Ces littéraux sont des instances du schéma de relation Vol(+, y). Supposons qu'on pose la requête suivante : Existe-t-il un vol reliant Montréal B Oran? Bien que l'information contenue dans A ne per- mette pas d'établir ou de réfuter logiquement le littéral Vol(Montréal, Oran), nous sommes assez tentés de répondre par la négative à cette question. Une façon naturelle d'interroger une base de données consiste en effet par la réfutation d'un fait lorsque celui-ci n'est pas enregistré. Ce principe n'est pas directement inscrit dans les systèmes déductifs logiques. Il porte le nom d'hypothèse de monde clos. Il énonce que les faits que nous ne connaissons pas comme vrais peuvent être supposés faux. Grâce à son utilisation, nous pouvons éviter la repré- sentation explicite des informations néeatives. Le raisonnement impliqué est non-monotone puisque l'introduction de nouvelles informations peut nécessiter la révision du raisonnement. Ce principe est souvent appliqué dans l'utilisation des bases de données élémentaires.

Voyons une définition plus précise du principe de monde clos. Notons pa.r T'(A), l'ensemble de toutes les conséquences logiques de l'ensemble de formules A. Designons par A' l'ensemble des Littéraux négatifs concrets, c'est-à-dire l'ensemble de la négation des littéraux positifs concrets, qui correspondent aux littéraux positifs concrets n'appartenant pas à l'ensemble T ( A ) . L'hypothèse de monde clos complète l'ensemble T ( A ) en d é f i s a n t un nouvel ensemble T ( A U A*) que l'on note HMC(A) . Par définition, HMC(A) est donc la fermeture logique de la réunion de la base de données A et de l'ensemble A'. Autrement dit, HMC(A) représente l'ensemble étendu des informations que l'on peut inférer sous l'hypothèse de monde clos à partir de A. Dans ce cas, vérifier si une formule cp peut être déduite sous l'hypothèse de monde clos à partir d'une base de données A consiste à vérifier que p appartient à H M C ( A ) .

L'hypothèse de monde clos peut être appliquée aux bases de données éiémentaires, c'est-à- dire aux bases de données composées de littéraux positifs concrets. En général, elle ne peut pas etre appliquée aux bases de connaissances dont le langage de représentation est plus expressif. Considérons par exemple la base de connaissances logique A suiMnte :

Homrne(x) V Femme(+) Prof esseut( John)

Cette base de connaissances contient une information disjonctive : tout individu est soit un homme, soit une femme. Les littéraux positifs concrets Hmme(John) et Femme(John) ne peuvent &tre logiquement déduits de cette base de connaissances. L'ensemble H MC( A) contiendra donc toutes les conséquences logiques de la réunion de la base de données A et d'un ensemble comprenant les littéraux négatifs +bmne(John) et -Femme(John). L'en- semble HMC(A) est cependant inconsistant car il contient les trois formules mutuellement inconsistantes : H m m e ( x ) v Femme(x) , ~Homme(John) et 1 Femme(John) . Autrement dit, l'application de l'hypothèse de monde clos préserve la consistance logique seulement dans le cas des bases de données ne contenant que des faits posit& éIémentaires et les bases de connaissances consistantes composées de clauses de Horn.

Notons enfin que l'hypothhe du monde clos su£fit pour des problèmes simples, mais améne à des contradictions quand la connaissance représentée dépasse le cadre des clauses de Horn. En plus, cette hypothèse dépend de la forme syntaxique de A, c'est-à-dire qu'un littéral négatif concret est ïd&é lorsqu'un littéral positif concret ne peut pas être déduit de A. Donc, lors de l'écriture de la base de connaissances, il faut veiller à ce que le nombre de faits positifs soit inférieur au nombre de faits négatifs que l'on veut représenter implicitement. D'autre part, cette hypothèse est essentiellement propositionnelle. La théorie de circonscription présentée par la suite, étend l'hypothèse du monde clos, en se basant s u r la logique du premier ordre, par l'introduction d'un schéma d'axiome.

Page 38: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires logiques

2.2.5 Complétion de prédicat de Clark

Définir un concept, c'est énoncer les conditions nécessaires et sutlisantes pour que ce concept soit vérifié. Or, dans la conversation courante, nous interprétons souvent comme défi- nition d'un concept ce que ne constitue qu'une condition sufbante de vérification. Considérons par exemple la phrase suivante : #Si j'am've après 9 heures, alors je suis en retard». Formel- lement, cette phrase n'exprime qu'une condition sufEsante pour que je sois en retard, il peut en exister d'autres. Il nous semble cependant naturel d'interpréter cette condition suffisante particulière comme la seule possible, et donc comme la condition nécessaire et sufEsante pour qu'il y ait retard. Autrement dit, nous identifions souvent cette phrase à la définition sui- vante : «Je suis en retar4, si et seulement sz f a m u e après 9 heurem. Ceci est clairement une extrapolation, car il est possible qu'en arrivant entre huit et neuf heures, je sois également en retard. Une démarche qui limite aux sedes conditions énoncées les conditions suffisantes pour la vérification d'un concept est la source d'un raisonnement non-monotone. En effet, il est remis en question lorsqu'apparaît une nouvelle condition mflisante.

Supposons par exemple qu'un ensemble A de formules de la logique des prédicats écrites à propos de certains prédicats Pi représente certaines conditions sous lesquelles ces pr6dicats Pi sont vérifiés. 11 est parfois naturel de considérer que les formules de A représentent toutes les conditions d i s a n t e s à propos de la vérification des prédicats Pi. Par convention, ces conditions sont donc interprétées comme des conditions nécessaires et suEsantes pour la vérification des prédicats Pi. Nous pouvons expliciter formeUement cette convention au moyen d'axiomes complémentaires énonçant qu'un predicat est satisfait uniquement lorsque l'une des conditions suilisantes écrites à son propos est satisfaite. Cette technique est appelée technique de complétaon de prédicat [IO]. Introduisons-la intuitivement au moyen de deux exemples simples.

Supposons que A soit constituee du seul Littéral concret P(a). Celui-ci peut se réécrire de la façon équivalente suivante :

Vx ( ( x = a) > P ( x ) )

Cette formule &nonce une condition sufEsante de vérification du prédicat P. On dira qu'eue est écrite à propos de P. Transformer cette condition suffisante en une condition nécessaire et s f i a n t e peut se réaliser en intîoduisant dans A la formule duale :

> (Z = a ) )

Cette formule est appelée fornule de conzplétion du prédicat P dans A. En introduisant la formule de complétion du prédicat P dans la base de connaissances A, nous obtenons la base de connaàssances A complétte par rapport au prédicat P . Cette nouvelle base de connaissances est notée C(A, P). On voit que C(A, P) est équivalente a la base de connaissances constituée de la seule formule :

Vx ( ( P x ) )i (z = a ) )

Dans cet exemple simple, compléter la base de connaissances par rapport à P revient donc à transformer en équivalences les implications ayant P pour conséquent.

Considérons un second exemple. Soit la base de connaissances A contenant exclusivement les littéraux concrets P(a) et P(b). La formule de complktion de P dans A s'écrit :

Vx ( P ( x ) > (x = a) 1\ ( x = b ) )

Page 39: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

et C(A, P) est constituée de la seule formule

V x (P (x ) E (x = a) /\ (x = b))

Compléter une base de connaissances A consiste à compléter A par rapport à tout prédicat à propos duquel au moins une formule de A est écrite. La base de connaissances A complétée sera notée C(A).

Soit A un ensemble de clauses de la forme :

où P est un iitrérai positif er où 4, . . . , Tn sont des Etteraux positik ou négatifs. Pareiiie clause est appellée clause écrite à propos de P. Elle peut se réécrire sous la forme équivalente suivante :

Ici, t est un tuple de termes ti:. . . , tk. Les littéraux Pi et P(t) mentionnent des éléments du tuple y de Mnables yi, . . . , y+ et Vy est une abréviation pour 'tgi, . . . , VyT. Cette e-upression est équivalente à :

où x est un tuple de variables x i , . . . , xk n'apparaissant pas dans les littéraux Pi et P( t ) , et où ( x = t ) est une abréviation pour ( x l = t i ) A - A (xk = t k ) Comme le tuple de variables y n'intemient que dans l'antécédent de cette implication, celle-ci est équivalente aux formules ~ U i ~ f l t e s :

Cette derniére expression est appelée fonne nomale de la clause. Si la base de connais- sances A contient j clauses à propos de P, les j formes normales associées sont donc :

vx (El 3 P(4)

c'est-à-dire Vx (El v. v E, > P ( x ) ) , oii Ei est une conjonction de littéraux quantifiée de façon existentielle. La fonnule de complétion de P dans A est définie comme étant la formule :

Remarquons la situation particulière où A ne contient aucune clause à propos de P. Dans ce cas, la formule de complétion de P dans A est Vx (P( z ) > F), formule qui peut se réécrire sous la forme V z (-P(z)). Comme A ne nous indique rien à propos du prédicat P, nous inférons que P n'est jamais vérifié.

Avant de présenter les propriétés et les limitations de la complétion de prédicat, illustrons cette technique au moyen de l'exemple d e s oiseauz génémlernent uoienk. Soit la base de connaissances suivante :

Page 40: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires Iogiq ues 30

Complétons A par rapport au prédicat Vole. Les conditions suflkantes énoncées dans A pour qu'un être puisse voler sont qu'a s'agisse soit d'un oiseau, soit de Titi. La formule de complétion du prédicat Vole dans A s'écrit donc :

Vx (Vole(x) > Oiaeau(x) V (x = Titi))

et la base de comaissances A complétée par rapport au prédicat Vole; c'est-à-dire C(A, Vole), est :

{Vx (Vole(x) i Oiseau(x) V ( x = Titi)) , ~Oiseau(Toto))

Les conditions d a n t e s à propos du prédicat Vole sont devenues des conditions néces- saires et suffisantes à propos de ce prédicat. On peut interroger la base de co~maissances A complétée par rapport au prédicat Vole. Sous l'hypothèse d'unicité des noms, on peut, par exemple, inférer l'information -Vole(Toto) à partir de C( A, Vole). Cette conclusion peut devoir être révisée lorsque de nouvelles informations sont introduites dans A. Ainsi, si nous introduisons explicitement l'information Vole(Toto) dans 4, la formule de complétion du prédicat Vole dans A devient l'expression :

Vx (Vole(x) > Oiseau(x) v (x = Titi) V (x = Toto))

Le littéral négatif concret -Vole(Toto) ne peut plus ètre inféré à partir de la base de connaissances complétée par rapport au prédicat Vole. Autrement dit, Ies inférences permises A partir d'une base de co~aissances complétk C(A) sont non-monotones lorsque de nouvelles informations sont introduites dans A. Donc, une base de connaissances A complétée par rapport à un prédicat P Bmite l'extension de P aux seules conditions s f i an t e s énoncées dans A à propos de la vérification de P. En effet, l'introduction dans A de nouvelles informations écrites à propos de P modifie la base de connaissances complétée et les inférences que celle-ci permet.

Pwons maintenant à une comparaison entre l'hypothèse de monde clos et la complétion de predicat. D'un côté, l'hypothèse de monde clos peut préserver la consistance alors que la complétion de prédicat ne le fait pas, Considérons par exemple la base de connaissances A contenant la seule formule -.P > P. Cette formule est consistante et elle est logiquement equivalente (S la proposition atomique P. On voit que la base de connaissances complétée C(A) est inconsistante et elle contient la formule inconsistante -P r P, alors que l'hypo- thése de monde clos appliquée à cet ensemble A aurait préservé la consistance, puisque la formule -P 3 P est logiquement équivalente à la proposition atomique P. D'un autre côté, la complétion de prédicat peut préserver la consistance alors que l'hypothèse de monde clos conduit à un résultat inconsistant. Par exemple, si A = {-P > Q), dors HIZ.IC(A) contient les trois formules mutuellement inconsistantes -P, 1Q et -P > Q. Enfin, l'application de ces deux techniques peut préserver la consistance, tout en fournissant des résultats incom- patibles. Soit A = { P ( Q ) > P(b), P(b) > P(a) ) l'exemple d'une base de connaissances pour lequel l'hypothése de monde clos restreint plus sévèrement que la complétion de prédicat l'in- formation implicite positive associee à cette base de co~;tissances. Interrogée sous l'hypothèse de monde dos, A permet d'inférer -.P(a) et +(b) . La complétion de prédicat admet quant à elle un modèle où P(a) et P(b) sont vais, puisque la base de connaissances complétée est Vx ( P ( x ) = ( ( x = b) P(a)) V ((x = a ) h P(b))) .

Pour conclure, décrivons briévement les limitations de la technique de compktion de prédi- cat. Comme nous l'avons dit plus haut, cette technique ne préserve pas toujours la consistance. Il est dès lors nécessaire de Limiter très étroitement l'application de cette technique. La corn- plétion de prédicat dépend donc non seulement du contenu logique des formules de la base

Page 41: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Préliminaires logiques

de con11aissances a compléter, mais aussi de leur forme syntaxique. Mentionnons également le problème suivant : certaines clauses ou certains ensembles de clauses écrites à propos de P peuvent contenir dans leurs antécédents ce même prédicat P. Les clauses écrites à propos du prédicat P sont alors interprétées comme participant a la définition de P. Donc, il y a danger de définition circulaire. Pour éviter ce danger et pour préserver la consistance, il est habituel de limiter l'application de la complétion de prédicat, sinon la théorie de circonscription et ses variantes, objet de la section suivante, étendent et généralisent la technique de complétion de prédicat, à différents égards.

2.2.6 Théorie de circonscription de McCarthy

La théorie de circonscription de McCarthy est une technique de formalisation du raisonne- ment non-monotone qui généralise la technique de complétion de prédicat et les conventions basées sur une forme d'hypothèse de monde clos. Dans sa théorie, McCarthy traite la non- monotonie sans recourir à des notions modales [53], mais, dans sa forme la plus récente (541, sa théorie de la circonscription fait appel A la logique du second ordre. La circonscription constitue l'une des voies de recherche Ies plus fécondes et les plus prometteuses dans le do- maine de la formalisation du raisonnement non-monotone. Elle repose sur le principe suivant : Circonscrire une propriété dans une base de connaissances h consiste à limiter le domaine de vbrification de cette propriété à ce qui est exigé par A. Cette circonscription est réalisée par l'introduction d'un axiome supplémentaire dans la base de connaissances A. Cet axiome est appelé miorne de circonscription. II s'agit généralement d'une formule du second ordre qui exprime de façon syntaxique la minimisation du domaine de vérification de la propriété circonscrite. Plus formellement, l'idée originale de l'approche de McCarthy est de décrire les règles de défaut en terme d'anonnalité et d'essayer de minimiser ces cas anormaux. Donc, la modelisation par la circonscription est basée sur deux étapes principales. La première étape consiste simplement à décrire les défauts par des formules de la logique du premier ordre. Par exemple :

'v'x (Oiseau(x) A labl ( x ) > Vole(z))

signifie que si z est un oiseau et s'il n'est pas un cas anormal, alors 2: vole. Il convient de noter que l'indice concernant le prédicat ab (abnormality) signifie qu'on peut avoir plusieurs regles de défaut dont chacune peut avoir son predicat d'anormalité.

La deuxième étape qui est la tache la plus diflicile consiste à décider quels sont les cas anormaux. L'idée est de minimiser le nombre des objets anormaux, en acceptant comme cas anormal seulement les objets qui sont connus d'être anormaux. McCarthy modélise cette no- tion en suivant plusieurs étapes. Premièrement, supposons que A est un système axiomatique qui définisse Ie prédicat d'anomalité P. Donc, on peut noter ce système axiomatique par A(P). Deuxièmement, supposons que l'on puisse remplacer le prédicat P dans A(P) par un autre prédicat, @ par exemple. Dans ce cas, la minimisation du prédicat P consiste à supposer que P est le plus petit prédicat 8 pour lequel A(@) est vérifié. Autrement dit, circonscrire un prédicat, ou une f o r d e , c'est se domer les moyens axiomatiques d'exprimer que les seuls objets qui satisfont le prédicat ou la formule sont ceux qui le satisfont d'une manière démonthable. Ceci est exprimée par l'aüome s u h t :

Page 42: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

1 i . . et : a = x l , ..., x,. Dans ce cas, la non-monotonie dans le cadre de la théorie de circonscription peut être

exprimée par la règle suivante :

D'un point de vue sémantique, la circonscription permet la minimisation du domaine de vérification de certaines formules figurant dans une base de connaissances. Considerons par exemple une base de connaissances A composée de formules appartenant au langage du pre- mier ordre. Partitionnons les constantes prédicatives apparaissant dans les formules de A en trois familles disjointes, notées Pl, P2 et P3. La famille contient les prédicats circonscrits, c'est-à-dire ceux dont les extensions doivent Gtre minimisées. La famille Pz contient les pré- dicats dont les extensions peuvent varier lors de la circonscription. La famille P3 contient les prédicats restants. La base de connaissances A est notée A('pt; P2). Par définition, un modèle d'un ensemble A de formules de la logique des prédicats est une interprétation qui vérifie toutes les formules de A. Soient M i et M2 deux modèles de A. Le modèle Mi sera dit inférieur au modèle M 2 selon l'ensemble Pl de prédicats circonscrits et selon l'ensemble P2 de prédicats variables lorsque les trois conditions suivantes sont satisfaites :

1. Les modèles Ml et M2 interprétent presque identiquement les formules de I'ensemble A ; 2. Le modèle M t vérifient moins souvent les prédicats de Pr que ne le fait le modèle M 2 ; 3. Les comportements de Mi et M2 peuvent différer à propos des prédicats de P2. Lorsque l'on circonscrit les prédicats de l'ensemble Pi dans la base de connaissances A,

en laissant variables les prédicats de l'ensemble P2, on s'intéresse aux modéles minimaux de A par rapport à, la relation de comparaison entre modèles que nous venons de d é f i . Une formule peut ttre infërée a partir de la b a c de wnnaissances czreonscrite lorsqu'elle est vérifiée dans tous les modébs minimaux. Autrement dit, une formule infbrée à partir de la base de connaissances A ( n ; P2) circonscrite respecte une contrainte de minMalité concernant l'extension des prédicats circonscrits, c'est-à-dire les prédicats de Pl. D'une manière générale, la circonscription dans la base de connaissances A(Fl; P2) des prédicats de l'ensemble Pl, avec l'ensemble P2 de prédicats laissés variables, est définie par la formule conjonctive suivante :

Intuitivement, le second membre de cette conjonction impose que les extensions des pré- dicats de Pi dans A(Pl;A) ne puissent être rendues plus petites, même en laissant Mner les prédicats de P2. Autrement dit, cette formule impose que les extensions des prédicats de Pl soient minimixées dans la base de connaissances A('Pi; Pz), tout en laissant varier les extensions des prédicats de A. Plus formellement, l'expression VQ désigne une quantification universelle du second ordre portant sur ltensemble de prédicats. Si Pt et P sont des prédi- cats de même &té, Pr < P représente la formule Vx(Pt (x) > P(x)) A -(Vz(P(x) 3 Pl (x))) . Si PI 5 P est défini comme la f o d e V x ( P f ( x ) 3 P ( x ) ) , dors P < P est logique- ment equivalent à la formule Pr s P A -.(P < P'). Quand Pr et 'P désignent des tuples (Pi, . . . , PA) et (Pl, . . . , P,) de prédicats d'arités correspondantes, P' < P est d é f i par la

Page 43: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

formule Pi 5 fi A A PA P,, A -(Pl 5 Pi A - - - A P, PA) et P' 5 P est d é h i par la formule Pi 5 Pl A PA 5 P,,.

Illustrons l'utilisation de la circonscription au moyen de l'exemple «les oiseaux générale- ment volenb [54]. Circonscrire une base de connaissances nécessite plusieurs décisions. Il faut choisir les prédicats qui doivent être circonscrits et les prédicats dont l'extension peut varier. En outre, il faut choisir des prédicats particuliers pour instancier la formule de circonscription et calculer effectivement, à l'aide de la logique du premier ordre, ce qui peut être inféré à partir de la base de connaissances circonscrite. En ce qu i concerne le choix des prédicats à circonscrire, on peut appliquer une politique assez simple. Lors de Ia conceptualisation du domaine d'application, il est naturel d'utiliser des lois générales, sujettes à exceptions, qui décrivent les situations normales et qui, par defaut, ne tiennent pas compte des cas singuliers. Les exceptions seront représentées par des prédicats unaires spécifiques. Ces prédicats sont notés abi et seront l'objet de la circonscription. Décrivons à l'aide de formules de la logique des prédicats les connaissances suivantes : un objet normal ne vole pas, et un oiseau est un objet qui fait exception à cette première règle, et un oiseau normal vole et une autruche est un oiseau qui ne vole pas.

Vx ((Objet(x) A -abi (x) > -Vole(x)) Vx (Oiseau(x) 2 Objet(x) A abi(x)) Vx (Oiseau(x) h -ab2 (x) > Vole ( x ) ) Vx (Autruche(x) > Oiseau(x) A -Vole(x))

Ces quatre formules constituent la base de connaissances A. Nous pouvons circonscrire les prédicats abl et ab2 dans A. De cette façon, nous minimisons les exceptions aux règles exprimées par la première et la troisième formule. Les objets et les oiseaux anormaux ne peuvent etre que les cas explicitement prévus d m A. Le prédicat Vole est quant à lui laissé variable dans le processus de circonscription. Dans ce cas, l'axiome de circonscription s'écrit comme suit :

(Vab~Va~WoZe') l(A({abi, ab;); {Vole)) A (ab: 5 abi) h (ab; 5 ab2) h -((abi 5 ab:) A

(ab2 l ab;) 1) Remarquons que cette expression est une formule du second ordre. Une quantification uni-

verselle est opérée sur les prédicats ab;, ab; et Vole'. Pour utiliser effectivement la formule de circonscription, on doit instancier chacune des variables prédicatives. La difEculté rencontrée dans l'application du processus de circonscription réside en grande partie dans le choir des prédicats d'instantiation. Dans notre exemple, l'intuition conduit à choisir les instantiations suivant es :

Dans ce cas, des opérations de déduction dans la logique du premier ordre permettent d'inférer les formules suivantes à partir de A et de la formule de circonscription instanciée :

Vx (abi(x) = Oiseau(x)) Vx (abz ( x ) = Autruche(x) ) Vx (Objet(x) A ~Oiseau(x ) > -Vole(x)) Vx (Oiseau(x) A -Autïuche(x) > Vole(x) )

Les seuls objets faisant exception à la règle énonçant que les objets ne volent pas sont les oiseaux. Les seuls oiseaux qui ne volent pas sont les autruches. Les objets qui ne sont pas des oiseaux ne volent pas. Les oiseaux qui ne sont pas des autruches volent.

Page 44: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Pour conclure, il faut dire que le plus grand amtage de la théorie de circonscription est qu'elle procéde simplement par l'incorporation de l'axiome précédent dans la théorie ini- tiale, c'est-à-dire il n'y a pas une équation à point fixe à résoudre en comparaison avec les autres approches. De ce fait, on peut dire que la sémantique de la théorie de circonscription est la plus stable par rapport aux autres approches. L'inconvénient majeur de la théorie de circonscription est que l'axiome de la circonscription exploite une quantification sur les pré- dicats, c'est-à-dire une formule de deuxième ordre. Malheureusement, il n'y a pas beaucoup de travaux concernant Ia tractabilité (l'automatisation) des formules de deuxième ordre. Ceci rend difficile l'utilisation dective de la circonscription. La transformation de ces f o d e s en leurs expressions équivalentes en logique de premier ordre a été illustrée dans certains cas. Cependant, la question d'existence de formules de premier ordre équivalentes aux for- mules de deuxième ordre reste sans réponse dans la plupart des cas. D'un autre coté, le choix d'une bonne instance du schéma de circonscription peut être utilement guidé par l'intuition. Autrement dit, le probléme technique souleve par cette approche consiste à trouver le bon prédicat dont on affirmera qu'il est équivalent au prédicat circonscrit. Aucune méthode systé- matique n'a ét6 proposée à ce sujet. Ainsi, l'application de la circonscription peut nécessiter de connaître la réponse au problème qui se pose.

2.3 Discussion

Le ra iso~ement non-monotone est souvent approximatif et incertain à cause de sa nature elle-même ou à cause de l'incompl6tude et de l'incertitude de ses premisses. Les conclusions tirees d'un raisonnement non-monotone doivent pouvoir être retractées si les prhisses qui ont amené à déduire ces conclusions ne sont plus vérifiées ou si de nouvelles informations ont pour effet d'en bloquer la déduction. Différents systèmes logiques permettant la formalisation d'un raisonnement non-monotone ont été proposés et sont détaillés dans le présent chapitre. Ces formalismes ont ét6 proposés pour &tendre la portée de la logique classique à des formes non- monotones de raisonnement. La logique des défauts permet Ia formalisation du raisonnement non-monotone au moyen de régles d'inférence propres au domaine d'application. Ces règles expriment des connaissances du type d e s okeaux génémlement uolenb sous la forme «s'il est consistant d'inférer qu'un oiseau particulier peut voler, alors on peut inférer qu'il vole». Elles permettent ainsi l'expression de lois munies d'exceptions sans qu'il soit nécessaire de dresser la Listes de ces exceptions. La logique modale non-monotone de McDermott est basée sur des systémes axiomatiques de la logique modale. Elle vise a permettre la caractérisation des ensembles d'assertions mutuellement ctconsistantes» que l'on peut inférer à partir d'un ensemble de prémisses. La logique autoépistémique est une reconstruction de Ia logique non- monotone de McDennott. A l'aide d'un système de logique modde, on représente un agent idéalement rationnel raisonnant de façon introspective sur la base de ses propres croyances. Ce type de raisonnement est non-monotone parce qu'il est relatif à un état de connaissance, lequel peut &re évolutif. Quoique la logique autoépistémique ait été conçu en vue d'applications clifkentes de celle de la logique des défauts, elles ont des expressivités souvent équiMZentes. La théorie de circonscription est une technique qui généralise la technique de complétion de prédicat et Ies conventions basées sur une forme d'hypothèse de monde clos. Elle est réalisée par l'introduction d'un axiome de circonscription qui exprime de façon syntaxique la minimisation du domaine de vérification de la propriété circonscrite.

Page 45: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Chapitre 3

Dynamique des croyances

Ce chapitre est cowacnO à h dynamique des croyances. Cette dynamique modélise les changements qui sfopeTent sur les croyances. Il y a deux types de changements des croyances : la révision et la mise à jour. La première a pour objectif l'améliora- tion de la qualité globale des croyances sur une situation statique et imparfaitement appréhendée. L'objectif de la seconde est de faire en sorte que les croyances qui décrivent une situation évolutive Mitent, le plus fidèlemmt possible, l'évolution de la situation décrite. La théone, développée par Alchouhn, Gürdenfors et Ma- kinson, dor6navant appelée AGM, est la théorie de révision des croyances la plus influente et la mieux développée. Pour la mise a jour, la théorie la plw développée à ce jour est celle de Katsuno et Mendelzon.

La dynamique des croyances [19] est une des activités essentielles aussi bien pour i'homme que pour tout système 6volutif. Autrement dit, toute base de croyances est amenée à évoluer. La dynamique d'une base de croyances est donc un probléme ancien et cmcid en intelligence artificielle. Pourtant, les outils de la logique classique ne sont pas a priori destines à rendre compte de cette dynamique des croyances. La formaikation de la logique, qui a abouti au début de ce siècle à sa forme moderne, avait surtout pour but de résoudre des problèmes de fondement des théories mathématiques et de consistance dans le raisornement. Elle s'est limitee aux situations où les croyances sont statiques. Dès qu'il devint nécessaire de prendre en compte l'évolution des croyances, de nouveaux problémes sont appanis.

Prenons l'exemple d'une base de données décrivant l'état civil d'un ensemble de personnes. Celui-ci est sujet a des évolutions correspondant à des événements tels que le mariage d'un individu ou son changement d'adresse. Il faut apprécier la validité de la nouvelIe donnée par rapport aux données précédemment cornues, et en particulier par rapport à ceUes qui hi sont contradictoires. Par exemple, l'information qu'un individu, anciennement connu comme célibataire, s'est marié peut être préviligiée parce que plus récente, ou appuyée par un docu- ment administratif, c'est-à-dire une justification Certaines informations peuvent être plus, ou moins, acceptables que d'autres. Par exemple, une fois marié, il n'est pas possible de redeve- nir célibataire, mais seulement veuf ou diwrcé. Donc, les effets de la prise en compte d'une information nouvelle sont diftide à cerner, et ce d'autant plus que certaines informations sont implicites, c'est -&dire déductibles, mais pas représentees explicitement .

Nous désignons sous le nom de changement toute opération qui transforme une base de croyances BCi en une nouvelle base 8C2. Par définition, une base de croyances représente un ensemble de croyances sur une situation qui a priori n'évolue pas dans le temps, par exemple,

Page 46: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dyaamique des croyances 36

ce que croit un médecin devant un patient donné durant le temps de la consuitation. Ce peut être aussi la description d'un monde sujet à évolution, par exemple, la description d'une pièce dans laquelle un robot, capable de déplacer des objets, évolue. Dans le premier cas, que nous appellerons changement de cmyances, l'objectif lors de la prise en compte d'une nouvelle information, ou révision, est d'améliorer la qualité globale des croyances de l'agent sui une situation statique, c'est-à-dire non évolutive, mais imparfaitement connue. Dans le second cas, que nous appellerons changement du monde, l'objectif est de coller» à la réalité d'un monde évoluant dans le temps. Dans ce dernier cas, les croyances décrivent alors parfaitement ou imparfaitement la situation à un moment donné. Il s'agit donc de mettre à jour plutôt que d'améliorer l'ensemble des croyances.

Dans les deux cas, une base de croyances peut n'être qu'une représentation incompléte de la situation. Autrement dit, le changement peut ajouter de l'incertitude dans une base de croyances. Par exemple, considérons le cas d'un diagnostic médical rendant bien compte des symptômes observés. L'arrivee de résultats d'un nouvel examen peut faire douter de la pertinence du diagnostic actuel et provoquer une révision de celui-ci. Par exemple, des hypothèses écartées peuvent être réexaminées. De même, considérons le cas d'un bateau dont la position est connue avec exactitude. Cependant vingt quatre heures apres, cette position ne peut plus qu'être estimée, en tenant compte de sa vitesse, de son cap. Les raisons de passer d'une base de croyances BCl à une base de croyances BC2 sont diverses. Elles sont désibaées sous le terme d'évènement. 0 peut s'agir simplement de l'écoulement d'un certain laps de temps dans le cas d'une évolution spontanée. La précision ou le degré de certitude d'une information peut aussi décroître avec le temps. Certaines informations peuvent &me disparaître par phénomène d'oubli dil aux limites de la mémoire. Mais le cas le plus fiéquent est celui où l'évènement déclenchant est l'arrivée d'une nouvelle information. Celle-ci peut en particulier être contradictoire avec la base de croyances $Cl. El faut alors choisir parmi les informations de BCi celles qui doivent persister en BC2, et celles qui doivent être supprimées.

3.1 Exemples

Une base de croyances est souvent représentée par un ensemble de formules dans un langage d o ~ é . Il est donc important de se demander si le résultat d'une révision ou d'une mise à jour dépend du choix du langage, et du choix des formules représentant la base des croyances. Prenons l'exemple d'un radar, permettant de repérer la position d'un bateau sur un écran divisé en quatre quadrants, à savoir : Nord-Est, Nord-Ouest, Sud-Est, Sud-Ouest. Supposons que le radar nous a informh que le bateau était en Sud-Ouest. Nous apprenons ensuite qu'il n'est pas en Ouest. La question est : Quel va Btre la base de nos croyances après cette révision ?

Supposons que L est le langage de représentation avec L = ( Sud, Ouest, Nord, Est ) et supposons que la base de croyances initiale BCo = { Sud-Ouest ). Si nous apprenons par la suite -Ouest, donc BCr devrait être { Sud, -Ouest ), c'est-à-dire Sud-Est. Supposant maintenant que L' = ( Nord-Est, Nord-Ouest, Sud-Est, Sud-Ouest } et BCL = { Sud-Ouest ). Dans ce cas, la nouvelle information se traduit par : Nord-Est v Sud-Est. L'information Sud- Ouest est contradictoire avec la nouvelle information et est donc supprimée. On obtient BC; = ( Nord-Est v Sud-Est ), cWérent de Xi. Le résultat d'une révision risque donc bien de dépendre du langage de représentation choisi pour décrire la situation.

Une autre question possible est : le résultat d'une révision va-t-il dépendre de l'ensemble de formules choisi pour la représentation de la base de croyances, ou peut-il être indépendant de

Page 47: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances

la syntaxe, et donc deux théories équivalentes mèneront-eues à la meme révision? Considérons le scénario suivant, inspiré de Katsuno et Mendehon 1361 où un acheteur de frites se trouve d m une rue comportant deux restaurants à frites A et B. Les formules A et B signifient dans ce qui suit que ces restaurants sont ouverts. Supposons qu'on a les bases de croyances suivant es :

- BCo = { A v B ) : qui décrit la situation : uil rencontre quelqu'un mangeant des frites» ;

- BCi = { A V B, A) : qui décrit la situation : ail voit une lumière chez A et suppose donc que A est ouvert » ;

- BCz = ( A v B, -A) : qui décrit la situation : «il est devant A qui est fermé (on répare le restaurant) B.

II en déduit que B est ouvert, et donc on a BCZ = {B) comme résultat de la révision. Prenons maintenant le cas où il n'a rencontré personne mangeant des Entes sur le chemin, et où il va vers A :

- BC; = { A ) : qui décrit la situation : <il voit de la lumière chez A» ; - BC; = {) : qui décrit la situation : «il est devant A qui est fermé».

On remarque que BCi est logiquement équivalent à BC: et que cependant on s'attend assez natureliement à obtenir des résultats difkrents après révision par TA. Plusieurs solutions sont décrites par la suite afin de résoudre ce probléme. Une première consiste justement à donner une certaine importance a la syntaxe et A ne pas réviser de manière semblable { A ) et { A , A v B). Une autre consiste a ajouter une relation d'ordre entre les formules décrivant une situation afin de traduire leur tendance a persister lors d'une révision. Une troisième solution consiste à expliciter les justifications des informations en ajoutant explicitement 17nformation «il a vu quelqu'un mangeant des &item, notée F, et la contrainte F 2 A V B. On obtient alors les résultats attendus.

Un dernier point est mis en lumière en présence de disjonctions. Illustrons le par l'exemple suivant : un robot croit qu'il y a des chaises, notée c, ou des tables, notee t , dans une salle, mais pas les deux, ce qui sera noté par (TC t) V ( c h -t). Supposons qu'il apprend qu'il n'y a pas de chaises (TC), donc il peut déduire après revision de sa base de croyances qu'il y a des tables dans la salle. Plus formellement :

Autrement dit, le robot apprend qu'un autre robot a retiré toutes les chaises de la saIle, s'il y en avait. Ce qui s'exprime par la formule TC. Donc, il peut juste en déduire qu'il ne reste pas de chaises dans la salle. Plus formellement :

Dans le premier cas, la révision est due à un changement de croyances, l'ajout d'une information consistante est traitee comme un ajout et ne remet pas en cause la disjonction (TC A t) v (c A ~ t ) . Dans le second cas, qui traite d'une mise à jour due à un changement du monde, 2 semble nécessaire de raisonner cas par cas. Celui OU des chaises étaient dans la salle et les retirant il ne reste rien, et celui où des tables étaient dans la salle et donc iI reste les tables. Donc, la base résultante se d h i t bien par TC. Il faut dire que les deux interprétations de cet exemple indiquent que le processus de révision des croyances est différent de cehi de mise à jour.

Page 48: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 38

Réviser une base de croyances BCi, c'est, conformément à ce qui a été dit en introduction, en induire une nouvelle bme de croyances Be2. Toutefois, relier arbitrairement deux bases de croyances quelconques peut difficilement passer pour une opération de révision. Une question fondamentale est donc d'identifier un certain nombre de principes permettant de reconnaître qu'une opération entre bases de croyances correspond à un processus de révision. Plusieurs auteurs se sont attaqués à cette question, en se référant à l'un des deux cas distingués en introduction, à savoir : changement de croyances, où une base de croyances représente un ensemble de croyances sur un monde statique (281 ou changement du monde, où la base de croyances représente une situation du monde en évolution [35]. Selon que les auteurs se sont appuyés sur l'un ou l'autre de ces cas. ils ont dégasé des propriétés quelque peu différentes pour caractériser la révision.

3.2 Propriétés

Tel que précis6 auparavant, la dynamique des croyances n'est pas n'importe quelle asso- ciation arbitraire entre bases de croyances. Il y a des liens qui proviennent de la nature de 17évolution d'une base de croyances vers une autre. Ces liens se reflètent par l'absence ou la présence de certaines propriétk, doat trois sont examinées ci-dessous en raison de leur caractère fondamental.

Propriété de consistance Cette propriété a pour intérGt qu'une opération de révision ou de mise à jour doit donner une base de croyaaces consistante. Autrement dit, c'est de savoir si la dynamique, au sens changement de croyances ou changement du monde, d'une base de croyances consis- tante doit toujours résulter en une nouvelle base de croyances consistante. Autrement dit, il est sensé de profiter de l'arrivée d'une nouvelle information pour se ramener à une base de croyances cohkrente. Ce critére peut prendre une forme plus genérale. Etant donnée une notion de degré de consistance par exemple, le critére peut être étendu en une contrainte demandant que le degré de consistance de la base de croyances résul- tante soit maximal, ou que la révision ne fasse pas décroitre le degré de consistance. Par ailleurs, la notion de consistance à préserver peut être différente selon qu'une repré- sentation syntaxique ou sémantique est empolyée. En effet, de par la distinction entre croyances implicites et explicites, il se peut qu'un agent qui n'est pas logiquement om- nicient révise ses croyances sans se prémunir contre une inconsistance non syntaxique. Des lors, il existerait une représentation syntaxique des croyances de l'agent mais pas de représentation sémantique.

a Propriété de changement minimal Cette propriétk consiste A changer le moins de croyances possible. Autrement dit, la révision ou la mise ii jour d'une base de croyances devrait rêsdter en une nouvelIe base de croyances qui M è r e aussi peu que possible de la première. Il y a la une notion sous- jacente de similarité ou proximité entre bases de croyances. A priori, de nombreuses possibilités s'offrent pour une telle notion. La première possibilité est que la proximité entre deux bases de croyances pourrait ette défmie au travers du nombre de formules védiées par les deux bases. Une autre technique plus évoluée pour fonder une notion de proximité entre bases de croyances est la notion d'enmcinement épistémique qui va être abordée ultérieurement dans le chapitre. Donc, la dynamique des croyances force une notion de changement minimal se rapportant au groupe de formules qu'il faut laisser tomber. Toutes les formules constituant la base de croyances sont traitées et tous les

Page 49: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 39

sous-ensembles maximaux consistants avec la formule à ajouter en sont extraits. C'est en ce sens que le changement est minimal. Autrement dit, l'ensemble des croyances est &Faibli aussi peu que possible. Dans le cas de l'exemple des chaises et des tables, et pour ce qui est de la révision des croyances, la base de croyances est elle-même consistante avec la formule à ajouter. C'est pourquoi la base de croyances n'est pas affaiblie du tout et est simplement renforcée par Ia formule à ajouter. Pour ce qui est de la mise à jour, il n'est pas possible de parler de changement minimal sur Ia base de croyances. Il y aurait plutdt une sorte de changement minimal au niveau des formules atomiques. En effet, l'opération de mise à jour n'accorde pas la préférence à la conclusion qu'il y a des tables bien que cela s'imposerait pour minimiser le changement à opérer sur la base de croyances courante. Par contre, une évolution rninimde à partir du cas où la salle contenait initialement des chaises conduit à rejeter la conclusion qu'il y a des tables dans la salle, après que les chaises aient été retirées, s'il y en avait.

Propriété de l'importance de t'information nouvelle Cette propriété consiste à donner ou non la priorité à l'information nouvelle. Autrement dit, lorsque rp ne se déduit pas de BC, faut4 impérativement modifier BC pour prendre en compte cp? Si des considérations temporelles pourraient dans certaines situations conduire à renoncer à prendre en compte la nouvelle information, et si la nouvelle infor- mation s'avère être plus imprécise ou incertaine qu'un blément de BC, que faut-il faire ? Dans le cas du changement de croyances, la réponse ne semble pas évidente tandis que daas le cas de changement du monde, l'exemple du bateau parait indiquer qu'il faut intégrer coûte que coûte la nouvelle information.

3.3 Révision des croyances

Dans le contexte du changement de croyances, une base de croyances sera appelée ensemble de croyances sur un monde statique et c'est l'arrivée d'une nouvelle information à propos de ce monde statique qui déclenche la révision. Au niveau de la représentation, un ensemble de croyances est un ensemble de f o d e s déductivement clos. De plus, il se peut qu'un ensemble de croyances BC soit donné simplement sous la forme d'une base de croyances non clos BC. Evidemment, la relation entre BC et BC est l'égalité BC = Th(BC) où Th est l'opérateur de deduaion logique, c'est-à-dire Th(BC) = {plBC l- p). Sur ces prémisses, Alchourr6n, GZr- denfors et Makimon [l, 28, 291 ont introduit les concepts et définitions qui suivent. Trois types de changement de croyances peuvent étre dist ingubs, auxquels correspondent trois opérations :

1. Ezpansion Une nouvelle croyance cp et ses conséquences logiques sont ajoutées à un ensemble de croyances BC. Il n'y a aucune restriction concernant cet ajout. Autrement dit, l'intro- duction des nouvelles croyances dans ia base de croyances ne modifie pas les croyances déja d a n t e s . En conséquence, ceci peut introduire des inconsistances. L'expansion de BC par Q est notée SC:.

2. Révision Dans ce cas, une nouvelle croyance Q doit être ajoutée à un ensemble de croyances BC, pour donner un ensemble de croyances qui doit être consistant. Autrement dit, lorsque cp est inconsistant avec BC, certaines croyances de BC doivent étre abandonnées. Donc, l'introduction de nouvelles croyances dans la base de croyances entraîne la modification

Page 50: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 40

des croyances déjà exbtantes, par exemple les croyances inconsistantes. La révision de BC par p est notée BCG.

3. Contraction Dans ce cas, une croyance rp est retirée de l'ensemble de croyances BC. Souvent, cela ne peut se faire qu'en renonçant également à d'autres croyances de BC. La contraction de BC par <p est notee BCG.

Il convient de noter que définir BC: comme la fermeture déductive de BC u (9) règle de manière satisfaisante le cas de l'expansion. Mais, lorsque BC U {p} est inconsistant, le changement de croyances ainsi effectué mène à tout oublier, car Th(BC U (9)) contient toutes ies formules. Dans ce cas, on peut vouloir eflectuer une revision plutdt qu'une expansion. Il est néanmoins très délicat d'etablir des liens entre BC et BCG, de même qu'entre BC et BC,. Donc, un des problèmes de la révision est le problème, évoqué plus haut, de dégager des propriétés pour caractériser la révision. Une première réponse est apportée par AlchounDn, Gardedors et Makinson (1) qui s'appuient sur l'interprétation de la révision comme changement de croyances.

3.3.1 Expansion

L'expansion est le moyen le plus simple pour modkliser le changement dû a une nouvelle information. Dans ce cas, l'état mental d'un agent envers une formule p passe de l'indéterrni- nation vers l'acceptation. Formellement, l'expansion, notée +, est une fonction qui prend pour arguments un ensemble de croyances X3C et une formule cp et donne comme résultat un nouvel ensemble de croyances noté BC;. Les postulats qui reprksentent les propriétés que devrait posséder tout opérateur d'expansion + sont :

(fi) BC: est un ensemble de croyances (ensemble clos pour la déduction). Ce postulat e-@me que l'expansion préserve les ensembles de croyances.

(+2) <p E BCS Ce postulat signifie que le changement survenu sur BC est décrit par le fait que <p est acceptée dans BC:. (+3) BC Ç BC; Ce postulat signifie qu'en faisant une expansion, on retient tout ce qu'il y avait dans BC. (+4) Si p E BC alors BC: = BC Ce postulat si@e que l'acceptation d'une formule déjà acceptée n'a aucun effet.

(4-5) Si BCi & BC2 alors Bel; > Be2: Ce postulat signifie que si dans l'état épistémique BC2 on connaît plus que dans l'état épistémique Bel, l'expansion de B C 2 et de BCi par la même formule maintient la relation d'inclusion.

(+6) BC; est le plus petit ensemble qui satisfait ( i l ) - ( i 5 ) Ce postulat signifie que BC: ne contient que les croyances requises par les postulats (+l)-(+5). La possibilité d'inclure des croyances qui n'ont aucune reIation avec 9 est exclue.

3.3.2 Révision

Souvent, de nouvelles informations viennent contredire des croyances antérieurement ac- ceptées. Dans ce cas, pour pouvoir accepter ces nouvelles croyances, une révision est nécessaire

Page 51: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 41

pour le maintien de la consistance de l'ensemble des croyances. Certaines croyances doivent être rejetées pour permettre l'acceptation de la nouvelle croyance et maintenir ainsi la consis- tance. Donc, la révision est non-monotone du fait que l'ajout d'une croyance engendre le rejet d'anciennes croyances. Formellement, la révision est une fonction, notée t , qui prend pour arguments un ensemble de croyances et une fornm.de et d o ~ e comme résultat un nou- vel ensemble de croyances consistant. D'une manière générale, on peut dire que le problème central de la révision réside dans la détermination des croyances à rejeter. Les postulats qui représentent les propriétés que devrait posséder tout opérateur de révision * sont :

(* 1) BC; est un ensemble de croyances (ensemble clos pour la déduction). Ce postulat exprime que la révision préserve les ensembles de croyances.

(*2) cp E BC; Ce postulat stipule que la nouvelle formule rp doit se trouver dans l'ensemble de croyances révisé BCG (*3) BC; C BC; Ce postulat signifie que si 9 est consistante avec BC, alors la révision consiste à ajouter simplement cette nouvelle formule, ce qui consiste exactement à, effectuer une expansion et donc l'inclusion est vérifiée. Sinon, BCP contient toutes les formules et donc l'inclusion est encore vérifiée.

(*4) Si yp $ BC alors BC; C BCC Ce postulat signine que si rp est consistante avec SC, d o n la révision consiste d. ajouter simplement cette nouvelle formule, ce qui consiste exactement à effectuer une expansion et donc l'indusion est vkrifiée. Autrement dit, l'expansion n'est autre qu'un type de révision.

(*5) BC; est inconsistant si et seulement si rp est contradictoire Ce postulat correspond à la presemtion de la consistance. BCG est un ensemble consis- tant sauf dans le cas oh ycp est logiquement vaiide.

(*6) Si BC k (o i é dors BC; = BC; Ce postulat requiert que la révision donne un résultat indépendant de ta forme syn- taxique de cp. Autrement dit, des formules logiquement équivalentes donnent lieu par révision à des changements identiques.

(*7) C ( B q ; Ce postulat recouvrent l'idée qu'en cas d'inconsistance de p avec BC, le changement sur BC doit être minimal.

(*8) Si ~ $ 6 BCG alors @Ci)$ c BCG,,, Ce postulat signifie que le changement miriimal de BC pour l'acceptation de 9 et $ (BCG,*) doit etre le meme que celui engendré par l'expansion de BCG par $ tant que $ ne contredit pas les croyances de BC.

3.3.3 Contraction

Une contraction a Lieu quand des croyances sont rejetées sans qu'il n'y ait d'acceptation de nouvdes croyances. Le principal problème de la contraction provient du fait que lonqu'on rejette une croyance cp d'un ensemble de croyances BC il peut y avoir des croyances qui individueUement ou conjointement impliquent (o. Puisque BC est fermée sur les conséquences logiques, il est nécessaire de rejeter ces croyances aussi. Supposons que p soit acceptée dans BC du fait que c'est une conséquence logique de $J et de 7 qui sont toutes deux dans BC. Dans

Page 52: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 42

ce cas, en plus de (o, $ ou 7 ou les deux doivent être rejetées aussi. Le problème serait alors de déterminer laquelle des deux doit être rejetée. Comme pour la révision, aucune croyance ne doit être rejetée gratuitement. La contraction, notée -, est une fonction qui prend pour arguments un ensemble de croyances BC et une formule rp et donne comme résultat un nouvel ensemble de croyances BCG. Les postulats qui représentent les propriétés que devrait posséder tout opérateur de contraction - sont :

(-1) BC, est un ensemble de croyances. Ce postulat si&e que BC, découle de SC par l'élimination de certaines croyances. Donc, BCG est un ensemble de croyances. (-21 BCG L BC Ce postulat signifie que BCG découle de BC par l'élimination de certaines croyances. Donc, BCG ne peut contenir'aucune autre croyance qui n'est pas dans 8C. (-3) Si p C BC alors BC; = BC Ce postulat signifie que si rp 6 BC, alors la contraction n'a aucun effet. (-4) Si BC F p alors p $ BC, Ce postulat signifie que si on fait la contraction de p, alors rp n'est pas contenu dans BCG sauf si (o est logiquement valide. (-5) Si cp E BC alors BC C (BCG); Ce postulat signifie qu'en contractant <p de BC puis en faisant une expansion de ~p on retrouve l'ensemble BC. Ce postulat assure le recouvrement.

(-6) Si BC k <p a $J alors BC; = MC, Ce postulat requiert que la contraction donne un résultat indépendant de la forme syntaxique de p. Autrement dit, des formules logiquement équivalentes donnent lieu par contraction à des changements identiques. (-7) BC; n BC; c BCG, Ce postulat signifie que les croyances qui sont a la fois dans BCG et BC; sont aussi dans

(-8) Si cp f! BCiA, alors E BCG Ce postulat signifie que si on fait la contraction de cp A $, il faut rejeter cp ou ou les deux doivent etre rejetées. Dans le cas où cp est rejetee, le changement minimal nécessaire pour la contraction de rp A t,b est relié au changement minimal pour le rejet de p.

3.3.4 Relation entre expansion, révision et contraction

A partir des postulats de I'expansion, de la r6vision et de la contraction, les propriétés suivantes peuvent 6tre déduites :

BCt, = (BC,); Si cp est consistante avec BC, alors la révision consiste à ajouter simplement cette nouvelle formule. Dans ce cas, (BCG): = BC; = BCP et donc l'égalité est vérifiiie. Sinon, la révision consiste simplement de rejeter la formule -p et à ajouter la nouvelle formule rp, c'est-à-dire BCG = (BCG); et donc l'égalité est vérifiée.

BCG = (BC n BC;),' Si <p est consistante avec BC, alors la révision consiste à a jouter simplement cette nouvelle formule. Dans ce cas, (BC n BC;): = (BC n BC, f )g = BC; = BCG et donc l'égalité est vérifiée. Sinon, (BC n BCG): = (BC n (BC:&)$ = (BCG): = BC; et donc l'égalité est vér iw.

Page 53: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 43

3. BCG = BC n (BCJP Si -rp est consistante avec BC, alors BC fl (BC& = BC n BC$ = BC = BC; et donc l'égalité est vérifiée. Sinon, BC fi (BCG) = BC fl (BCJ i, = BC; et donc l'égalité est vériiiée.

4. BC; = BC n BC:, D'après la première relation, on a BC', = (Ki)&. Donc BC n BC', = BCn (BC& = BCG, d'après la troisième relation, et donc l'égalité est véaée.

D'apés ce qui précède, les postulats AGM se focalisent sur la structure logique des croyances. Ils sont basés sur une théorie de la cohérence et ne prennent pas en compte de jzdificatiorw pour les croyanca. Cette approche fondée sur ia eoiiérence s'oppose a ia theo- rie dite fondationnelle 1311 selon laquelle la révision de croyances consiste à renoncer aux croyances qui n'ont plus de justification satisfaisante.

3.3.5 Mise en oeuvre

Dans le cadre de la révision, detu situations sont à envisager selon que la formule 9, supposee ne pas être une contradiction, à ajouter à l'ensemble de formules clos BC, qui re- présente la base de croyances, est consistante avec BC ou non. Si 9 est consistante avec BC alors la révision se reduit à l'ajout de p et BC; = Th(BC ü {p}). Sinon les postulats .4GM laissent beaucoup de latitude pour choisir l'ensemble de formules SC;. Un premier nsultat dii ii Gkdenfors est que toute opération de révision conforme aux postulats AGM revient & faire un tri préalable sur les fomules de BC en fonction d'une relation d'ordre total SEE appelee ennzcinemmt épistémique, Iaquelle satisfait les propriétés suivantes :

Connaissant la relation IEE' la construction de BCG peut s'effectuer en deux étapes :

On considére un sous-ensemble clos BCG de BC qui y est la contraction de -9 de BC. Ce choix doit respecter l'enracinement épistémique au sens où $J E BCG si et seulement si 19 C E E + (p C E E S, = p IEE +$ E\ i($ SEE 9))' c'est-à-dire qu'on ne garde que les formules plus enracinées que -9.

On ajoute p à BCG et on ferme déductivement.

On démontre alors que toute opération de révision qui satisfait les postulats AGM peut s'exprimer comme ci-dessus à l'aide d'une relation d'enracinement épistémique 1281. Le pro- blème est que l'on doit au préalable se définir une relation d'enracinement épistémique. Si on n'en dispose pas il est intéressant de balayer l'étendue des révisions possibles :

- Un choix extrême est de considérer une sous-base maximale consistante de BC qui n'im- plique pas -9, et de lui ajouter p. BC; est alors appelée duision maxichoiz. Malheureu- sement on peut considérer que BC> contient trop de formules car on démontre que toute opération de révision maxichoix produit un ensemble de formules complet, c'est-à-dire Y+($ E BCI, v -@ E BCG). Donc, faire une révision maxichoix correspond à choisir un des modéles de p.

- Un autre choix extrême, qui évite I'entrée d'un trop grand nombre de formules dans BCG, est de considérer l'intersection des ensembles de formules obtenus par révision maxichoix. Cette approche n'est pas non plus satisfaisante car on obtient alors seulement l'ensemble

Page 54: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 44

des conséquences de 9, c'est-à-dire qu'on a oublié BC. Ce résultat n'est pas surprenant sachant que chaque révision maxichoix étant complète, elle se trouve en correspondance avec un modèle de cp, et qu'on est donc amené à considérer l'ensemble des modèles de 9'-

- Un choix intermédiaire consiste à faire l'intersection de quelques ensembles de formules obtenus par maxichoix, ces ensembles étant définis par une fonction de sélection. Cela revient à sélectionner certains modèles de 9' pour définu l'opération de révision.

A titre d'exemple, essayons d'appliquer l'approche de Giirdenfors au problème du restau- rant. L'information dont on dispose, à savoir : l'un des restaurants A ou B est ouvert car quelqu'un mange des irites dans ia rue et ie restaurant A est éclairé, peut se résumer par BC = T h ( { A ) ) dans lequel on admet Faux C E E A C E E A V B. En effet, les deux formules A v B et A appartient a BC comme étant les informations effectivement reçues. Faux < E E A exprime qu'on accorde une certaine justification à A. A <EE A V B vient de ce que l'on veuille distinguer l'information A V B, et que l'enracinement épistémique satisfait E E 2 , c'est- &-dire A <BE A ii B. Les propriétes de l'enracinement épistémique permettent de déduire que -A ~ E E Faux, c'est-à-dire l'absence de certitude sur 7 A . L'événement déclenchant la révision est -A. Toute sous-base de BC qui n'implique pas A et qui respecte l'enracinement épistémique contiendra AVB. Si on ajoute ?A on trouve que T h ( { 7 A h ( A v B ) } ) = T h ( { - A m ) ) E BCiA, c'est-à-dire que voyant que A est fermé on conclut qu'il est justifiable que B soit ouvert.

Considérons maintenant le problème du radar. Soit p = Sud et q = Ouest. La base de croyances est représentée par BC = Th(@ h q)). L'information déclenchante est l q , mais on ne dispose pas à priori d'enracinement épistemique. Il est facile de voir que les deux révisions maxichoix correspondent aux deux modeles de -q, soit BC', = Th({p ~ q } ) et BCI, = Th({-PA l q } ) . Donc, leur intersection donne l'ensemble BC:, = Th( (7q ) ) . Si l'usage des deux propositions p et q re0éte l'existence de deux capteurs indépendants (Nord/Sud et Est/Ouest), dors l'information l q est vue comme provenant d'un des capteurs. On peut supposer que l'information venue de l'autre capteur reste pertinente et en déduire p h -q, au lieu de l p A -q OU simplement yq.

La formulation donnée plus haut des postulats AGM de révision correspond à une approche centrée sur les formules. Katsuno et Mendelzon 134, 361 s'intéressent à une approche centrée sur les modèles. La suite du chapitre lui sera totalement consacrée.

3.4 Mise A jour des croyances

La dynamique des croyances ne se résume pas à la seule révision des croyances. La mise jour est un autre aspect de la dynamique des croyances. Nous avons vu, précédemment,

que la rkvision des croyances se préoccupe de la rnsnière avec laquelle un agent change ses croyances en adoptant de nouvelles croyances. Cependant, la mise à jour se préoccupe plutôt de la manière avec laquelle un agent change ses croyances en adoptant de nouvelles croyances. La mise à jour quant & elle se préoccupe plutdt de la manière avec laquelle un agent devrait changer ses croyances quand il réalise que le monde a changé. En effet, les croyances d'un agent peuvent devenir inexactes à cause des changements intervenus dans le monde. Chaque fois que des événements surviennent ou que d'autres agents redisent des actions, certains faits deviennent vrais et d'autres faux. Un agent observant de tels processus ou utilisant leurs résultats doit s'assurer que son état épistémique reflète ces changements. Dans ce cas, une base de croyances est un ensemble de faits à propos d'un monde en évolution- Diverses tentatives d'approche formelle pour le changement du monde ont vu le jour. Rao [67] est le premier

Page 55: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 45

à appliquer les postulats AGM dans un contexte du raisonnement sur des actions. Katsuno et Mendelzon [35] ont signalé que les postulats AGM n'étaient pas appropriés dans un tel contexte, c'est-à-dire les changements dans le cas de changement du monde.

A titre d'exemple supposons que notre croyance à propos d'une certaine situation soit que la porte ou la fenêtre sont ouvertes, notée pV f . Donc, la base de croyances cornespondante est BC = T h ( p ~ f ). Supposons que nous apprenions que quelqu'un ferme la porte. Nous cherchons à mettre à jour la base de croyances en fonction de cette nouvelle information. D'après les postulats AGM, la nouvelle information ( i p ) doit simplement être ajoutée à { p V f } vue que -p est consistante avec BC. D'où BC; = Th(@ v f ) /\ ~ p ) l- f . Ainsi, f se déduit de la révision de BC. Autrement dit: fermer la porte a pour conséquence que la kg&- s'ouvre, ce qui est quelque peu magique. Cet exemple est formellement identique à l'exemple précédent des chaises et des tables. Pour contourner le probkne, Katsuno et Mendeizon suggèrent l'affaiblissement des postulats AGM en des postulats de dérivabilité. Ces derniers postulats ont une caractérisation mérente de celle d'AGM. Par la suite, nous utiliserons l'appellation KM pour faire référence à la théorie proposée par Katsuno et Mendelzon et nous supposerons que la formule logique BC représente la conjonction des formules de la base de croyances BC.

3.4.1 Mise à jour

L'opérateur de mise à jour est noté A. Dans ce cas, BC; représente la mise à jour de BC par la formule q. Les postulats qui représentent les propriétés que devrait posséder tout opérateur de mise à jour A sont :

(A 1) B C ~ t- Ce postulat exprime que la nouvelle formule <p se trouve dans la nouvelle base de croyances représentke par la formule BC: obtenue par mise à jour de la base de croyances représentée par la formule BC. (4 2) s i BC t- alors BC: = BC Ce postulat signifie que si une nouvelte formule cp est dérivable de BC, alors mettre à jour la base de croyances représenthe par la formule BC par p ne modifie pas cette base de croyances. Tandis que si 9 est consistante avec BC alors B C ~ peut dinérer de BCP. Donc, (A2) est plus faible que le postulat (*2) de la révision.

(A 3) Si BC et 9 sont satisfaites alors B C , ~ est aussi satisfaite. Ce postulat garantit que le résultat d'une mise à jour est consistante chaque fois que la nouvelle formule est consistante, mais si la base de croyances représentée par la formule BC est inconsistante, dors le résultat de la mise à jour est également inconsistant. C'est l i une oppositon avec le postulat (*3) de la révision. Donc, l'état initial du monde doit être cohérent pour qu'une évolution ait un sens.

(A 4) Si BCl i BC2 et rpz alors BC& z BC& Ce postulat signifie que la mise à jour donne un résultat indépendant de la forme syn- taxique de la base de croyances initiale et de la nouvelle formule. Autrement dit, des bases de croyances logiquement égales et des formules Iogiquement équivalentes d o ~ e n t lieu par mise à jour à des changements identiques.

(A 5) A 9 2 l- BC$*, Ce postulat signifie que la mise à jour de la base de croyances représentée par la formule BC par la formule pi A 9 2 est plus faible que l'ajout de la formule cp* à la base de croyances représentée par la formule BC&.

Page 56: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances

(A 6) Si BC& l- <pl et B C ~ t- pl dors BC& = BC& Ce postulat signifie que si la mise a jour de la base de croyances représentée par la formule BC par pi implique 502 et la mise à jour de cette même base de croyances par 9 2 implique pl, alors les deux mises à jour sont équivalentes.

(A 7) Si BC est compl6te alors BC$ BC; l- BC&,, Ce postulat s'applique uniquement aux bases de croyances complètes. II signifie que la mise à jour de la base de croyances complète représentée par la formule BC par la formule pl V p2 est plus faible que la mise à jour de cette même base de croyances par cP1 et par Pz. [A 8) (BCl V B C ~ ~ $ G BC$ V BC$ Ce postulat signifie que le résultat de la mise à jour de la base de croyances représentée par la formule BCi V BC2 par la formule p est équivalent à la mise à jour de BCl par <p ou à celle de BC2 par <p.

3 A.2 Effacement

L'effacement est a la contraction ce que la mise a jour est à la révision. L'opérateur d'effacement est noté 0. BC: représente la base de croyances obtenue en efFaçant la formule p de la base de croyances représentée par la formule BC. Les postulats qui représentent les propriétés que devrait posséder tout opérateur d'effacement V sont :

(V 1) BC F BC; Ce postulat signifie que la base de croyances repr6sentée par la formule BC; ne peut contenir aucune autre croyance qui n'est pas dans la base de croyances représentee par la formule BC. (V 2) Si BC i- -p alors BC; i BC Ce postulat signifie que si la base de croyances représentée par la formule BC est in- consistante, alors I'opbration d'effacement n'a aucun effet.

(V 3) Si BC est satisfaite et 9 n'est pas satisfaite alors BCT Y (p.

Ce postulat signifie que si on fait l'effacement de la formule p de la base de croyances représentée par la formule BC, dors p n'est pas contenu dans la nouvelle base de croyances sauf si <p est logiquement valide.

(V 4) Si BCi = BC2 et pi = ip l alors BC$~ s B C ~ ~ Ce postulat si&e que l7op6ration d'effacement donne un résultat indépendant de la forme syntaxique de la base de croyances initiale et de la nouvelle formule. Autrement dit, des bases de croyances logiquement égales et des formules logiquement équivalentes donnent lieu par effacement à des changements identiques.

( ~ 5 ) B C T A ~ F B C Ce postulat signifie que si on fait l'effacement de la formule p de la base de croyances représentée par la formule BC et que l'on fait ensuite la conjonction de cette nouvelle base avec cette mOme formule 9, alors la base de croyances représentée par la formule BC ne peut contenir aucune autre croyance qui n'est pas dans Ia base de croyances représentée par la formule BCF.

(V 6) (BCl v B C ~ ) ~ ~4: V BC$ Ce postulat signifie que le résultat de l'effacement de la fonnule de la base de croyances représentée par la formule BCi V BC2 est équivalent à l'effacement de <p de BCl ou à celle de (p de BC2.

Page 57: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances

3.4.3 Relation entre mise à jour et effacement

L'opérateur d'effacement peut se définir à partir de l'opérateur de mise à jour par :

B C ~ a BC v (BC$J

L'opérateur de mise à jour peut se définir B partir de l'opérateur d'effacement par :

Similairement à la révision et à la contraction, la mise à jour et l'effacement sont inter- changeables. Les résultats complets de l'interchangeabilité des deux opérateurs sont définis par les conditions suivantes :

Si l'opérateur A satisfait (A 1)-(A 4) et (A 8) alors l'opérateur V défini à partir de A satisfait (V 1)-(V 5 ) et (V 8).

O Si l'opérateur V satisfait (V 1)-(V 4) et (V 8) alors l'opérateur A défini a partir de V satisfait (A 1)-(A 4) et (A 8).

Si un opérateur A satisfait (A 1)-(A 4) et (A 8) alors on peut définir un opérateur V à partir de A. L'opérateur A qu'on obtient a partir du V précédent est équivalent au A original.

O Si un opérateur V satisfait (V 1)-(V 4) et (V 8) alors on peut définir un opérateur A à partir de V. L'opérateur V qu'on obtient à partir du A precédent est équivalent au V original.

3.4.4 Mise en oeuvre

Il est instructif de comparer l'approche par mondes possibles dans sa version uchangement de croyances» par rapport à sa version uchangement du monde^. Réviser un ensemble de mondes possibles, representaat un ensemble de croyances, c'est faire évoluer globalement cet ensemble de mondes vers le plus proche ensemble de mondes vérifiant la nouvelle information. En revanche, mettre à jour un ensemble de mondes possibles, représentant un état du monde, c'est faire kvoluer localement chaque monde possible vers les plus proches mondes vérifiant la nouvelle information. Partant de cette idée, Katsuno et Mendelzon apportent ainsi une sémantique de mondes possibles pour les opérations de changement, qui peut 6tre exploitée pour déhir ces opérations & l'aide de relation d'ordre sur des ensembies de modèles. Dans ce cas, un ensemble de croyances est représentk par l'ensemble de ses modèles. Un modèle peut être vu comme un monde possible pour BC et la révision est vue comme le passage d'un ensemble de modèles, ceux de BC, à un sous-ensemble de modéles de p.

Katsuno et Mendelzon [36] ont étudié en détail la formulation d'une opération de révision comme choix de modèles. Iis ont prouvé que toute fonction de révision qui obéit aux huit postulats AGM revient à postuler l'existence d'un pré-ordre total 5 8 ~ sur les interprétations de BC qui soit «fidèle à BC», c'est-à-dire tel que pour toutes interprétations I et Ir :

0 Si I + BC et I f + BC, alors 1 == Ir

Si I + BC et I'F BC, dors 1 <Bc Ir

Si BC et BC' sont logiquement équivalents, alors et sBc/ sont identiques.

Dans ce cas, l'ensemble des modèles de BCG, que l'on notera [BC& [<pl dénotant l'ensemble des modèles de 9, est alors défini par :

Page 58: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croFces

La relation traduit l'éloignement d'une interprétation par rapport à BC, I <BC I f voulant dire que I est plus proche de BC que 1'. La fidélité de la fonction qui à BC fait correspondre l'ordre <8c signifie qu'un modèle de est plus proche de tout autre modèle de BC que de toute interprétation qui ne satisfait pas SC. Réviser c'est donc sélectionner les modèles de rp qui sont les plus proches de BC. On notera que cela définit implicitement une fonction de sélection panni les révisions maxichoix Il reste à faire le lien entre la relation de préférence entre modèles ,<BC et la relation d'enracinement épistémique. Pour cela, si I est une interprétation de BC, notons F O R M ( I ) une formule complète dont le seul modèle est 1. dors on montre que SBC se définit à partir de ~ E E cornme s u i t :

et ~ E E à partir de <SC par :

On trouve danç la littérature des exemples de relations 5~ définis à partir de distances entre interprétations [16]. Par exemple, si dis(I, J ) est le nombre de propositions de signes diff6rents dans 1 et J, alors :

I It = min JE[BC~ dist(I, J) 5 minJEpCl dist(l t , J )

Katsuno et Mendelzon [34] ont déduit que la révision selon Da14 vérifie les postulats AGM. Considérons maintenant les problémes de mise à jour d'une base de croyances décrit par

BC lorsque l'événement p qui la déclenche exprime un changement de l'état du monde. Katsuno et Mendelzon [35] ont montré que la mise à jour s'exprime sous la forme d'une projection de chaque modele de BC sur ceux de y selon un principe de translation minimale au sens d'une distance entre modéles. Dans le cas de la mise A jour, une fonction fidèle associe & chaque interprétation 1 un prbordre Sr tel que I est strictement inférieur a toute autre interprétation. 51 exprime la distance entre un monde possible (modele) de BC et un modèle de 9. Soit [QI l'ensemble des modèles de Q et min@[y], I I ) les modéles de minimaux pour 51, c'est-&-dire les modéles de cp les plus proches d'une interprétation I. Dans ce cas, la mise &jour est alors déh ie par :

Katsuno et -Mendelzon démontrent qu'une opération de mise à jour vérifie Ies postulats (Al) à (A8)' si et seulement s'il exsite une fonction fidele 1 qui à toute interprétation I associe un ordre partiel 51 tel que V J # I (1 <r J) et tel que :

c'est-à-dire l'union de tous Ies ensembles de modèles de p qui sont les plus proches de diaque modèle de BC. La relation J 51 J' signifie que J est plus proche de I que JI, alors que I <r J signifie que I est le plus proche de lui meme.

Le mode de construction de la mise à jour diffère notablement de la révision de croyances basée sur les modèles. Dans ce dernier cas, on considère les modéles de <p les plus proches de [BC] globalement, tandis que la mise à jour effectue une projection modae par modèle. La mise à jour est monotone contrairement ?i la révision, c'est-à-dire que si BC1 > BC2, alors BCI; 3 B C P ~ . Rappelons qu'en ghéral l'effet d'une mise & jour d'une base de croyances

Page 59: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances 49

représentée par la formule BC par un événement 9 consistant avec BC ne fournit généralement pas la formule BC A cp contrairement a la révision.

Pour illustrer cette différence, considérons l'exemple de la salle qui contient initialement soit une chaise soit une table (BC = (c /\ l t ) V (TC h t)). Si une information survient qui alErme qu'en fait la salle ne contient pas de chaise, on ajoute à BC la formule TC et on fait une expansion pour conclure que la salle contient une table seulement (t A -c). En revanche, si on fait évoluer l'état de la s d e en retirant si possible une chaise, on doit opérer une mise à jour et conclure que la saiie est devenue vide ou qu'elle contient encore une table. Cette mise à jour peut être faite en considérant une relation 51 due à Winslett [77]. Soit L(I, J ) l'ensemble des propositions de signes diffhnts dans 1 et J e t poooe. J <r J' si et seulernezt si L(I , J) C L(I, J'). La base de croyances initiale relative à la s d e couvre deux situations : c A l t et TC A t. L'événement TC correspond à deux modèles : TC A l t et -c A t. Il est clair que :

POUT I = c A ~ t , L(c A -it, TC A 7 t ) c L(c A l t , -<c A t). Donc, TC A -t <[ TC A t

POU I = - i ~ A t , L ( - - i ~ ~ t , - i ~ ~ t ) ~ L ( - i c ~ t , - i ~ ~ - i t ) . Donc, Y C A ~ < J ~ C A +

Donc, c A -t se projette en TC A +, et TC A t se projette en lui-même. La base finale est donc BC$ = -c, c'est-à-dire qu'il n'y a plus de chaise mais peut être une table, alors que B C A C = ( ( c A + ) v (- CA^)) A(-C) TA^ # TC.

3.5 Discussion

Le changement dans les bases de croyances est une problématique passionnante car elle aborde des domaines de l'intelligence artificielle où il faut aller au-delà de la seule notion de raisonnement et corollairement, de la notion de déduction classique. En effet, il y a sou- vent plusieurs façons de modifier une base de croyances pour tenir compte d'une information nouvelle. Le changement est d i r e de décision, souvent sur des critères extra-logiques. Ceci explique l'intense activité actuelle pour dénnir des principes standards de changement. Les problémes de révision ou de mise à jour possédent ainsi des arriéres-plans epistérnologiques aussi bien que des aspects formels pour l'expression rigoureuse des opérations de changement, et des aspects pratiques pour la mise en oeuvre efficace de ces opérations. Beaucoup de travail reste ii faire pour définir des opérations de changement rationnelles, naturelles, et adaptées à une mise en oeuvre.

On remarque qu'au delà des formalismes, des attitudes se dégagent par rapport au change- ment : distinction entre révision de croyances et mise à jour reflétant l'évolution d'un système, inûuence du langage sur les changements possibles, sur le résultat du changement. Ce chapitre de synthèse a clairement montré qu'au-dela des formalismes on retrouve pour l'essentiel les mêmes principes derrière les particularismes des opérations de changement : préservation de la consistance, priorité de l'information nouvelle, changement minimal. Les divers formalismes se différencient avant tout par leur structure. Par contre, les différences sont particulière- ment sensibles selon les applications. Il ne fait pas de doute qu'une étude plus poussée sur le changement dans les bases de croyances doive porter aussi sur l'adéquation entre les di- verses approches possibles et les différents types d'applications. Maîtriser re changement des croyances semble important pour résoudre les problèmes de gestion de £Lux d'informations, d'incohérence et de traitement des exceptions dans les systèmes de bases de données, de surveillance de processus, de raisonnement multi-agents, et plus généralement, dans tous les systèmes aut onornes dits uint &gents»

Page 60: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Chapitre 4

Communication

Ce chapit~e analyse la théone des actes du langage et fait état des communications des difirentes pensées dans une structzlre logique propre en langage. La théone des actes du langage est tout d'abord détaillée et ses fondements expliqués. Les rapports entre la théorie des actes du langage et la pmgmataque sont ensuite introduits. Finalement, l'utilisation des actes du langage dans le cadm des systèmes multi- agents est vue en détails au travers d'un langage spécifique appelé KQML.

4.1 Théorie des actes du langage

Au cours de la dernière décennie, la théorie des actes du langage [72, 73, 741 a eu une ineuence plus ou moins importante dans le développement de disciplines théoriques de natures trés b é e s . De nombreux chercheurs ont utilise des analyses d'actes de discours pour les besoins de leur discipline, non seulement en philosophie, en logique et en linguistique, mais aussi en psychologie cognitive, en études littéraires, en droit, en informatique, en sciences de la dkision et du commerce, en &ducation et en ingénierie.

Les unités premières de signification dans l'usage et la compréhension des langues natu- relles, sont des actes du langage de type, appel& par Austin actes illocutoires. Quand les locuteurs utilisent des énoncés, il agissent par la parole : ils assertent, ils demandent, ils pro- mettent, ils remercient. Cela fait partie de ce qu'ils veulent dire et communiquer aux autres lors de leurs énonciations. Toute pende conceptuelle (croyance, d&V, intention) est en principe exprimable lors de l'accomplissement de tels actes du langage.

nais actions distinctes peuvent &re identifiées dans un acte du langage :

a une locution : qui refère à la proposition transmettre par l'acte.

une illocution : qui réfère au sens de l'acte.

des perloçutions : qui refkent d l'effet de l'acte sur l'interlocuteur.

4.1.1 Actes du langage

Un acte illocutoire possède deux éléments : d'une part, une notion bien connue en logique qui est la pmpositzon notée P, et d'autre part une notion nouvelle appelée force iUocutuire, notée F. L'acte illocutoire se note donc F(P). Chaque force illocutoire contient six compo- santes : un but illocutoire, un mode d'atteinte de ce but illocutoire, des conditions sur le

Page 61: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

contenu propositionnel, des conditions prepazat oires , des conditions de sincérité et un degré de puissance sur les conditions de sincérité. Deux forces Uocutoires Fi et Fz avec les mêmes composantes sont identiques. Dans ce cas, tous les actes illocutoires ayant la même proposition P, qui sont de la forme F1(P) et F2(P) expriment alors les mêmes buts linguistiques.

4.1.2 Le but illocutoire

Le but illocutoire est la composante principale de toute force illocutoire parce qu'il déter- mine la direction d'ajustement des énonciations ayant cette force. Un locuteur qui accomplit un acte iilocutoire peut avoir toutes sortes d'autres intentions et buts perlocutoires. En faisant une assertion, il peut, par exemple, vouloir amuser, convaincre ou embarrasser l'interlocuteur. Mais il a toujours au moins l'intention d'accomplir le but illocutoire sur le contenu proposi- tionnel, parce que ce but est essentiel au type d'acte du langage qu'il entend accomplir. Le but illocutoire est ce qui caractérise le plus une force Uocutoire. Pour Searle [721, contrairement à ce qu'on pourrait imaginer, il existe un nombre trés restreint d'utilisations du langage pour s'exprimer, c'est-à-dire pour relier les propositions énoncées au monde réel. Et chacune de ces utilisations basiques du langage définit un but illocutoire. Il y a cinq buts illocutoires d é w s par Searle comme suit :

1. Le but wsertif Des actes illocutoires tek que conjectures, assertions, rappels, accusations, témoignages, informations, prédictions, ont un but assertif. Lors de leur accomplisseme~t, les locuteurs expriment un contenu propositionnel, aiin de représenter comment les objets auxquels ils se referent sont dans le monde qui les entoure.

2. Le but engageant Des actes illocutoires tels que promesses, menaces, renonciations, acceptations, vœux, serments, ont un but engageant. Lors de Ieur accomplissement, les locuteurs expriment une proposition, afin de s'engager à accomplir plus tard l'action qu'ils représentent.

3. Le but directif Des actes illocutoires tels que demandes, questions, prières, invitations, ordres, conseils, recommandations, ont un but directif. Lors de leur accompiissement, les locuteurs ex- priment une proposition, afin de tenter de faire en sorte que l'interlocuteur accomplisse plus tard l'action qu'ils représentent.

4. Le but déclamtaf Des actes illocutoires tels que nominations, congédiements, ratifications, legs, ajourne- ments, bénCdictions, condamnations, ont un but déclaratif. Lors de leur accomplisse- ment, les locuteurs expriment une proposition, a.fin d'accomplir au moment de l'énon- ciation l'action qu'ils disent accomplir.

5. Le but expressàf Des actes illocutoires tels que des excuses, remerciements, vantardises, félicitations, ré- criminations, louanges, ont un but expressif. Lors de leur accomplissement, les locuteurs expriment une proposition, afin de manifester un état mental que leur inspire l'état des choses representé.

D'un point de vue linguistique, cette dassification des buts Uocutoires est empiriquement confirmke par le fait que seuls ces cinq buts illocutoires sont nécessaires pour analyser les verbes performatifk des langues naturelles. En outre, la complétude de cette classification est justifiée philosophiquement avec 17a,rgumentation que ces Unq buts ülocutoires couvrent toutes les différentes directions d'ajustement possibles entre le langage et le monde.

Page 62: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication

4.1.3 La direction d'ajustement

D'un point de vue logique, il y a en effet seulement quatre directions possibles d'ajustement pour une énonciation dans l'usage du langage.

1. La direction d'ajustement des mots aux choses En cas de satisfaction de L'acte illocutoire, le contenu propositionnel correspond à un état de choses existant indépendamment dans le monde. Les actes du langage ayant le but illocutoire assertif ont la direction d'ajustement des mots aux choses. Leur but est de représenter comment les choses sont dans le monde.

2. La direction d'1zj7~dcnaent des &ORO ILW mot3 En cas de satisfaction de l'acte illocutoire, le monde est transformé de façon à s'ajuster au contenu propositionnel. Les actes du langage ayant le but ilocutoire engageant ou directif ont la direction d'ajustement des choses aux mots. Leur but est de faire en sorte que le monde soit transformé par l'action future du locuteur (lors d'un engagement) ou de l'interlocuteur (lors d'une directive) de façon à ce qu'il corresponde au contenu propositionnel de l'énonciation.

3. La double direction d'ajustement En cas de satisfaction de l'acte iliocutoire, le monde est transforme par l'action présente du locuteur de façon à s'ajuster au contenu propositio~el par le fait que le locuteur représente le monde comme étant ainsi transform8. Les actes du langage ayant le but illocutoire déclaratif ont la double direction d'ajustement. Leur but est de faire en sorte que le monde correspond au contenu propositionnel en disant que le contenu proposi- tionnel correspond au monde.

4. La direction vide d'ajustement Les actes iilocutoires dont le but est expressif ont la direction vide d'ajustement. Leur but est simplement d'exprimer un état mental du locuteur à propos de l'état de choses représentk. Le locuteur ne veut pas dire que cet état de choses existe ni qu'il soit instauré. Dans ce cas, l'acte illocutoire est toujours satisfait puisqu'il n'est pas question de succés ou d'échec d'ajustement lors de leur accomplissement. Par exemple, ceux qui remercient expriment de la gratitude et ceux qui s'excusent expriment un regret à l'interlocuteur.

4.1.4 Les conditions sur le contenu propositionnel

Certaines forces illocutoires imposent des conditions sur l'ensemble des propositions qui peuvent être des contenus propositionnels d'actes du langage a m t ces forces. Le contenu propositionnel d'une promesse, par exemple, doit représenter une action future du locuteur. Le contenu propositionnel d'un rapport, d'autre part, doit représenter un état de choses passé ou présent relativement au moment de l'énonciation. Certaines conditions sur le contenu pro- positionne1 des forces iIlocutoires sont déterminées par le but illocutoire. Toutes les forces illocutoires directives ont, pm exemple, la condition que leur contenu propositionnel repré- sente une action future de l'interlocuteur. En effet, un locuteur ne peut faire une tentative linguistique pour que l'interlocuteur fasse quelque chose sans exprimer la proposition que cet interlocuteur accompka une action future particulière. D'autres conditions sur le contenu propositionnel sont, par contre, indépendantes des buts illocutoires. Ainsi, par exemple, la condition sur le contenu propositioiinel d'un rapport est «spéciale» puisqu'on peut aussi re- présenter comme actuels des états de choses futurs ou intemporels.

Page 63: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication

4.1.5 Les conditions préparatoires

Lorsqu'un locuteur entend accomplir un acte Uocutoire, il présuppose que certaines propo- sitions sont vraies dans le contexte de son énonciation. Un locuteur qui témoigne à un procès présuppose, par exemple, qu'il a été témoin de l'état de choses représenté par le contenu propositionnel. De telles conditions nécessaires pour l'accomplissement sans défaut d'actes du langage sont appelées des conditions pre'parato2res. Ces conditions servent à déterminer un type de conditions de succès spécial ayant trait aux présuppositions du locuteur dans le contexte d'une énonciation. Comme c'est le cas pour les conditions sur Ie contenu proposi- tionnel, certaines conditions préparatoires sont déterminbes par le but iuocutoire alors que d'autres en sont indépendantes. h i , par exemple, toutes les forces iUocutoires engageantes ont la condition préparatoire que le locuteur est capable d'accomplir l'action future représentée par le contenu propositionnel. Par contre, d'autres conditions préparatoires sont particulières à certaines forces iilocutoires engageantes. La force illocutoire de promesse a, par exemple, la condition préparatoire spéciale que l'action future représentée par le contenu propositionnel est bonne pour l'interlocuteur.

4.1.6 Les conditions de sincérité

En accomplissant un acte Uocutoire, le locuteur exprime kgalement des états mentaux de certains modes A propos de l'état de choses représenté par Ie contenu propositionnel. Ainsi, par exmple, un locuteur qui fait une demande exprime un désir que l'interlocuteur fasse ce qu'il demande. De tels états mentaux sont des attitudes pmposztionnelles de la forme m(P), où m est un mode psychologique comme, par exemple, espérer, désirer ou regretter, et P est un contenu propositionnel. Etant donné que tout locuteur peut mentir lors d'une énonciation en exprimant des états mentaux qu'il n'a pas, les actes illocutoires ont des conditions de sincédé, Un accomplissement d'acte du langage est sincère si le locuteur a réellement les états mentaux qu'il exprime en accomplissant cet acte, et il est non-szncère dans le cas contraire. D'un point de vue logique, les conditions de sincérité d'une force illocutoire déterminent Ies modes des états mentaux que le locuteur devrait avoir s'iI accomplissait sincèrement un acte illocutoire ayant cette force dans un contexte possible d'énonciation. Ainsi, par exemple, toutes les forces iilocutoires assertives ont la condition de sincérité que le locuteur croit le contenu propositionnel. Lors de I'accomphement d'un acte du langage de la forme F(P) le locuteur exprime tous les états mentaux de la forme m(P) d'un mode m appartenant aux conditions de sincérité de F.

4.1.7 Le degré de puissance

Les états mentaux qui constituent les conditions de sincérité des actes du langage peuvent étre exprimés avec diffiirents de&3 de puissance selon la force Uocutoire de l'énonciation. Ainsi, par exemple, le degré de puissance des conditions de sincérité d'une supplication est plus fort que celui d'une simple demande, parce qu'un locuteur qui supplie quelqu'un exprime un désir plus fort. Le degré de puissance est en général exprimé par l'intonation dans l'usage oral des langues naturelles. Ainsi, une augmentation dans la force de l'intonation exprime en général une augmentation du degré de puissance des conditions de sincérité. Dans le langage écrit, les adverbes sincèrem ment» et &anchement» sewent tout naturellement à renforcer le degré de puissance des conditions de sinceité dans les énoncés du genre «Franchement, il est mort>, et «Je vous conseille sincèrement de le fairea.

Page 64: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication

4.1.8 La récursivité de la force illocutoire

Il y a cinq et seulement cinq forces illocutoires primitives dans l'usage du langage. Celles-ci sont les forces illocutoires les pltu simples possibles : elles ont un but illocutoire, pas de mode particulier d'atteinte de ce but, un degré de puissance neutre et seulement les conditions sur le contenu propositionnel, les conditions préparatoires et les conditions de sincérité que d& tennine leur but. Toutes les autres forces iIlocutoires sont plus complexes. Elles sont dérivées à partir des force primitives par un nombre £hi d'applications d'opérations qui consistent à enrichir les composantes de ces forces ou à changer leur degré de puissance. Etant donné la nature des forces illocutoires, il y a seulement six types d'opérations logiques sur les forces illocutoires dans la structure du langage. Ces six opérations consistent a restreindre le mode d'accomplissement du but illocutoire en imposant un nouveau mode spécial, à augmenter ou à diminuer le degré de puissance et à ajouter de nouvelles conditions sur le contenu proposi- tionnel ou des conditions préparatoires ou de sincérité nouvelles. Les cinq forces illocutoires primitives dans l'usage du langage sont :

1. La force dlocutoire primitive d'assertion La force d'assertion a le but assertif, le mode d'accomplissement et la condition sur le contenu propositio~el neutres, la condition préparatoire que le locuteur à des preuves (des raisons ou des justifications) de croire en la vérité du contenu propositionnel, la condition de sincérité que le locuteur croit le contenu propositionnel et le degré de puissance neutre.

2. La force i l locu to i~ primitive d'engagement La force illocutoire primitive d'engagement a le but engageant, le mode d'accomplisse- ment et le degré de puissance neutres, la condition que le contenu propositio~el repré- sente une action future du locuteur, la condition préparatoire que le locuteur est capable d'accomplir cette action et la condition de sincérité qu'il a l'intention de l'accomplir.

3, La force 2lloczttoire primitive directive La force illocutoire primitive directive a le but directif, le mode d'accomplissement et le degré de puissance neutres, la condition que le contenu propositionnel représente une action future de l'interlocuteur, la condition préparatoire que l'interlocuteur est capable d'accomplir cette action, et la condition de sincérité que ie locuteur désire ou veut que I'interlocuteur accomplisse cette action.

4. La force illocutoire primitive de d4cZaration La force illocutoire primitive de déclaration a le but ïüocutoire déclaratif, le mode d'ac- complissement et le degré de puissance neutres, la condition que le contenu proposition- ne1 représente une action présente du locuteur, la condition préparatoire que le locuteur est capable et a des preuves (des raisons ou des justificiations) d'accomplir cette ac- tion lors de son énonciation et la condition de sincérité que le locuteur a Ia croyance, l'intention et le désir d'accomplir cette action.

5 . La f o ~ c e dlocutoire primitive eqressiue La force illocutoire primitive expressive a le but expressif, le mode d'accomplissement et le degré de puissance neutres, et la condition sur le contenu propositionnel, la condition préparatoire et la condition de sincMté neutres. Elle est réalisée syntaxiquement en français dans le type des énoncés exclamatifs. Le but expressif étant un but illocutoire doté de conditions de sincérité variables, il n'y a pas d'énoncé exclamatif dont le mar- queur exprime seulement la force illocutoire primitive expressive, de même qu'il n'existe pas de verbe performatif simple nommant cette force.

Page 65: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

4.1.9 Les conditions de succès

Comme pour toutes les actions humaines, les actes illocutoires ont des conditions de succès. Les tentatives d'accomplissement de tels actes du langage peuvent soit réussir soit échouer. Ainsi, par exemple, une énonciation par laquelle le locuteur tente de commander à l'inter- locuteur de faire quelque chose peut échouer dans un contexte où ce locuteur invoque une position d'autorité qu'il ne détient pas et où l'interlocuteur reconndt l'imposture. Autrement dit, les conditions de succès d'un acte illocutoire sont celles qui doivent être réunies dans un contexte d'énonciation donné a.ûn de permettre au locuteur de réussir à accomplir cet acte dans ce contexte. Plus formellement, un acte illocutoire de la forme F(P) est accompli avec succh dans un contexte d'énonciation si et seulement si :

1. Le locuteur réalise le but iliocutoire de la force F sut la proposition Pl avec le mode d'atteinte de F, et P remplit les conditions sur le contenu propositionnel de F ;

2. Le locuteur présuppose la vérification des conditions préparatoires de F ; 3. Le locuteur exprime avec le degré de puissance de F, les états d'âme des modes psycho-

logiques determinés par les conditions de sincérité de F, a propos de l'état des choses indiqué dans le contenu propositionnel P.

Quoi qu'il en soit, on remarque que la vérité du contenu propositionnel d'un acte n'est pas du tout reliée à la notion du succés. En fait, elle est prise en compte par la notion de satisfaction qui sera présentée maintenant.

4.1.10 Les conditions de satisfaction

Les actes Uocutoires sont dirigés vers des états de choses du monde, et même s'ils sont accomplis avec succès, ces actes peuvent encore être dépourvus de satisfaction quand le monde ne correspond pas à lem contenu propositionnel. Un interlocuteur peut, par exemple, désobéir à un commandement réussi. Les conditions de satisfaction d'un acte illocutoire sont celles qui doivent @tre réunies dans un possible contexte d'énonciation afin que l'acte soit satisfait dans ce contexte. Concrètement, de même qu'on dit qu'une assertion est satisfaite si et seulement si elle est vraie, on dira qu'un ordre est satisfait si et seulement s'il est obéi, qu'une promesse est satisfaite si et seulement si elle est tenue et ainsi de suite pour toutes les forces illocutoires. En fait, Ia notion de satisfaction est tout simplement une généralisation de la notion de vérité. En effet, la satisfaction d'un acte illocutoire élémentaire dépend de l'état de vérité de son contenu propositionnel et de sa direction d'ajustement.

4.1.11 La logique Uocutoire

La tâche principale de la logique illocutoire [74] est d'analyser les conditions de succès et de satisfaaion des diff4rents types d'actes du langage par l~accomplissement desquels les locuteurs lient en pensée des propositions au monde. Cette logique doit prendre en compte quatre relations logiques d'implication entre actes du langage qui sont linguistiquement significatives. Ces quatre relations sont :

1. Si Succès Acte i alors Succès Acte 2 et Succès Acte 3, . . . Certains actes ülocutoires engagent fortement le locuteur à d'autres au sens défini plus haut. On ne peut, par exemple, demander à quelqu'un d'apporter une feuille et un stylo sans lui demander du même coup d'apporter le stylo. C'est pourquoi l'énoncé impératif *S'il te plait, apporte une feuille et un stylo !B implique illocutoirement l'énoncé plus simple *Apporte un stylo !B.

Page 66: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication 56

Si Satisfnction Acte 1 alors Sattsfaction Acte 2 et Satisfaction Acte 3, . . . De nombreux actes illocutoires ont des conditions de satisfaction plus fortes que d'autres, de telle sorte qu'ils ne peuvent être satisfaits dans un contexte possible d'enonciation sans que les autres le soient également. Ainsi, par exemple, une promesse ne peut être tenue sans que I'assertion de son contenu propositionnel soit vraie. C'est pourquoi l'énoncé performatif K J ~ promets d'être courageux» implique illocutoirement l'énoncé déclaratif «Je serai courageux».

Si Succès Acte I alors Satisfaction Acte 2 et Satisfaction Acte 3, . . . Certains actes illocutoires ont des conditions de succès plus fortes que les conditions de sztkfaction d'mtres actes du !angage, de telle sorte quVs ne peu-cent 8tre accsmplij dans un contexte sans que les autres soient satisfaits dans ce même contexte. .Ainsi, par exemple, si une déclaration est réussie, alors l'assertion de son contenu proposi- t i o ~ e l est vraie. C'est pourquoi l'énoncé «Par la présente, je vous congédie !N implique illocutoirement la vérité de l'énoncé declaratif correspondant «Vous êtes congédié)).

Si Satisfaction Acte 1 alors Succès Acte 2 et Succès Acte 3, . . . Certains actes illcutoires ont des conditions de satisfaction plus fortes que les conditions de succès d'autres actes iilocutoires, de telle sorte qu'ils ne peuvent être satisfaits dans un contexte possible sans que les autres soient accomplis dans ce même contexte. Ainsi, par exemple, une demande ne peut être accordée si eile n'a pas été faite. C'est pourquoi l'énoncé impératif &il te plaît, Paul, viens !» implique iliocutoirement le succès de son énonciation.

D'apres ce qui précède, on peut récapitulm dans la table 4.1 les fondements de la théorie des actes du langage 172, 73,741 qui ont, comme on le verra plus tard, un grand intérgt pour les systemes multi-agents. Dans cette table, S représente le locuteur, H représente I'interlocuteur et P représente le contenu propositionnel. Dans la section suivante, la notion de la pragmatique du langage est présentée. Le but de cette présentation est de montrer que les informations communiquées par les actes du langage dans une conversation sont dans la plupart des cas complétées par des conventions implicites de l'arrière-fond conversationnel. Cette observation va nous permettre par la suite de choisir les logiques non-monotones comme outils pour la formalisation de la révision des croyances sous l'influence de la communication dans un contexte multi-agents où plusieurs agents peuvent intenrenir.

Engageant /I

--

TAB. 4.1: Les fondements de la théorie des actes du langage.

But illocutoire H croit P

S effectue P

E effectue P S effectue P et H croit P

Conditioru de szncérité S croit P

Conditions préparatoires S a des preuves (des raisons ou des justifications) pour croire P

, S a l'intention de faire P

S désire que H effectue P S croit P et S desire eEec- tuer P

S peut accomplir P et H dé- sire que S effectue P H peut accomplir P S a des preuves (des raisons ou des justifications) pour croire P

Page 67: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication

4.2 La pragmatique du langage

En général, dans les langages littéraires, un locuteur qui utiliçe un énoncé dans un contexte d'énonciation explicite seulement ce que cet énoncé si&e dans le contexte de cette énon- ciation. Cependant, dans les conversations ordinaires, la s i d c a t i o n du locuteur est souvent différente de la signification de l'énoncé utilisé. Dans certains contextes, le locuteur entend principalement accomplit un acte illocutoire non littéral, par exemple des actes du langage indirects. Dans d'autres contextes, le locuteur entend aussi accomplir un acte illocutoire se- condaire non littéral en plus de l'acte illocutoire littéral principal, par exemple, d'implications conversationnelles. La tache propre de la pragmatique est de d4crire et d'expliquer la capacité qu'ont les locuteurs d'accomplir et de comprendre les actes i.Uocutoires non littéraux et les implications conversationnelles. Selon Gnce (301, une implicature est conversationnelle s'il est possible de reconstruire une chaine de raisonnement révisable (non-montone) de l'énoncé à llimplicature. En d'autres termes, cette capacité fait partie de la compétence langagière. Sans elle, les sujets parlants ne pourraient pas pleinement utiliser le langage et communiquer. Ainsi, par exemple, un locuteur compétent qui reçoit pour réponse à sa question «Est-ce-que Paul est marié ?», l'énonciation ctPaui est prêtre)), signifie que l'interlocuteur entend impliquer conver- sationnellement que Paul n'est pas marié B la condition que l'arriére-fond conversationnel du locuteur et l'interlocuteur indique qu'ils savent mutuellement que les prêtres ne se marient pas. La capacité qu'a l'interlocuteur de comprendre l'assertion non littérale secondaire dans ce cas dépasse de toute tvidence sa capacité de comprendre la s i d c a t i o n de l'énoncé utilisé dans le contexte de l'énonciation.

Comme Grice (301 et Searle 1731 l'ont montré, un locuteur qui entend accomplir non lit- téralement des actes du langage a l'intention de se faire comprendre par l'interlocuteur en se fiant à :

la connaissance qu'a l'interlocuteur de la signification de l'énoncé utilisé, et en parti- culier, sa capacité à comprendre les conditions de succès et de satisfaction de l'acte du langage ;

les connaissances mutuelles des intervenants à propos de certaines conventions de bon sens de l'arriére-fond conversationnel (Grounding) [91 sur lesquels le locuteur entend attirer l'attention de l'interlocuteur ;

Ia capacité qu'a l'interlocuteur de faire des inferences sur la base de l'hypoth6se que le locuteur respecte certaines régles de conversation dans le contexte de l'énonciation.

Donc, l'honciation s'adresse a quelqu'un, et ne prend son sens que si l'interlocuteur est en mesure de le reconnaître. C'est en ce sens que s'orientent les analyses de Grice. En effet, la signification d'un énoncé peut se d6finir, selon lui, comme l'intention du locuteur que son énonciation produise un certain effet sur son auditoire au moyen de la reconnaissance de cette intention. Mais p o u que l'interlocuteur reconnaisse cette intention, il faut que le locuteur et l'interlocuteur s'accordent à respecter certaines règles communes. En effet, les échanges de parole sont le résultat d'efforts de coopération, et chaque participant reconnaît dans ces échanges un but commun ou un ensemble de buts. Donc, toute énonciation doit respecter ce principe général, que Gnce appelle principe de coopémtion, et qu'il f o d e comme suit : «Que votre contribution conversationnelle corresponde à ce qui est exigé de vous, au stade atteint par celle-ci, par le but ou Ia direction acceptés de l'échange parlé dans lequel vous êtes engagésn. Ce principe général peut se spéciiier en règles plus précises, que Grice classe en s'inspirant de Kant, sdon les maxâmes conversationnelles de la quantité, de la qualité, de la relation et de la modalité :

Page 68: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

O Quantité : «Que votre contribution contienne autant d'information qu'il est requis» et <Que votre contribution ne contienne pas plus d'information qu'il n'est requis».

Qualité : uQue votre contribution soit véridique>^, c'est-à-dire c < N ' h e z pas ce que vous croyez être faux», ni «ce pour quoi vous manquez de preuves».

Relation : «Que votre contribution soit pertinente)).

Modalité : &oyez clair», c'est-à-dire tcEvitez l'obscurité, l'ambiguïté, la prolixité, le désordre, etc.».

Les muximes conversationnelles sont des directives du genre : «Dites le vrai!», &oyez sincère !b et &Veillez à ce que votre enondation soit lm acte iUoct?toire rémsi et sacs défaut !:). Comme Grice et Searle l'ont montré, non seulement les locuteurs et les interlocuteurs res- pectent de telles maximes conversatio~elIes dans leur usage et leur compréhension des langues naturelles, mais il est encore raisonnable pour eux de respecter ces maximes, s'ils veulent par- venir à leurs fins au cours des conversations du type ucoopératiow). Dans les contextes où ie locuteur entend avant tout accomplir un acte du langage B é r e n t de l'acte littéral, le locuteur exploite de telles maximes. Il sait qu'il existe dans l'arrière-fond conversationnel de son enon- ciation des faits (conventions) mutuellement connus par lui et l'interlocuteur qui l'obligent à avoir l'intention d'accompplir non littéralement un autre acte illocutoire principal, dans l'hypothése oii il respecte ces maximes.

Il est egalernent intéressant de rapprocher l'idée de raisonnement non-monotone d'une certaine conception de la pragmatique. En effet, l'honciation d'une phrase signifie presque toujours autre chose que les informations qui s'y trouvent explicitement. Un exemple clas- sique de cet état de choses est celui de la lettre de recommandation. Lorsqu'elle ne tarit pas d'éloges sur certaines qualités du candidat qui sont sans rapport avec l'emploi postuk, une telle lettre peut bien être sémantiquement positive. Car elle ne renferme rien de désobligeant, mais pragmatiquement, eue est conçue pour nuire au candidat. Le maxime de quantité de Grice permet en effet d'affirmer que si l'auteur de la lettre avait des éléments favorables, c'est-à-dire des croyances vraies, B dire sur le fond, il les aurait exprimées et donc de conclure B l'absence de tels éléments. On reconnaît ici un ra iso~ement qui reléve de l'hypothèse de monde clos ou de la circonscription. Donc, les logiques non-monotones peuvent &re utilisées en tant qu'outils formels pour aborder le problème de la revision des croyances sous l'influence de la communication.

Aprés avoir prksenté une étude théorique de la communication, la section suimate sera consacrée A la présentation d'une utilisation concréte de la théorie des actes du langage dans le cadre des systémes multi-agents. Cette utilisation est vue en détails au tnrws d'un langage spécifique appelé KQML.

4.3 Le langage KQML

Dans les environ11ements multi-agents, Ies agents doivent échanger leurs connaissances pour résoudre des problèmes. Ils ont alors besoin que leurs programmes sachent mieux com- muniquer entre eux avec un langage qui permette plus de souplesse que les messages stéréo- typés qui existent aujourd'hui. Comme l'exemple des humains nous est le plus proche, on va s'inspirer de notre propre langage pour essayer de le transposer sur des agents logiciels. Pour ce faire, la théorie des actes du langage est considérée comme une théorie de base pour réaliser cette communication. L'idée de cette théorie est que le langage n'est pas utilisé seule ment pour construire des phrases, mais aussi pour exécuter des actions [5]. Certains actes du

Page 69: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication 59

langage sont appelés des performatifs. Selon Austin, ces performatifs ont une propriété très importante qui y est décrite littéralement par la phrase «on le dit, on le faib.

Plusieurs approches ont été développées pour formaliser la communication. Les derniers travaux font référence à la Linguistique computatiomelle où le principe utilisé consiste à déter- miner les conditions de succès de l'acte du langage. Récemment, les chercheurs ont développé deux langages de communication entre agents : KQML et FIPA ACL. Le premier a été crée de manière empirique par le DARPA autour des actes du langage naturel. Il est assez répandu mais dénué malheureusement d'une sémantique rigoureuse. Labrou et Finin [42, 411 ont dé- veloppé une sémantique formelle de la communication et de la conversation. Le principe de base de cette ~ D D ~ o c ~ € ! consiste à formaliser les préconditions et les postconditiom de chaque acte du langage en fonction des connaissances, des croyances, des désirs et des intentions des agents. FIPA ACL, quant à lui, a été cré8 de manière systématique.

KQML (Knowledge Query and Manipulation Language) [23, 24,25,42, 411 est un langage de haut niveau utilisé comme un outil de communication des connaissances qu'il convient de partager entre des agents intelligents daas des applications distribuées. Ce langage permet en plus à un programme d'application d'interagir facilement avec un système intelligent (KQML est interlingua). KQlML peut etre vu comme un langage de communication pour l'échange d'informations et de connaissances entre des agents logiciels, grâce a un ensemble de modèles de messages. Dans la terminologie KQML, ask-if est une performative. Le terme a été utilisé pour la première fois par Austin [5] pour montrer que certains verbes peuvent être utilisés de façon telle qu'ils accomplissent une certaine action. Les performatives suggèrent explicitement la force illocutoire. KQML a été conçu à la fois comme un format de message et comme un protocole de gestion de messages pour prendre en compte le partage de connaissances en temps réel entre agents. Il se caractérise ainsi :

0 Les messages KQML sont opaques à leur contenu, c'est-à-dire qu'il n'existe pas de lien entre le contenant exprimé en KQML, et le contenu exprimé dans un autre langage. Les messages KQML ne communiquent pas des phrases dans un certain langage, mais plut8t une attitude (assertion, requdte, question, . . . ) sur le contenu (proposition).

Les primitives du langage sont appelées perfonnatiues. Les performatives définissent les actions possibles que les agents peuvent tenter d'accomph en communiquant.

O Un environnement d'agents communiquant en KQML peut étre enrichi avec des agents spéciaux, appelés «assistants>~, qui offkent des fonctions comme, par exemple : l'as- sociation d'adresses physiques aux noms symboliques. Les assistants agissent comme d'efficaces sécretaires pour les agents daas le domaine réseau.

Une interaction intelligente d'un langage de communication entre agents demande plus qu'un échange de messages. KQML est un essai pour dissocier les nombreux problémes de cette interaction intelligente. L'idée d'un tel langage est de definir un ensemble de modèies standards de messages. Ces messages doivent être interprétés de manière unique par les parties en présence, lorsqu'il devient nécessaire d'avoir un échange d'informations plus riche que de simples constats prédhfinis sur les choses.

4.3.1 Spécification syntaxique

Un message KQML consiste en trois parties principales : la perfomative, le contenu du message et un ensemble d'arguments optionnels. Sdon cette analyse, un message KQML a la syntaxe suivante :

Page 70: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

:repl y-with

Les paramètres des performatives sont indexés par des mots clés pour avoir une flexibilité vis-à-vis de l'ordre. Ces mots clés, appelés noms de pammètres, doivent débuter par le signe «deux points» ( :) et ils doivent précéder la valeur du paramètre. Les paramètres ont été iden- tifiés par des mots clés plutôt que par leur position, à cause du grand nombre de paramètres optionnels. Il y a neuf paramètres dits réservés car il faut les utiliser selon les significations données par la table 4.2 suivante :

TAB. 4.2: Les mots clés de KQML.

-r

Mot clés :sender :receiver :from

4.3.2 Les performatives

Signijàcat ion 1 indique I' émetteur réel d'une performat ive i indique le destinataire réel d'une performative ! indique l'émetteur qui sert d'intermédiaire dans l'acheminement d'un message au destinataire réel d'une performative

Dans KQML, les performatives se classent en trois catégories : les performatives de dis- cours, les performatives de régulation de conversation et celles d'assistance et réseau. Les performatives de discours rdiitent une catégorie qui s'apparente le plus aux actes du langage. Elles s'utilisent dans un contexte de discours entre deux agents s'échangeant des informations et des connaissances. Le rôle des performatives de régulation de conversation est d'intervenir dans un cours normal d'une conversation. Par conséquent, ces performatives soit terminent prematurement une conversation (par error ou sony), soit outrepassent ce protocole par dé- faut (par standby, next. rest ou discard). Les perfomatives d'assistance et réseau ne sont pas

:to

:in-reply-to

:reply-with

danguage :ontology :content

indique le destinataire qui sert d'intermédiaire dans l'acheminement d'un mes- sage au destinataire réel d'une performative indique que ce message est la réponse à un certain message précédent qui utilise cette référence dans le paramètre :in-reply-with

1 indique que la réponse éventuelle A ce message doit se faire en utilisant cette 1 référence dans le param6tre :in-repiy-to 1 indique le langage de représentation utilisé dans le :content

I

I~ 1 indique l'ontologie (ensemble de d6fktions de termes) utilisée dans le :content

renferme l'information sur laquelle la perfomative exprime une attitude. La valeur de :content est une expression dans un certain langage informatique in- terprkté, ou une expression d'un autre message KQML. Les constantes utilisées dans :content doivent avoir été definies dans la valeur du paramètre :ontology

Page 71: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication

des actes du langage dans le vrai sens du terme. Elles sont avant tout des performatives qui permettent à des agents de trouver d'autres agents qui puissent traiter leurs demandes, en passant par des agents intermédiaires (assistants). En général, une performative est utilisée p o u accéder ou changer le contenu de la buse de connaissances virtuelle (BCV) de l'agent. La table 4.3 présente l'ensemble des performatives KQML avec leurs sigdcations, où : E représente l'émetteur et R représente le récepteur.

1

BCV du E ne contient pas :content BCV du E contient la nénation de :content

i

J I l

Petformative ask-if ask-al1 ask-one

c -

eos 1 tell 1

/I achieve II E demande à R de réaliser :content dans son environnement il

--

Significdaon 1 E veut savoir si la BCV du R contient :content

1 E demande toutes les instances de :content qui sont dans la BCV du R 1 E demande une instance de :content qui est dans la BCV du R

mettre fin à une réponse multiple (Ex. stream-all, subscribe) BCV du E contient :content

insert 1 E demande B R d'insérer :content dans sa BCV 1

11 unachieve Il

1) E demande à R d'annuler l'effet de la dernière achieve 1

strea m-al1 il même sémantiaue que ask-all, mais les instances sont données séauentiellernent

uninsert deiete-one delete-al1

E demande à R d'annuler l'effet de la derniére insert E demande à R de supprimer une instance de :content de sa BCV

1 E demande ài R de supprimer toutes les instances de :content de sa BCV

E veut que R sache que E peut traiter des messages du même type que :content E demande à R d'annuler l'effet de la dernière advertise

undelete 1 E demande à R d'annuler l'effet de la dernière delete (Ex. delete-one, deleteall)

L

E demande a R de lui envoyer les mises à jour de la réponse au message :content E considère le dernier message de R comme erroné E a compris le message de R, mais il ne peut pas donner plus d'information E veut que R annonce sa disponibilité dés qu'il est prêt à traiter le :content

advertise unadvertise

read y 11 E est pr& pour rkpondre au message reçu précédemment de R

1 subscribe w

error sorry stand by

- ii forward

Il - I I E demande à R de forwarder ce message à l'agent :to (R peut etle cet agent) !

n ext rest discard register un register

E veut que R lui envoie la réponse suivante du message émis précédemment E veut que R lui envoie les réponses restantes du message émis précédemment

( E veut que R m & t e de lui envoyer les réponses restantes 1 E annonce 8 R sa présence et son nom symbolique 1 E demande à R d'annuler l'effet de la dernière register

broadcast trans~ort-address

TAB. 4.3: Les performatives de KQML.

broker-one broker-al1 recommend-one

1 E demande à R d'envoyer ce message à tous les agents connus par R 1 E fait une association de son nom svmboliaue avec une nouvelle adresse réseau

E demande à R de lui trouver une réponse à la performative :content E demande à R de lui trouver toutes les réponses à la performative :content E demande à R de lui trouver un agent qui peut répondre au :content

'

recommend-al1 / recruit-one ) recruit-al1 1

E demande B R de lui trouver tous les agents qui peuvent répondre au :content E demande à R de trouver un agent pour répondre au :content E demande à R de trouver tous les agents pour répondre au :content

Page 72: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication

KQML est donc un ensemble de primitives de communication. Il est complété par un mo- dèle simple de communication inter-agents et par une conception abstraite des agents. Comme il est seulement une abstraction, il est important de lui donner une description sémantique.

4.3.3 Spécifxation sémantique

Labrou [42, 411 a donné une spécification sémantique à KQML dans laquelle il considère que les agents sont décrits par leurs états mentaux, c'est-à-dire par leurs connaiçsances, leurs croyances, leurs désirs et leurs intentions. Cette description intentionnelle fournit un modèle abstrait qui aide beaucoup à mieux concevoir et percevoir les agents logiciels, même si leur implémentation ne tient pas compte de tous ces concepts ambigus. Pour ce faire, la théorie des actes du langage fournit un modèle valable et l'approche de Searle et Vandemeken [74] donne en particulier un cadre de travail trés intéressant, bien qu'il ne reprenne pas toute Ia description intentionnelle. Il faut dire que la sémantique de KQML telle que présentée prend en compte les aspects théoriques de Searle et Vandemeken de Ia manière suivante :

Le but illocutoire des performatives est d é h i par les concepteurs avec des axiomes ; Les conditions de sincérité et leur degré de puissance ne sont pas pris en compte car on suppose que les agents sont les plus sincéres possible.

i Les conditions sur le contenu propositionnel garantit que les agents ne feront pas des actions au nom des autres agents. Le mode d'atteinte du but illocutoire consiste à établir certains liens entre les locuteurs et les interlocuteurs, qui vont donner UR sens aux actes illocutoires. 11 est établi par la hiérarchie organisationnelle ou par le protocole d'interaction que les agents utilisent ; Les conditions préparatoires pour qu'un agent utilise une perfomative sont présentées sous la forme de préconditiom associées a l'état cognitif de l'agent.

En plus, l'état de l'&metteur aprés émission d'un message et l'état du récepteur après traitement du message seront suggérés. Ces états sont présentés comme des postconditions. Le but est de savoir si le point Uocutoire d'une perfomative est satisfait, en suggérant les &ets désirés, et de montrer les réponses acceptables de par leurs préconditions. Certains actes illocutoires sont satisfaits rien que par leur énonciation comme, par exemple, l'acte de dire tell tandis que d'autres comme la demande ask-if et d'autres performatives analogues exigent un &change en utilisant plusieurs messages. Par conséquent, une condition d'exécution est nécessaire. ElIe indiquera l'état des choses par rapport à la réalisation de l'acte. Labrou utilise aussi le terme satisfaction comme synonyme de réul.isatzon mais on ne fera pas de même ici pour éviter la confusion avec la notion de satisfaction qui existe dans la théorie de Searle. Les deux notions sont proches mais ne sont pas tout-&-fait identiques. Pour conclure, il faut dire que les ktats mentaux des agents ont été ut&& pour décrire la perfomative, ses préconditions, ses postconditions et ses effets en utilisant les notations suivantes : Qp signifie que i connait le contenu propositionnel p ; Bip si@e que i cmit le contenu propositionnel p ; Div signifie que i a le dészr que le contenu propositionnel p soit satisfait ; &p si&e que i a l'intention d'effectuer le contenu propositionnel ip et Processirp signifie que i tmite le contenu propositionnel cp. Les tables 4.4 et 4.5 praentent la sémantique de quelques performatives de KQML en formulant les éléments suivants :

Une expression logique qui décrit l'acte illocutoire ; Les préconditions sur l'état de l'agent émetteur pour qu'il puisse émettre la performa- tive et sur l'état de l'agent récepteur pour qu'il puisse la traiter correctement. Si les préconditions ne sont pas remplies, la réponse la plus probable est error ou sorry ;

Page 73: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication

Les postconditions sur l'état de I'agent émetteur après émission et su l'état de l'agent récepteur après réception. Si les postconditions ne sont pas remplies, la réponse la plus probable est error ou sorry ;

Un &et qui indique l'état fmal après une conversation éventuelle.

Précondition & Postcondition & Effet Pré(e) = D&rp A Ke&Process,hl où : M = ask-if(e, r, 9) PrB(r) = IrProcessT M

-

ask-aIl(e, r, p) EZ DeK,rp

-

TAB. 4.4: Specification sémantique de KQML.

II Pos(e) = I&y Pos(r) = &DeKev Effet = K,pi

Perfomatiue ask-if (et T, p) -= DeKey

OU : Pi est un des y, p = B,Q v B, lp v TB+ Pré(e) = D,Kerp A K,&Process,M où : hl = ask-all(e, T , p)

l

tell(e, r, p) = Bcv

untell@, r, p) = ~ B , Q

deny(e, r, y) n B,7y

Pre(r) = &Process,M Pos(e) = 1.K.q Pos(r) = LD,K,p Effet = Kepi OU : Pi est un des y, p = B,q V B,ip V -B,p

Pré(e) = B,p A K,D,&B,y Pré@) = &K,B,p Pos(e) = K,K,B.p Pos(r) = K,B,ip Effet = K,B,rp Pr&(e) = -B,p h K,D,K,-B,(o PrB(r) = I&-B.p Pos(e) = K,K,-Bey Pos(r) = Kr-B.p Effet = &-iB,p Pr&(e) = Be-Q A K,D,KTBe-(o Pr&(r) = I,K,B,-Q Pos(e) = K,K,B,-p Pos(r) = K,B,-v Effet = KT&-p

insert(e, r, 9) r D,B,p

l uninsert (e, r, p) n De-B, y

Pré(e) = K&ProcesaM où : M = insert(e, r, 9) Prb(r) = SProcesaM h -B,p Pos(e) = KeBtip Pos(r) = B,p Effet = B,Q Pré(e) = KeProcess M où : M = insert(e, r, p) Pre(r) = ProcessTM A B,cp Pos(e) = K,-B,p Pos(r) = -B,p Effet = 7Bru

Page 74: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication 64

Effet = 43,cp Pré(e) = K,Process,M ob : M = delete(e, r, p) Pré@) = Process,M /\ lB,p Pos(e) = K,B,v Pos(r) = B,p

ferfornative deleteone(e, r, p) = D.lB,p

delete-all(e, r, p) = De-B,p

undelete(e, r, 9) r D.B,<p

achieve(e, r, p) r DeB+

unachieve(e, T, p) = De-B,p

advertise(e, i, p) - - - D,KJ,Process,M

Effet = B,rp PrB(e) = K&Process,M où : M = achieve(e, r, 9)

1 Précondition & Postconditzon & Effet Pré(e) = K&Process,M où : 1M = delete(e, r, p) PrB(r) = IrProcessTM A B,v Pos(e) = KpB,rp Pos(r) = -B,p EEet = -B,p Pré(e) = K,I,Process,M où : M = delete(e, T , p) Pré@) = I,ProcessTM A B,p Pos(e) = K.-B,p Pos(r) = -B,q

Effet = B,p Pr&(e) = KeProcessTM où : M = achieve(e,r, 9)

error(e, r, Id) = -Process,M

sorry(e, r, Id) G Process.M

Effet = -B,p Pré(e) = &Process,M où : M = nom-performative(e, r, p)

Pré(r) = RIEN Pos(e) = KeKrIeProcess,M Pos(r) = KJ,ProcesseM Effet = KJ,Process, M Pré(e) = receive(e, M) A -Process,M Pré@) = sendMSG(r, e, M ) Pos (e) = KeKpProcesseM -.(PostM (e)) Pos(r) = &-Process.M h l(PostM(r)) Effet = I(,+rocess.M A - (Cmple t iaM (e) ) où : M c'est le message identifié par la valeur Id de :reply-with où : PostM(a) c'est Pos(a) pour le message M Pré(e) = Pr0cess.M Pré(r) = sendMSG(r, e, M) Pos(e) = K,K,ProcesseM A -(PostM (e ) ) Pos(r) = E(,Process.M A -i(PostM (r)) Effet = KFProcesse M -(CompIetionM (e) ) où : M c'est le message identifié par la valeur Id de :reply-with OU : PostM(a) c'est Pos(a) pour le message M

TAB. 4.5: Spécification sémantique de KQML (suite).

Page 75: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

4.3.4 Les règles de conversation

Le mot conversation désigne une séquence de messages KQML qui appartiennent à une même session de co~nmunication entre deux agents 13u plus. Les ~ g l e s de conuersation décrivent les conversations permises. Les règles presentées ici ne sont pas exhaustives car des interactions plus complexes entre agents sont possibles. Les conversations décrites ici sont à considérer comme des briques de base pouvant servir pour des conversations plus complexes et qui sont cohérentes avec la sémantique des performatives KQMZI. Ces règles incluent aussi les contraintes et les dépendances sur les valeurs des paramètres réservés des performatives qui interviennent dans une conversation.

Làorou [411 a présenté ces règles sous forme de gmmmaare de clauses (DCG : Dehite Clause Grammar), qui est une extension des grammaires context-Eree dans laquelle on peut spécifier des conditions supplémentaires, écrites entre { ), portant sur des symboles terminaux (chaînes de caractères entre [ 1) ou non terminaux. Les symboles non terminaux peuvent Otre des expressions composées au lieu d'être juste des expressions atomiques. Par exemple, Ph(N) t [W], {RootFmm(W, N), Nom(N)] peut signifier qu'une phrase comme P h ( N ) est simplement le mot W, avec N étant le radicai de W et N étant un nom.

Le formalisme DCG offre l'avantage d'une implémentation directe en Prolog. En fait, le DCG présenté ici est un programme ProIog. Il permet aussi de gérer facilement les infor- mations de contexte à travers les arguments des symboles non terminaux. Chaque message KQML est un symbole terminal dans cette grammaire. Un terminal est une liste des valeurs des paramètres suivants : performativename, sender, :receiver, :in-reply-to, :reply-with, :lan- gage, :ontology, IO ( = 1 si message entrant, = O si message sortant), :content ( si :content est une performative lui-même, alors ce sera une Liste aussi).

Comme les terminaux sont entourés de [ 1, un terminal ressemblera à : [ask- if,A,B,idl,id2,prolog,bar,foo(X,Y)]. Ici, on ne précise pas :langage et :ontology, car on les considQe invariants lors d'une conversation. Les régles présentées ici ne découlent pas di- rectement de la description sémantique, mais Labrou pense qu'elles définissent l'ensemble minimal de conversations qui sont cohérentes avec cette sémantique. Ces règles doivent suivre les contraintes de la description sémantique, c'est-à-dire :

0 Si une performative possede des préconditions pour l'émetteur, alors il ne peut débuter une conversation tant que ces préconditions n'ont pas dté établies ;

S'il existe des conditions de réalisation pour une performative, alors celle-ci ne peut se terminer tant qu'une action ultérieure n'a pas eu lieu pour établir ces conditions ;

Une performative peut être précédée par une autre performative qui peut établir, en partie, ses préconditions. Par exemple, tell peut être précédé d'un ask-if.

La thése de Labrou [41] présente quelques mini-conversations possibles avec les perfixma- tives KQML. Une mini-conversation fait intervenir un ensemble cohérent de performatives, qui sont ahsi reliées, groupées en quelque sorte. Par exemple, les insert et uninsert vont ensemble ainsi que le groupe deleteone, delete-ail et undelete. Cependant, il existe des performatives d'usage genéral qui peuvent intervenir dans toute conversation comme les advertise et for- ward. Les figures 4.1,4.2,4.3 montrent une description simpMée des mini-conversations, où il faut noter qu'à tout moment peut sumenir un problème ou une réponse non positive. Par exemple, l'agent a compris la performative mais n'a pas de meilleure réponse à donner que la performative sorry, ce qui sera noté par Pb().

Page 76: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

communication

perf. de question = ask-if, ask-ail, ask-one, stream-dl,

ask-if, ask-one ask-al1

tell

untell

deny

/y t e 7 teil - etc. - eos

perf. d'advertise = perf. de question,subscribe, insert, delete-one, delete-dl, achieve

/' pas de suite

deiete-one delek-dl '" de '"'"

undelete Pb0

/' pas de suite

subscribeberf. de question, recomrnand-one, recommand-dl)

/ pas de suite

subscribe@erfl) Y Reponse@erfl)- " O Reponse@erfi) - etc.

FIG. 4.1: Exemple des mini-conversations en langage KQML.

Page 77: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Communication 67

forward( toute perf. sauf perf. de reseau) broadcast( toute perf. sauf perf. de reseau)

/ pas de suite

pas de suite

broadcast@erfl ) P ~ O

P ~ O

forward@erfl) a agent A

fonvard(perfl) a agent 9

perf. de reseau = regiaer. megister, transport-address, forward, broadcast

pas de suite pas de suite

register unregist er

pas de suite transport-address

Pb,

recommandsne( perE

agent A

+ agent facilitateur

d'advertise)

etc.

broker-one( perf. d 'advertise)

, agent A

1 3wFJ agent facilitateur

3. bro ker-on berfi ) \ agent C

recruit-one( perf. d'advertise)

, agent A

agent facilitateur I de A' par ex.)

2. recniit-on (perfl ) i / agent C

\

agent C

FIG. 4.2: Exemple des mini-conversations en langage KQML (suite).

Page 78: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Comm w*ca tion

broker-aiI( perf. d'advdse)

5 '. forward(Reponse@erfi) de A' ')

agent C recomand-dl( perf. d'advertise)

etc.

agent A agent A' agent A" etc

11 agentfacilitateur -

agent C

recniit-dl( perf. d ' advertise)

, agent A , agent A'

advertise erfl )

- agent facilitateur -

agent C

agent A" etc.

Reponse@erfl )

FIG. 4.3: Exemple des mini-conversations en langage KQML (suite).

Page 79: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Malgré l'intérêt certain d'un tel travail, le langage KQML présente de nombreuses lacunes. Pour Cohen et Levesque [14], par exemple, il présente les défauts suivants :

Ambigdé e t irnpréc2sion La signification des performatives est donnée sous la forme de simples descriptions en langage naturel, ce qui les rend souvent vagues et confuses ;

Perfonnatives inutiles et incohérentes Certaines performatives ne sont en fait pas des actes du langage, car elles n'ont pas le pouvoir de satisfaire les buts de l'agent émetteur. C'est particulièrement vrai des performatives recommend, broker et recruit, qui satisfont en fait des buts appartenant à d'autres agents. Néanmoins, iI est clair que tout systeme de communication doit pouvoir faire intervenir des médiateurs et il est donc indispensable de prendre en compte de tels actes ;

Perfonatives manquantes Malgré le nombre imposant de performatives, toute une catégorie de performatives manque, en particulier les promisives. Par exemple, il n'est pas possible en KQML de dire que l'on s'engage, auprès d'un tiers, à accomplir une action.

4.4 Discussion

On a donc vu que la logique illocutoire était assez bien formalisée avec des lois simples et &gantes. Labrou en extrait quelques notions qu'il integre h sa sémantique du langage KQML. Il a aussi donné quelques régles sur les conversations possibles. Mais il ne s'agit pas du tout de règles exhaustives couvrant toutes les conversations, ce qui constitue une première limitation. On constate que les conversations présentées ne sont que des rnini-blocs de conversation avec une sequence assez rigide de performatives permises. On est loin de l'autonomie des agents qui entretiendraient des conversations qui nous réserveraient des surprises dans leurs énoncés. D'autre part, le formalisme utilisé est assez m c i l e à saisir pour un être humain et il n'y a pas d'exemples d'application sur un problème concret.

Toutes ces raisons montrent que KQML manque de spéc~cations et de formalisation. De ce fait, n'importe qui peut prétendre qu'il emploie KQML simplement parce que ses agents sont capables de s'envoyer des requêtes et des informations. A partir de ces critiques, Cohen et Levesque [14] proposent de définir un ensemble minimum de performatives en leur donnant des propriétés de compositionnaüt~, afin qu'il soit possible de définir de nouvelles performatives comme combinaison d'actes de langage plus primitifs. Pour cela, et à partir de leur théorie de l'intention [Il, 12, 131, ils ont déveiopp4 une sémantique pour quelques-unes des performatives les plus fondamentales de KQML. Malgré l'intérêt de ce travail, les spécifications en termes d'états mentaux posent un problème majeur. En &et, si on suppose que des standards de commuïucation comme KQML ont par essence le projet de faire conimuniquer entre eux des agents de natures diverses, alors toute théone reposant sur des états mentaux imposent aux agents de se conformer B une architecture çpédque qui implémente précîsément cette théorie. De ce fait, tout standard de communication, qui repose sur la manière dont un agent se comporte, limite les possibilitês d'intégration d'agents véritablement hétérogènes.

Page 80: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Chapitre 5

Dynamique des croyances sous l'influence de la communication

Ce chapitre présente u n modèle formel pour décrire la dynamique des croyances dans un contexte multiagents. Les d a t i o n s entre la révision des croyances, la corn- munication multiagents et le misonnement non-monotone sont abordées. Ensuite, la logique des justifications est introduite. Le but de cette logique est le développe- ment d'un cadre formel qui permet de caractériser les deux formes de croyances et les deux formes de jwtificationa dans un systèmes rnultiagents. Plus fornelie- ment, elle va nous permettre b spécification sémantique de la théorie AGM et de quelques actes du langage. Cette spt!cification sémantique va n o w permettw par la suite l'utilisation du raisonnement non-monotone pour modéliser le processus de la révision des myances . Finalement, la notion de logique modale probabiliste est introduite. Cette notion va permettre une camctérisation tmctable de la relation d'enmeinement épistémique multiagents.

5.1 Introduction

Les croyances ne sont pas universelles. De ce fait, la relativité des m y a n c e s a m individus prend une importance majeure dans le cadre des systèmes multiagents, car eues mettent en valeur la localisation nécessaire des informations et la nkcessité de communiquer pour pouvoir transmettre et cofionter des croyances. Le fait d'avoir une croyance à un moment donné et ensuite de reviser cette croyance, à partir d'une perception ou une communication, fait partie de l'activit4 normale d'un agent évoluant dans un système multiagents, qui élabore des modèles du monde A partir des informations (percepts, messages) qu'il reçoit et des connais- sances dont il dispose au préalable. De ce fait, les changements qui interviennent au niveau de la base de croyances d'un agent, qui est Ia cible de plusieurs sources d'information, sont à prendre en compte lors du processus de conception et de formalisation de cet agent. Ces changements auront lieu lorsqulun agent reçoit une information plus fiable qui contredit les informations déjà présentent dans sa base de croyances. Dans ce cas, l'agent doit faire des changements au niveau de sa base de croyances s'il veut maintenir la consistance de cette base en incorporant la nouvelle information reçue. Le but de ce chapitre est de traiter en détail ce changement de croyances dans le cas d'une communication multiagents. L'approche adoptée pour faire ce traitement est basée sur l'utilisation des techniques non-montones pour

Page 81: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'hûuence de la communication

concrétiser les operations d'expansion, de contraction et de révision d'une base de croyances. Notre argumentation d'adopter des techniques non-monotones pour traiter le problème de la dynamique des croyances à partir de la co~ll~nunication consiste à donner les relations qui existent entre la révision des croyances, la communication mdtiagents et le raisonnement non-monotone. Avant d'aborder ces relations, il est intéressant de faire un bref rappel sur ces trois concepts fondamentaux.

5.1.1 Révision des croyances

Croire quelque chose, c'est admettre comme véritable une proposition, un fait, une histoire, sans que l'on sache eeectivement son degré de vérité. Autrement dit, tout savoir est une croyance. Cette croyance est une information rapportée par quelque chose (croyance interne) ou quelqu'un d'autre (croyance ezterne), et elle peut-etre sujette à erreur. En effet, ce que l'on voit n'est qu'une illusion donnée par nos sens qui 6ltrent et traduisent la réalité. Nous présentons les choses au travers d'une transformation parfois déformante. Ce que l'on apprend par les journaux est peut-être faux ou n'est simplement plus vrai du fait de la périodicité du journal. De même, les lois et les résultats scientifiques, images même de la certitude doivent être considérés comme des croyances adéquates reposant sur des propositions scientifiques, c'est-à-dire réfutables, qui pourront être remises en question le moment venu (651.

II faut dire qu'à la notion de croyance est associée celle de révision. En effet, toute infor- mation qui fait l'objet d'une croyance peut-être remise en question. Cette capacité de pouvoir remettre en question un fait, une déduction, une loi ou un jugement est à la base de notre capacité d'adaptation cognitive, c'est-&-dire la faculté que nous avons d'accommoder notre système cognitif un monde en perpetuelle évolution. Cette évolution est le fruit des actions des diE6rents agents intervenant dans notre monde. Il en est de même pour les agents in- tervenant dans le cadre des systèmes xnultiagents, qui doivent être capables de remettre en question leurs informations et de reviser leurs jugements.

Plus formellement, la révision des croyances est le changement de croyances qu'un agent opére quand il est codonté à de nouvelles informations provenant de son monde extérieur. Se- lon la théorie AGM [l, 291 détailke au chapitre 3, les opérations de changements de croyances par rapport aux propositions, dûes aux nouvelles informations, peuvent être classées comme suit :

1. Ezpansion : L'opération d'expansion, notée BC;, a pour signification qu'une nouvelle croyance avec toutes ses conséquences possibles p doit être acceptée par un système de croyances BC.

2. Contmdion : L'opération de contraction, notée BC;, a pour signification qu'une nouvelle croyance ip

doit être rétractée d'un système de croyances BC sans l'ajout de nouvelles informations. Pour que le système de croyances résultant soit consistant, il faudrait aussi abandonner certaines autres croyances de BC.

3. R6zrision : L'opération de révision, notée BC;, a pour signification qu'un système de croyances BC doit être étendu à une nouvelle croyance 9, typiquement inconsistante avec ce système. Pour garder le système de croyances résultant consistant, il faudrait rétracter certaines ancimes croyances de BC.

La figure 5.1 illustre les effets engendrés par les trois op&ations précédentes sur une base de croyances BC déductivement close.

Page 82: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'inBuence de la communication

FIG. 5.1: Effets d'expansion, de contraction et de révision sur une base de croyances.

Les deux langages de communication entre agents les plw répandus dans la communauté des chercheurs en systèmes multiagents sont KQML [42, 411 et FIPA ACL [26]. Ces deux langages contiennent des performatives primitives pour la communication des informations d'une maniére assertive au sens de la théorie des actes du langage. Pour le langage KQML, on trouve les trois performatives primitives : tell, untell et deny, pour réaliser le but assertif. Par contre, pour le langage FPA ACL, on trouve les trois performatives primitives : inform, confirm et disconfirm. Dans notre modèle formel qui décrit la dynamique des croyances sous l'influence de la communication, nous d o n s considérer le langage FIPA ACL comme représentant de la partie c o m m ~ c a t i o n plutat que le langage KQML pour les deux principales raisons suivantes :

a La sémantique du langage FIP.4 ACL est plus systématique et stable par rapport B celle de KQML qui a été créée de manière empirique autour des actes du langage naturel;

Les performatives de FIPA ACL qui y ont un but illocutoire assertif représentent une partie non négligeable (3 performatives sur un total de 20 performatives) en comparaison avec celle de KQML (3 perfomatives sur un total de 35 performatives).

Le groupe FIPA a développé une semantique formelle de la communication et de la conver- sation pour le langage FIPA ACL. Le principe de base de cette approche consiste à formaliser les préconditions et les effets de chaque acte du langage en fonction des croyances, des dé- sirs et des intentions des agents. Dans ce cas, la sémantique des trois perfomatives qui nous intéressent, A savoir : inform, confirm et disconfirm, est la suivante :

1. inform : Cette performative signifie que l'agent émetteur informe l'agent récepteur que le contenu propositiomel est vrai.

2. confirm : Cette performative signifie que l'agent émetteur informe l'agent récepteur gui a une croyance incertaine à propos du contenu propositiomel que celui-ci est vrai.

3. disconfirrn : Cette performative signifie que l'agent émetteur informe l'agent récepteur qui a une croyance incertaine ou vraie à propos du contenu propositiomel que celui-ci est faux.

La table 5.1 présente la semantique formeile des trois perfomatives précédentes en for- mulant les préconditions et les effets de chaque performative, où Uicp signifie que l'agent i est

Page 83: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I1hfZuence de la communication

incertain à propos de la vérité de p mais i l croit que p est plus probable que 7 c p :

TAB. 5.1: La sémantique de quelques performatives de FIPA ACL.

5.1.3 Raisonnement non-monotone (RNM)

La modélisation du raisonnement, telle qu'eue est visée en intelligence artificielle, ne doit pas se restreindre à la formalisation des facultés idéales de raisonnement d'un agent doté d'une croyance complète relative à un certain domaine. Nos croyances sont souvent incom- plètes, et donc sujettes à modification et à évolution. Nous sommes capables d'acquérir de nouvelles informations au cours du temps et de tenir compte des effets de la modifkation de nos croyances sur les raisonnements que nous pouvons tenir. En particulier, face à une in- formation incomplète, incertaine et &ovolutive, nos raisonnements sont souvent conjecturaux, simplement plausibles et donc sujets à révision. Plus g6néralement1 nous utilisons souvent des conventions pour augmenter, de façon implicite, notre croyance à propos d'informations in- complétes ou inconnues. Le raisonnement que nous tenons peut, dans ce cas, être logiquement correct par rapport à cette croyance auopentée. est toutefois non-monotone car il repose sur un état de croyance qui peut holuer. La formalisation du raisonnement non-monotone (RNM), au moyen de langages formels tels les langages logiques, nécessite l'introduction de certains concepts appropriés. Nous modéliserons tout d'abord les informations incertaines ou volu ut ives au moyen d'hypothèses. Dans le formalisme de la logique, une hypothèse n'est pas représentée par une formule valide, c'est-à-dire vraie dans toutes ses interprétations, mais par une formule consistante, c'est-à-dire vraie seulement dans certaines interprétations.

Les logiques non-monotones ont pour but la mise au point de systèmes d'inférence permet- tant la modélisation d'un raisonnement non-monotone et donc non valide au sens classique du terme. Intuitivement, ce systéme d1inf6rence non-monotone doit permettre l'obtention de formules plausibles. D'un point de vue sémantique, ceci revient a inférer des formules qui sont consistantes avec les prémisses en ce sens qu'elles sont vérifiées dans au moins un modèle de celleci. Sous cette hypothèse, nous nous restreinions à modéliser un agent rationnel qui émet des conciusions consistantes avec un ensemble d'informations de départ. Considérons l'acte du langage «inform(i,j, p)» et la dgle «si i est un agent fiable alors l'agent j a une jlLstification (une mison ou une évidence) de ro i= à PD. nous voudrions que la partie droite de cette règle puisse être inférée lonqu'elle est simplement consistante avec les prémisses et les autres formules déjà inférées. Dans ce but, nous pouvons transformer la règle en «si i est un agent fiable et s'il est consistant d'inférer que l'agent j a une justification de croire à <pl dors j a une justificBtion de croire à p. La condition de consistance peut, elle, se mettre sous la forme de la non-inférabilité d'une assertion. <S'il est consistant d'inférer que j a une justification de croire à rpn peut être remplacé par «si l'on ne peut inférer que j n'a p u une justification de croire à p. La vérifxation de ce type de précondition pourra évoluer dynamiquement avec l'ensemble des formules déjii inférées par le système, celles-ci réduisant progressivement l'ensemble des assertions consistantes avec l'état du système.

Page 84: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de 1a conununication 74

5.2 Relations entre révision des croyances, communkat ion et RNM

Le modèle formel que nous envisageons de développer dans ce chapitre pour décrire la dynamique des croyances sous l'iduence de la co~~~munication utilise des techniques non- monotones. Donc, avant de passer à la construction de ce modèle formel, il est intéressant de donner les relations qui existent entre ces trois concepts, Cr savoir : révision des croyances, communication par des actes du langage et raisonnement non-monotone. Ces relations vont nous permettre d'argumenter notre choix des techniques non-monotones pour réaliser une révision des croyances dans lm contexte r~!ultlige~ts.

5.2.1 Relation entre la communication et la révision des croyances

Un acte du langage est une action (51 dont la réalisation, si eile est possible dans un certain état mental de l'agent iocuteur et l'agent interlocuteur, conduit a un autre état mental de l'agent interlocuteur. En général, un acte du Iangage est décrit par une paire <PR-COND EFFET> [15]. PR-COMI est une Formule, appelée précondition, qui doit etre satisfaite

par rapport à l'état mental de l'agent locuteur et de l'agent interlocuteur pour que l'acte du langage puisse être réalisé. EFFET est une formule, appelée résultat ou eEet, qui est satisfaite par rapport à l'état mental de l'agent interlocuteur après que l'acte du langage ait été réalisé. Donc, un acte du langage est réalisé par rapport à un état mental dit courant, et conduit à un état mental qui lui succéde. Cependant, comme I'état mental n'est appréhendé que par la représentation que l'on s'en fait, représentation généralement hcompl6te, que par ailleurs l'état mental est complété par certaines lois générales ou un am&e-fond (Grounding) 191 que les intervenants dans Ia conversation supposent permanent.

Il y a donc un aspect dvàsion dans la col~~munication par des actes du langage 1641. En effet, pour satisfaire les effets, l'agent interlocuteur a besoin de réviser ses croyances qu'a a sur le monde. Par exemple, supposons qu'un agent interlocuteur a la description du monde suivante : W-,erlonitour = {le PC est sur le bureau, la TV n'est pas sur le bureau), sachant que l'agent locuteur et l'agent interlocuteur ont l'arrière-fond conversationnel suivant : G = {il n'y a qu'un seul objet sur le bureau, l'agent locuteur est un agent fiable) et considérons que l'agent locuteur exploite l'acte du langage suivant : « in- form(locuteur, interlocuteur, la TV est sur le bureau)» envers l'agent interlocuteur. D'un point de vue préconditions et effets, l'acte précédent est équivalent à d'agent locuteur croit que la TV est sur le bureau, Pagent interlocuteur croit que la TV est sur le bureau>. Donc, le seul monde possible de l'agent interlocuteur qui soit compatible avec cet acte est le suivant : W-,tetIomteur = {la TV est sur le bureau, le PC n'est pas sur le bureau). Il est évident de r e marquer qu'il y a une révision de la base de croyances que l'agent interlocuteur avait sur la position du PC, du fait même que le PC a nécessairement changé de place en se fiant à la fiabilitk de l'agent locuteur.

5.2.2 Relation entre le RNM et la révision des croyances

Bien qu'initialement introduits pour résoudre des problèmes assez généraux sur les n e tions de changement du monde, à savoir : problbe de h e [SI, problème de qualification [53], probléme de ramification, les formalismes de raisonnement non-monotones ont de fortes connexions avec la révision de croyances. Ainsi, Makinson et Gbdenfors [51] ont établi une relation étroite, bilatérale entre ces deux théories. D'une part, on peut dirfinit une relation

Page 85: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dyn-que des croyances sous l'ïdZuence de la communication 75

d'inférence non-monotone, à partir de la théorie AGiM de la révision en considérant la r6vision d'une théorie déductivement close BC par une formule p, pour former la théorie BC;, comme une certaine forme d'inférence non-monotone à partir de ço dans le contexte BC. D'autre part, nous pouvons interpréter l'inférence non-monotone de $ à partir de p comme le fait que $ appartient au résultat de Ia révision, d'une certaine théorie BC, pour intégrer cp. Donc, ce lien entre le raisonnement non-monotone et la révision des croyances peut s'exprimer par p Ikgc 11 = II, E BC;. D'une façon genérale, on peut se demander si les dif€érentes propriétés de la dynamique des croyances, à savoir : consistance, minimalité et importance de l'information nouvelle, et qui sous-entend les opérations de révision, sont vérifiées pat tous ou certains des f~nriaLses mn-monotones. On ?eut montrer par exemple que !e critère de co~ictance est unanimement respecté. De même, tous les formalismes non-monotones essaient de satisfaire un certain critère de minimalité. Pour conclure, il faut dire que le développement de modèles pour la révision des croyances s'est effectué selon deux axes qui représentent le même concept 1571. D'une part, sur le plan théorique en produisant des théories formelles capable de rendre compte des opérations de révisions, par exemple la théorie AGM, et d'autre part, sur le plan des mécanismes avec la d W t i o n des logiques non-monotones.

5.2.3 Relation entre le IRNM: et la communication

D'un point de vue communication, il est également intéressant de rapprocher l'idée de raisonnement non-monotone d'une certaine conception de la pragmatique du langage. En effet, I'énonciation d'une phrase signifie presque toujours autre chose que les informat ions qui s'y trouvent explicitement. Un =ernple classique de cet état de choses est celui de la lettre de recommandation. Lorsqu'elle ne tarit pas d'éloges sur certaines qualités du candidat qui sont sans rapport avec l'emploi postulé, une telle lettre peut bien être sémantiquement positive. Car elle ne renferme rien de désobligeant, mais pragmatiquement, elle est conçue pour n ~ k e au candidat. Le maxime de quantité de Grice [30] permet en effet dlaErmer que si l'auteur de la lettre avait des éléments favorables à dire sur le fond, il les aurait exprimés, et donc de conclure d. l'absence de tels éléments. On reconnalt ici un raisonnement non-monotone qui reléve de l'hypothèse de monde clos de Reiter ou la ci.rconscription de McCarthy. Donc, les logiques non-monotones apportent une premiére génération d'outils formels pour aborder des problèmes que l'on avait jusqu'ici tendance à considérer comme non formalisables. Autrement dit, notre choix de tediniques non-monotones pour formaliser l'arriére-fond conversationnel[9] au niveau de la com.munication est fondé sur Ia notion d'implicature dans la communication et plus particulièrement sur la notion du maxime de quantité de Grice 1301 et les conventions implicites dans la communication [54]. En effet, l'analyse du dialogue est un domaine pour lequel pareilles logiques (4,641 sont reconnues comme essentielles, car la communication repose très souvent sur des informations et des conventions implicites.

Dans la section suivante, la logique des justikations (LJ) est introduite. Cette nouvelle logique va nous permettre de raisonner sur les justifications des croyances d'un agent évoluant dans un système multiagents. Elle est surtout considérée comme un cadre formel qui permet d'utiliser le raisonnement non-monotone pour formaliser la dynamique des croyances dans le contexte des commirn;cations entre agents.

5.3 Logique des justifications (LJ)

Dans la langue quotidienne, nous utilisons souvent le terme «penser pus) pour exprimer une croyance. Par exemple, si l'on dit uje pense que le facteur a distribué le courrier au-

Page 86: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous f ' duence de la co~l~muni'cation 76

jouni'hui», cela signifie que l'on a souscrit à l ' h a t i o n «le facteur a distribué le courrier aujourd'hu2» sans pour autant en être absolument sûr. Pour s'en assurer, il faut soit pouvoir confirmer ce fait par observation (justijbtion interne), en allant voir la boite au lettres, soit croire les personnes ou les choses qui ont a f b n é cette proposition (justification ederne). Par exemple, si vous êtes en acances, et qu'au téléphone on vous dit 4tk facteur n'a pas distribué le caum'er ~ ~ j ~ u d ' h u i ~ , vous n'avez aucun moyen d'aller Ie vérifier par vous-même et vous devez vous en remettre aux dires de cette personne. Mais il n'y a pas que les personnes que l'on doit croire (croyance ezteme) dans la vie courante. Les objets hanimes aussi a5ment des énoncés que l'on doit croire (croyance interne) dans la vie courante et que l'on ne peut pas, ou l'on ne veut pas. toujours véri£ier. Par exemple. si la jauge d'essence de votre voiture est sur plein (justification interne), cela ne signifie pas effectivement que le réservoir est rem- pli d'essence. Si la jauge ne fonctionne pas, le réservoir est peut-6tre vide. Cependant, cette croyance (interne) peut avoir des conséquences sur vos actions htures. Si vous croyez que le réservoir est plein, vous pouvez envisager une longue conduite sans reprendre d'essence, alors que si vous croyez qu'il est vide vous chercherez à faire le plein le plus rapidement pos- sible. Si vous croyez que la jauge est cassée, vous utiliserez d'autres maniéres pour évaluer la quantité d'essence qui vous reste, peut-être en estimant votre consommation à partir de croyances sur la distance parcourue, en faisant conFQnce à d'autres instruments tels que le compteur kilométrique de votre voiture, ou les distances portées sur les cartes, etc. Mais vous n'échapperez pas aux croyances en certaines propositions et aux confiances que vous pouvez avoir quant aux choses. Ces consid&ations précédentes n'ont qu'un seul but, montrer d'une part que tout notre raisonnement repose sur des croyances et d'autre part que la justifica- tion (la raison, l'évidence ou l'argument) de ces croyances ne peut-être effectuée que par des méthodes d'interaction avec d'autres entités (la personne au téléphone dans le cas d'une « jw- tijication ezterns), la jauge d'essence dans le cas d'une ~jwtification interne») dont la fiabilité est elle-meme l'oeuvre d'autres croyances.

5.3.1 Motivations

D'un point de vue communication, un agent qui utilise des actes du langage assertifs pour communiquer avec d'autre agents et qui a l'intention que son interlocuteur croit qu'est-ce- qu'il dit, il doit avoir, d'aprh la logique illocutoire de Searle et Vandenteken 1741, comme condition preparatoire des justifications (des raisons ou des arguments) qui prouvent la vérité de l'iafonnation qu'il veut communiquer. Dans ce cas, l'agent interlocuteur, d'un point de vue revision des croyances, doit reviser sa base de croyances si la condition prépatatoire de l'agent locuteur est v&Sée. Selon Harman 1311, il y a deux types de r6vision des croyances : une révision de croyances basée sur la théorie fondationnelle et une révision des croyances basée sur la théorie de cohérence. La révision des croyances basée sur la théorie fondationnelle consiste à tenir compte des justifxations des croyances au niveau du processus de révision. Dans ce cas, toute croyance d'un agent doit être justifiée, et toute croyance non justifiée doit être rétractée de sa base de croyances. Par contre, la révision des croyances basée sur la théorie de cohérence consiste à tenir compte de l'aspect minimalité au niveau du processus de révision, et ne donner aucune importance aux justifications des croyances. Dans ce cas, la base de croyances d'un agent peut contenir des croyances non justifiées.

D'après cette analyse, il est évident de constater que la dynamique des croyances dans un contexte multiagents est fortement inûuencée par la notion des justifications de croyances. En général, les croyances d'un agent évoluant dans u n environnement multiagents prennent deux formes : des croyances internes obtenues à partir des aoyances initides et au travers d'un

Page 87: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'infiuence de Ia communication

systéme d'inférence qui permet de raisonner sur les croyances de l'agent, et des croyances ex- ternes obtenues & partir des autres agents via une coIILrnUILication. De même, les justi6cations des croyances d'un agent évoluant dans un environnement mdtiagents prennent deux formes : dss justifications internes obtenues à partir des croyances évidentes et au travers d'un sys- tème d'inférence qui permet de raisonner sur les justifications des croyances de l'agent, et des justifications extenies obtenues à partir des autres agents via une confirmation des croyances externes déjA c o m ~ q u é e s . Donc, pour permettre un traitement consistant de la dynamique des croyances, il est nécessaire de développer un cadre formel qui tienne compte de ces quatre concepts, ii savoir : les croyances internes, les croyances externes, les justifications internes et les justifications externes. Plus formellement, ce cadre formel consiste en l'introduction d'iire nouvelle logique, qu'on va appeler logique des justifications (LJ), et qui va permettre de raison- ner sur les croyances et les justifications des croyances d'un agent évoluant dans un système multiagents. Cette nouvelle logique va nous permettre par la suite d'appliquer des techniques non-monotones pour résoudre le probléme de la dynamique des croyances sous I'influence de la communication. Autrement dit, elle va nous permettre le traitement multiagents de la dy- namique des croyances. Donc, le reste de cette section est consacré à l'introduction de cette logique en introduisant la syntaxe, la sémantique et la théorie des preuves de cette logique. Une preuve de l'adéquation de cette logique est donnée en detail. Par contre, la preuve de la complétude de cette logique est laissée comme une perspective de continuation de nos travaux de recherche.

5.3.2 La syntaxe

5.3.1 DBfinition. Syntaxiquement, la logique des justifkations est une logique proposition- nelle enrichie par quatre ophateus modaux, à savoir : &, Bi j , Ji et Ji ,j-

Les quatre opérateurs précédents ont pour interprétation :

0 Bip : Cet opérateur représente les croyances internes de l'agent i. Il signifie donc que l'agent i croit & la formule p.

Bij<p : Celui-ci représente les croyances externes de i et il signifie que l'agent i croit à la formule p en se fiant à l'agent j.

0 Jicp : Cet opérateur représente quant à lui, les justifmitions internes de i et a pour signification l'une des trois interprétations s u i w t e s :

1. La croyance de l'agent i concernant la formule rp est justifiée;

2. L'agent i est capable de justifier sa croyance en ce qui concerne la formule p;

3. L'agent i a une justification (une raison ou une évidence) de croire à la formule p.

Jij<p : Cet opérateur représente les justifications externes et signifie l'une des trois interprétations suivantes :

1. La croyance de l'agent i concernant la formule p, en se fiant à l'agent j, est justifiée ;

2. L'agent j est capable de justifier sa croyance concernant la formule cp pour l'agent ;

3. L'agent j a une justification (une raison ou une évidence) pour l'agent i pour croire à la formule 9.

Dans ce cas, le langage formel L3 de la logique des justifications est défini par les règles syntaxiques suivantes :

Page 88: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'Muence de la c o l l l ~ l ~ ~ c a t i o n

5.3.3 La sémantique

5.3.2 Définition. Le modèle formel de la logique des just5cations est défini comme suit : M = (WJ3,8',V,.7,Ci ,..., &) où :

- W : représente I'ençemble des mondes possibles.

- B C [Agent -t W x W] : représente L'ensemble des relations d'accessibilité.

- B' C [Agent x Agent -t W x W] : est un ensemble qui associe à chaque deux agents une relation d'accessibilité.

- V C [PTOP -f W] : représente la fonction de valuation qui associe à chaque proposition l'ensemble des mondes possibles pour lesquels cette proposition est vraie.

- 9 [Agent x CJ + W ] : représente la fonction qui associe à chaque agent et chaque formule l'ensemble des mondes possibles pour lesquels cette formule a une justification par cet agent dans ce monde. Dans ce cas, la justification d'une formule est vue comme un autre type de vkrité.

- Ci C [Agent x W + Cg] : représente la fonction qui associe à chaque agent et chaque monde possible l'ensemble des formules qui ont des justifications par l'agent i dans ce monde.

Dans le but de donner une axiomatisation adéquate aux justifications internes d'un agent, nous allons imposer des restrictions sémantiques sur la fonction J. Ces restrictions sémantiques sont basées sur la définition suivante.

5.3.3 Définition. La fonction J est :

fermée et décomposable sur la conjonction si et seulement si w E S(i, V) et w E J ( i ' tl.) o w E ml Q A $1 fermk et décomposable sur la disjonction si et seulement si ILI E J(i, 9) ou w E S(i ,$) w E 3( i , Q v $1.

Dans le but de donner une axiomatisation adéquate aux justiiications externes d'un agent, nous allons imposer des restrictions sémantiques sur les fonctions ci. Ces restrictions séman- tiques sont basées sur la definition suivante.

5.3.4 Définition. La fonction 6 est :

0 fermée sur l'implication si et seulement si p E C( j , w ) et (p > +) E Ci(jl w) * $ E Ci(A W)

a consistante, si et seulement si p E C(j , w) + 19 $! ç ( j , u).

Page 89: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'infiuence de Ia cozumunication

fermée et décomposable sur la conjonction si et seulement si (o E C( j , w ) et $ E

C i ( j d 9 ((O A 1I1) E Ci(j,w). fermée et décomposable sur la disjonction si et seulement si q E Ci(j, w ) ou 3 E C i 0 " ~ ) ('P V $1 E i ( j + ) -

5.3.5 Définition. L'ensemble des modèles M = (W, B, Bt , V , J, 6, . . . , &) de la logique des justifications est appelé la classe des moddes M J si toute relation d'accessibilité ( B et BI) est sérielle, transitive et eucfidienne, et toute fonction J et 6 est fermée sur I'implication, consistante, fermée et décomposable sur la conjonction et fermée et décornposable sur la disjonction.

Dans la logique des justifications, Ies croyances internes ne sont rien d'autres que les croyances dkfinies par la logique épistémique multiagents (croyances implicites daos le cas de la logique de I'implicite et de l'explicite de Levesque 1471). L'idée de la formalisation des justincationç internes est celle utilisée par Fagin et Halpern dans leur logique de conscience générale (211. Autrement dit, l'opérateur de justification joue essentiellement le rôle d'un filtre syntaxique dans chaque monde possible. Par contre, 17idCe de la formalisation des croyances externes est basée sur l'idée de la logique du raisonnement local de Fagin et Halpern [21]. Autrement dit, un agent peut considérer une pluralité d'ensembles de mondes possibles cor- respondant chacun à un amas (clusters) de croyances externes. Dans ce cas, les croyances externes d'un agent sont vues comme un ensemble d'&ab d'esprit à la manière dont Minsky [601 le suggère dans sa Société de l'esprit (Society of Minds), où chaque état d'esprit a son amas de croyances externes ident34 par l'agent qui a communiqué ces croyances et qui peut contredire d'autres états d'esprit identifiés par d'autres agents. Finalement, l'idée de la for- malisation des justifications externes est basée sur l'idée que l'ensemble des justifications externes est constitué de plusieurs sous-ensembles de justifications OU chaque sous-ensemble de justifications est indexé par l'agent qui a communiqué ses justifications. A partir de ces considêrations, la sémantique de la logique des justifications est déhie par Ia relation de satisfaction b3 qui est définie inductivement par les régles s6maatiques suivantes :

Sem-i. M, w p ssi w E V@), où p E Prop Sem-2. M , w FJ -(P ssi M , w P j p

S e m - 3 . M , ~ t ~ r p ~ $ ssi M , w + s p e t M , w k g $ Sem-4. M , w k 3 B i ( o ssi ( V w ' J < w , w ' > ~ B ( i ) : M , w ' + ~ r p ) Sem-8. M , w b 3 B i j ( p ssi ( V w ' ( < w , w r > ~ B ' ( i , j ) : M , w ' ~ ~ p )

Sm-6. M, w Jip ssi w E J ( i , p) Sem-7. M, w +.r J i j p ssi E Cj(i, W )

A partir de ces régla sémantiques, on peut donner une définition a la notion de satifaction et la notion de validation d'une formule-

5.3.6 Definition. Une formule p est satisfaite, notée M, w (o, si et seulement si il existe au moins un modèle M et au moins un monde possible w pour lesquels elle est vérifiée. Une formule (o est valide, notée kJ p, si et seulement si elle est v é s é e par tous les modèles et dans tous les mondes possibles.

5.3.4 La théorie des preuves

Voyons maintenant les propriktés qui doivent être vérifiées par les croyances internes d'un agent.

Page 90: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la communication

5.3.7 Proposition. Pour tout agent i et pour toutes fomules cp e t .St, on a :

AXI. + J B i v ~ & ( v > $ ) > & * Ce schéma d'axiome définit la fermeture de l'arnplication sur les croyances internes d'un agent.

AX2. Bi'p > -&-<P Ce schéma d'm'orne défi& la corwistance des croyances internes d'un agent.

AX3. kJ Bip > BiBip Ce schéma d'axiome définit la faculté d'introspection positive d'un agent sur ses c m yances internes.

AX4. Cs l B i v > B i ~ B i v Ce schéma d'axiome définit la faculté d'intmpection négative d'un agent sur ses croyances internes.

RGl. Si Cg 9, alors kJ Biq Cette règle d ' i n f é ~ n c e e q r i m e qu'une formule valide est considére'e comme une croyance interne d'un agent.

Voyons maintenant les propriétés qui doivent être vérifiées par les justifications internes d'un agent.

5.3.8 Proposition. Pour tout agent a' et pour toutes formules p et $, on a :

AX5. k3 J i p A J i ( p > < l ) 3 Ji11 Ce schéma d'axiome définit la fermeture de l'implicata'on sur les justifications internes d'un agent.

AX6. Jip > l J i l<p Ce schéma d'an'orne d é f i i t la consistance des just2fications internes d'un agent.

AX7. b j J i ( < p A + ) a J i p h Ji$ Ce schéma d'axiome ddfinit la fermeture et la décomposabilité de la conjonction sur les justifications internes d'un agent.

AX8. +-rJi(p~$)zJi<pvJ'$ Ce schéma dianome définit la fermeture et la décomposubilité de la disjonction sur les justifications internes d'un agent.

Voyons maintenant les propriétés qui doivent être vérifiées par les justifications externes d'un agent.

5.3.9 Proposition. Pout tous les agents i et j et pour toutes formules cp et 11, on a :

AXIO. F J J i j p ~ J Q ( < p > $ ) > Jij$ Ce schéma d'axiome définit la fermeture de l'implication sur les justifications externes d'un agent.

AX11- k3Ji j<p>1Ji , j - i v Ce schéma d'axiome définit la cornistance des jwt$cattions externes d'un agent.

J ( A T # I ) = J ~ ~ ( o A J ~ ~ $ AX12- ,J ij 9 Ce schéma d'axiome définit la fermeture et la déwmposabilité de la conjonction sur les justifications externes d'un agent.

AX13. kJ Ji,j(<pVT#I)= Ji , jvVJi j$ Ce schéma d'&orne définit la fewneture et la décomposobiLité de la disjonction sur les justifications externes d'un agent.

Page 91: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'infiuence de la communication 81

D'après ce qui précède, on peut donner une relation entre les croyances externes, les croyances internes et les justification externes d'un agent. Cette relation est donnée par la définition suivante.

5.3.10 Définition. Pour tous les agents i et j et pour toute formule pl les croyances externes sont définies comme suit :

Bi,jv dc=f Bjv A J&jp

C'est-&-dire, un agent croit à une fomule en se fiant à l'agent qui a commUILiqué cette formule signifie que l'agent émetteur de la fomule est sincère (il croit à cette fomule) et il a une

. justification pour cette formule pour l'agent récepteur. Voyons maintenant les propriétés qui doivent être vérifiées par les croyances externes d'un

agent.

5.3.11 Proposition. Pour tout agent i et j et pour toutes fornules <p et @, on a :

AX14. PJBi jpAB<, j (~>+)>Bi j+$ Ce schéma d Morne définit la fermeture de l'implication sur les croyances externes d'un agent.

AXl5- + 3 B i j p > y B i j - i ~ Ce schéma d'm'orne définit la consistance des myances externes d'un agent.

AX16. Bi ,jp > BijBi , j ~

Ce sch6naa d'axiome définit la faculté d'intmspection positive d'un agent sur ses cm yances d e m e s .

AX17. C g l B i , j p > Bi,j7Bi,j<p Ce s c h h a d'uxiome définit la faculttf d'introspection négative d'un agent sur ses cm yances &enes.

RG2. Si 9, alors b3 Bi,jv Cette règle d'inférence exprime qu'une formule valide est considérée comme une croyance d e r n e d'un agent de la part d'un autre agent.

5.3.12 Définition. Le système axiomatique de la logique des justifications qui contient les axiomes AX1, . . . , AXI7 et les règles d'inférences RGI et RG2 est appelé le système Sr.

D'aprés la definition de la théorie des modéles et la theorie des preuves de la logique des justifications, on peut introduire le théorème suivant.

5.3.13 ThéorOme. Le système S3 est adéquat vis-à-vis de la classe des modèles M3.

Preuve : La preuve de ce théorème est basée sur le lemme suivant.

5.3.14 Lemme. Tout théorème de la logique des justifications est valide vis-à-vis de la classe des modèles M g .

Preuve :

POU prouver k3 Biv A Bi(p > $) > Bi+, SU~POSO~E que est modèle de la classe M3 et w est un monde possible de l'ensemble W. Donc, on a :

Pour prouver b3 Bi(o 3 supposons que M est un modèle de la classe Mg et w est un monde possible de l'ensemble W. Donc, on a :

Page 92: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous ltinûuence de la communication

a Pour prouver Cg Biv 3 BiBi<p, supposons que M est un modèle de la classe M j e t w est un monde possible de l'ensemble W. Donc, on a :

POU prouver l B i p > BilBiip, S U ~ ~ O S O I E que M est un modèle de la classe M g et w est un monde possible de l'ensemble W. Donc, on a :

M , w -Bi9 a (3dl < ~ , w ' > E B(i) : My wt 1é5 p) u (30'1 < W , W' >E B(i ) : (Vui"1 < w", U' >E B(i ) : M, W" Fr Biv))

(3u'Vw1'l < w T w l > E B ( ~ ) A < W",UJ '>E B ( i ) : M , w ' ' $ j B i p ) (VU+"' < W,W" >E B(i) : M , w " F j Biv) (VW''~ < W , W" >E B(i) : M, W" Cg lBiip)

É, M,w bJ Bi-Bip a Pour prouver si <p alon kir Biv, supposons que M est un modèle de la classe M j

et w est un monde possible de l'ensemble W. Donc, on a :

Pour prouver b3 Ji(<p A +) i Jiv A Ji$, S U ~ ~ O S O ~ S que M est un modèle de la classe M j et UJ est un monde possible de l'ensemble W. Donc, on a :

Page 93: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la communication

M g et w est un monde possible de l'ensemble W. Donc, on a :

POU prouver FJ J i j p A Ji,j(p > @) > Ji j$ , SUP~OSOIE que M est un modèle de la classe MT et w est un monde possible de l'ensemble W. Donc, on a :

POU prouver b3 Ji 9 > 1 Ji ,j -p, supposons que M est un modèle de la classe M j et w est un monde possible de l'ensemble W , Donc, on a :

POU prouver tJ Ji ,j(v A @) n Ji , j ~ A Ji +jll>, S U ~ ~ O S O ~ S que hl est un modèle de la classe M g et w est un monde possible de l'ensemble W. Donc, on a :

Mvw rr J i j ( 9 A$) * V A $ ECj(4w) 9 VJ ECj(i,w) et i, E Cj(i,w) * Mt W +J J i j ~ et Mt W k.7 Ji j'$

0 M1W bz J i j p A Ji$$

POIX prouver kJ Ji ,j(<p v 9) Ji jp v Ji ,j@, S U ~ ~ O S O ~ S que Y est modéle de la classe M g et w est un monde possible de I'ensemble W. Donc, on a :

M, kg Ji& v $1 @ <p v $ E Cj(i,w)

VJ E Cj(itw) ou'$ E Cj(&w) * M, w Ji ,jv OU M , w Ji jd O M,w 4 , j ~ V Ji&

POIX prouver b3 Bi j p A B& > 9) > Bi,&, S U ~ P O S O ~ S que M est un modéle de la classe M J et w est un monde possible de l'ensemble W. Donc, on a :

Page 94: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la communication 84

a Pour prouver kg B i j p > 1 B i , j l ~ , supposons que M est un modèle de la classe M J et ut est un monde possible de l'ensemble W. Donc, on a :

M,w BijV @w'l < w , w ' > ~ B 1 ( i , j ) : M,w' k j p )

=+ (VwtI < W, w' >E B1(i, j ) : M, w'FJ -9) (3w') < w,wt >E B1(i,j) : M , u t F 3 ip )

o M, w b3 l B i , j ~ p

Pour prouver +J Bi , j ~ > BijBi , j ~ , supposons que M est un modèle de la classe M j et w est un monde possible de l'ensemble W. Donc, on a :

M,w B i j ~ e (Vw'l < w,wt > € B t ( i , j ) : M,wt FJ <P) CJ ( V d l < w , W' >E Bt(i, j ) : (VW'~I < w',w" >E Bt(i1 j ) : Ml wtt +J Bij9)) ($ (Vw' Vw"I < w,w1 >E Bt(i, j ) ~ < W',ZU" >E Bt(i, j ) : M,w" B i j p )

(VW"~ < W , W" >E Bt( i , j ) : Ml W" k3 B i j ~ ) M,w F J BijBijc~

Pour prouver kg -Bij9 > Bi - f i j v , supposons que M est un rnod4le de la classe M j et w est un monde possible de l'ensemble W. Donc, on a :

M, w + i , j ~

e (3w'l < W , W ' > E Bt( i , j ) : M , w l F p p ) (3wJl < w, w' >E Bt(i, j ) : (tJWt'I < w", W' > E B1(i, j ) : M , W" FJ Bi , jV)) (3u'Vw"l < w,wt >E B t ( i , j ) ~ < w",w1>EB'( i , j ) : M , w M f r & , j p )

+ (Qw"~ < W,W" >E Bt( i , j ) : M , w " ~ J B i j ~ ) o (VW"~ < w , w " > € B f ( i , j ) : M , d + j 7 B i j ~ ) * M, w FJ Bi , j l & , j ~

Pour prouver si p alors CJ Bi , j ~ , supposons que M est un modèle de la classe M j et v est un monde possible de l'ensemble W. Donc, on a :

5.4 Révision des croyances dans LJ

Cette section a pour objectif la modklisation du processus de la révision des croyances dans le cadre de la logique des justifications en utilisant des techniques non-monotones. Pour ce faire, les étapes suivantes sont abordées :

La spécification sémantique des trois performatives du langage FIPA .4CL, à savoir : inform, confirm et disconfirrn, qui ont un but illocutoire assertif, pa.r la logique des justi- fications ;

La spécification sémantique des trois opérations de révision des croyances, à savoir : l'expansion, la contraction et la révision par la logique des justifications ;

La modélisation du processus de la rkvision des croyances par un système d'inférence non-monotone dans le cadre de la logique des justifications en utilisant des techniques

Page 95: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous 1 'Muence de Ia communication 85

non-montones, à savoir : la logique des défauts, la logique autoépistémique ou la tech- nique de circonscription.

Agent i

Agent kl 1 1

0; Croyances int m e s

i

Croyances internes 1 initiales Eudes

Justifications internes 1 S yst &ne d'infhnce non-monot one j

FIG. 5.2: Schéma détaillé de la dynamique des croyances.

La figure 5.2 illustre l'approche qu'on a utilisé pour décrire la dynamique des croyances sous l'influence de la communication. D'après cette figure, le processus de la révision des croyances suit plusieures étapes. La première étape consiste dans la traduction sémantique, par des expressions en logique des justifications, des effets des actes du langage FIPA ACL. Autrement dit, la première étape est la phase de production des justifications et des croyances externes à partir des actes du langage. La deuxième étape consiste à inférer, en utilisant un système d'inférence non-monotone, des croyances internes à partir des croyances et des justifications externes. Autrement dit, la deuxième étape est la phase de production non- monotone des croyances internes à partir des croyances et des justifications externes. Cette production non-monotone peut prendre trois formes : production par expansion, production par contraction et production par révision. Le choix entre ces trois productions est décidé en

Page 96: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'Muence de la communication 86

fonction des croyances et des justScations externes produites par la première étape, c'est-à- dire en fonction des effets des actes du langage.

5.4.1 Spécification sémantique du langage FIPA ACL dans LJ

Après avoir introduit la logique des justifications, essayons maintenant de donner une sé- mantique aux trois performatives précédentes du langage FIPA ACL, à savoir : inform, confirrn et disconfirm, dans le cadre de cette logique. Notre approche consiste A refomuler la séman- tique de ces trois performatives tout en gardant à l'esprit 1'i~pact des actes du langage sur la dynamique des croyances. Plus formellement, notre approche consiste, d'une part, à Formali- ser les croyances incertaines par des croyances externes, c'est-à-dire des croyances indexées, et d'autre part, eile consiste à donner à la performative inform une nouvelle sémantique de telle sorte que son effet a un impact juste sur l'amas de croyances de l'agent récepteur qui est indexe par l'agent émetteur, et de donner aux performatives confirm et disconfirm une nouvelle sémantique de telle sorte que leurs effets ont un impact juste sur l'amas des justifications de l'agent récepteur qui est indexé par l'agent émetteur. Selon cette analyse, la table 5.2 pré- sente la shantique de ces performatives, plus particulièrement la sémantique de l'effet de ces performatives qui sera noté par la suite par l'expression Bperf~rmative]~, dans le cadre de la logique des just5cations.

T'AB. S.2: La sémantique de quelques performatives de FIPA ACL dans LJ.

5.4.2 Spécification sémantique de la théorie AGM dans LJ

Avant d'aborder la spt5cification sémantique de la théorie AGM dans la logique des justifica- tions, donnons tout d'abord une définition abstraite de la relation d'enracinement épistémique rndtiagents, notee &, en attendant de donner une implémentation de cette relation dans la dernière section de ce chapitre. A partir de cette relation, on peut définir les deux re1ations d'enracinement épistémique, notées =FE et <&, comme suit :

où la formule p <LE ijt signifie l'une des trois interprétations suiMntes :

1. L'agent i préfère la formule 11 à la formule cp ;

2. Pour l'agent i, la formule $ est plus pertinente que la formule Q ;

3. Pour l'agent i, son degré de croyance à la formule $ est supérieur à son degré de croyance à la formule cp.

Pour donner une spécification skmastique aux trois opérations de changement de croyances, a savoir : expansion, contraction et révision, dans le cadre de la logique des justifi- cations, on va noter la base de croyances d'un agent i avant la réception de l'acte du langage A par B C ~ et après la réception de A par Ki1. Selon cette notation, la spécscation sémantique

Page 97: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous 19in8uence de la communication 87

de la propriété de persistence d'une base de croyances et des trois opérations de changement de cette base de croyances sera donnée par les quatre axiomes suivants :

5.4.1 Axiome. Pour tout agent i et pour toute fomule rp, la propriété de persistence doit vénfier I'cLnorne suivant : (Bip E BC:) A (BiBj<p E B C ~ ) A ([AlJ = J i j p ) (Kt' = BC( U {[dlJ)) Cet axiome exprime le principe de persistence d'une base de croyances qui dit que si on a aucune justification (taison) de rejeter une croyance, alors elle sem dans la base de croyances wOsultante.

5.4.2 Axiome. Pour tout aoent i et pour toute formule cp' t 'qémtion d ' ~ q a n s i o n doif rr+ifier l'axz'orne suivant : (Biv $ B C " A ( B ~ ~ < ~ $ B C ? ) A ( B ~ B ~ ~ ~ E B C ( ) A ( B ~ , ~ * ~ ~ $ B C : ) A ( J ~ ~ ~ $ B c P ) A ( [ ~ I ~ ~ = Ji& =+ (Ki1 = (SC: u {[d]~)):) Cet h o m e exprime l'opémtion d'expansion d'une base de croyances qui dit que s i on a aucune justification (raison) de mjeter une nouvelle information qui n'est pas crue, alors elle sera dans la base de croyances résultante. Dans ce cas, l'acte du langage A est généralement l'acte confirm.

5.4.3 Axiome. Pour tout agent i et pour toute fomule rp, l'opérntion de contraction doit vérifier l'axiome suivant :

Cet axiome -exprime l'op&ation de contmction d'une bose de croyances qui dit que si on a une justification (une mison) de rejeter une croyance, alors elle sera rétractée de la base de croyances résultante. Dons ce cas, l'acte du langage d est généralement l'acte disconfim.

5.4.4 Axiome. Pour tout agent i et pour toute formule 9, l'opémtion de révision doit vérifier l'axiome suiuant : (Bi9 E BC?) A (Bi,kip E K y ) A (Bi&~-p E B C ~ ) A (WJ = J i f k 2 l ~ ) A (p <EE -ip) * (~c:' = WC? u {nJW),)ld Cet axiome q n m e l'opémtion de d a i o n d'une base de croyances qui dit que si on a une justification (une mison) de m i s e r une croyance par une infonnation nouvelle, alors elle sem remplacée par la nouvelle infonnation dans la base de croyances résultante.

5.4.3 Processus de révision par des techniques non-monotones

Selon Haman [31], il y a deux types de révision de croyances : une révision de croyances basée sur la théorie fondationnelle et une révision des croyances b&e sur la théorie de cohé- rence. Le processus de révision de croyances basée sur Ia théorie fondationnelle consiste à tenir compte des justifications des croyances au niveau des trois operations de révision. Dans ce cas, les croyances d'un agent sont toutes justifiées, et toute croyance non justifiée est retractée de la base de croyances de l'agent. Pa. contre, Le processus de révision de croyances basée sur la théorie de cohérence consiste à tenir compte de l'aspect minimalité au niveau des trois opérations de révisions et de ne donner aucune importance aux justifications des croyances. Dans ce cas, la base de croyances d'un agent peut contenir des croyances non justifiées. II faut dire que les deux théories de révision des croyances occupent deux extrémités du même axe. En comparaison avec ces deux approches, notre approche de la révision des croyances sous l'influence de la communication respecte les deux théories d'une manière équitable. Autrement dit, elle peut être vue comme une approche qui occupe le milieu de l'axe. En effet, une base

Page 98: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des exopces sous l'influence de la communication 88

de croyances, dans notre cas et d'aprés les quatre axiomes introduits auparavant, contient soit des croyances justifiées, soit des croyances dont l'injustification n'est pas encore prouvée tout en respectant le principe de la cohérence pour ces dernières.

Une base de croyances reprksente un ensemble d'informations sur l'état du monde et l'évènement qui déclenche I'evolution de la base est une information résultante d'une évolution du monde. Par exemple, un agent a effectué une action ou il a reçu un message de la part des autres agents. Le calcul de la base de croyances résultante, ou plus précisément la révision de la base de croyances initiale peut faire intervenir explicitement le principe de non-monotonie. Par exemple, si on pense que l'argument d'un agent pour croire à une information est moins fort que l'argument d'un autre agent qui vient de communiquer une information contradictoire à la première, alors il faut remplacer l'ancienne information et toutes ses conséquences logiques par la nouvelle information et toutes ses cons4quences logiques. Pour ce faire, il faut réaliser une opération de contraction qui sera suivie par une opération d'expansion de la nouvelle information. Il est évident de constater que l'opération de contraction est un raisonnement non-monotone. Donc, il faut intégrer ce processus non-monotone au mécanisme de la revision de façon +&natique.

Notre approche consiste a intégré ce processus non-monotone par l'introduction d'un sys- tème d'inférence non-monotone au niveau de la base de croyances d'un agent évoluant dans un environnement multiagents. Ce système d'inférence peut être considéré comme un système assurant la cohérence d'une base de croyances sur laquelle un agent a une attitude épistémique de la forme : telie donnée est crue ou non et telle donnée est justifiée ou non. Autrement dit, ce système reçoit de la part des autres agents, ou plus précisemment de la part du modèle déduc- tif de la logique des justifications, qui modélise les eEets des actes du langage communiqués, des mises a jour sous la forme des croyances et des justifications externes pour engendrer des croyances int emes justiliées d6finit ivement ou des croyances internes provisoires dont l'inj ust i- fication n'est pas encore proude. Autrement dit, des incompatibilités entre croyances externes peuvent aussi être transmises au systéme qui infére dors les croyances internes consistantes les plus probables. Lors de l'ajout d'une croyance, le système non-monotone a pour charge de calculer une justification consistante aux données présentes dans la base de croyances. En particulier, le système peut détecter une contradiction et être amené, pour satisfaire le critère de consistance de la théorie de cohérence, à rbviser son attitude épistCmique sur les données.

Ce systeme non-monotone devra donc maintenir ce que nous appelons une consistance logique. Il s'agit d'assurer qu'une formuie ne paisse pas &tre vraie et fausse simultanément dans la base de croyances d'un agent 4voluant dans un environnement multiagents. Plus précisement, en cas de production d'une formule et de la négation de celle-ci, le systéme devra réviser la base de croyances de l'agent pour qu'elle puisse accepter une et une seule des conclusions inconsistantes. Autrement dit, ce systhe non-monotone doit assurer, en cas d'une nouvelle information, la consistance de la base de croyances de l'agent. La maintenance de la consistante de cette base de croyances devra assurer par retrait éventuel de croyances antérieures, c'est-à-dire l'ensemble des croyances de l'agent soit à tout moment consistant. Le processus de maintenance devra donc :

O produire des nouvelles croyances,

O vérifier que les croyances qui avait été crues antérieurement restent consistantes avec les nouvelles croyances,

rétracter les croyances inconsistantes.

Pour ce faire, Ie système d'inférence non-monotone doit modéliser les énoncés suivants :

Page 99: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la communication 89

Si un agent reçoit une croyance externe justifiée et il a une justification interne pour cette croyance, alors il va adopter cette croyance externe comme une croyance interne. Il s'agit d'une opération d'expansion d'une base de croyances. Elle est généralement réalisée par l'acte du langage confirm.

Si un agent reçoit une justification externe qui contredit une ancienne justiûcation externe d'une croyance déja crue et qu'il préfère la nouvelle justification externe sur l'ancienne justification externe, alors il v a appuyer I'injustification (la non fiabilité) de l'ancienne justification externe (la moins fiable) pour rétracter la croyance justifiée par cette ancienne justification externe. Il s'agit d'une opération de contraction d'une base de co;ancos. Elle est géoQden;e;it ïbalis6e par l'acte du langage disconfirm.

Si un agent reçoit, une croyance externe justifiée qui contredit une ancienne croyance externe déjà crue et qu'il préfère la nouvelle croyance externe sur l'ancienne croyance externe, alors il va appuyer I'injustification (la non fiabilité) de l'ancienne croyance externe (la moins fiable) pour adopter la nouvelle croyance externe (la plus fiable) comme une croyance interne. Il s'agit d'une opération de révision d'une base de croyances. Elle est généralement réalisée par deux actes du langage de type confirm.

En plus des énoncés précédents, le systéme d'inférence non-monotone doit modéliser l'arrière-fond conversationnd du systéme multiagents suivant :

Si un agent reçoit une croyance exteme justifiée et s'il croit que la justification interne de cette croyance est consistante avec sa base de croyances, c'est-à-dire il n'a pas une justification qui prouve la non fiabilité de l'agent qui a communiqué cette croyance, alors il va adopter provisoirement cette croyance e-xterne comme une croyance interne.

Après avoir donné une définition informelle au système d'inférence non-monotone qu'on veut introduire pour maintenir la consistance de la base de croyances d'un agents évoluant dans un environnement multiagents, passons maintenant à la définition formelle de ce système d'in- férence dans le cadre de la logique des justification en utilisant des techniques non-monotones, à savoir : logique des défauts, logique autoépistémique ou théorie de circonscription.

5.4.5 Deanition. La consistance d'une base de croyances d'un agent i qui raisonne par la logique des justifications est assurée par le systéme d'inférence non-monotone qui est modélisé, en utilisant la logique des défaut, par la théorie des défauts ({F), {D)) suivante :

Si un agent reçoit une justification externe qui contredit une ancienne justification ex- terne et qu'il préfère Ia nouvelle justification externe sur I'ancieme justification externe, alors il va, appuyer l'injustification (la non fiabilit6) de l'ancienne justification externe. Ce qu'y est exprime par la dgle d'inférence monotone suivante :

Si un agent croit à une formule en se fiant à un autre agent (croyance externe) et s'il croit que la justification interne de cette croyance est consistante avec sa base de croyances, c'est-à-dire il n'a pas une jus t ib t ion qui prouve la non fiabilité de l'agent qui a communiqué cette croyance, dors il va adopter provisoirement cette croyance externe comme une croyance interne. Ce qu'y est exprimé par la rPgle d'inférence non-monotone suivante :

Dans ce cas, la révision d'une base de croyances d'un agent est donnée pat la proposition suivante.

Page 100: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la communication 90

5.4.6 Proposition. La base de cmyances, notée B G ~ , d'un agent i à l'instant t, après la réception d'un acte du langage At, est l'eztension, notée E, de la théorie de défauts ( { F } U B C ~ u {[dto]Jy . . . [d&}i {D)), oir BC? représente la base de cmyances de cet agent à l'instant t ~ . Autrement dit, le calcul en logique des défouts d l'instant t, de la base de cmyances, notée B C ~ , d'un agent i après avoir reçu l'acte du langage At,, à partir de sa base de croyances à l'instant t o , notée B C ~ , est donnée par la fonnule suivante :

De la même façon, on peut donner une caractèrisation formelle de notre système d'inférence non-monotone en utilisant la logique autoépistémique

5.4.7 Définition. La consistance d'une base de croyances d'un agent i qui raisonne par la logique des justifications est assurée par le système d'inférence non-monotone qui est modélise, en utilisant la logique autoépistémique, par la théorie autoépitémique suivante :

Dans ce cas, la révision d'une base de croyances d'un agent est donnée par la proposition suivante.

5.4.8 Proposition. La bîue de moyances, notée BC?, d'un agent i à l'instant t, après la réception d'un acte du langage Ar, est l'ezpanszon stable, notée ES, de la théon'e autoépis- témique ( T U B C ~ u {[A&, . . . , [dtJJ)), ou B C ~ représente la base de cmyances de cet agent à l'instant to . Autrement dit, le calcul en logique autoépistémique d l'instant t, de la base de croyances, notée B C ~ , d'un agent i après avoir reçu l'acte du langage At,, à partir de sa base de croyances à l'instant to , notée BC?, est donnée par la formule suivante :

De la meme façon, on peut donner une caractérisation formelle de notre systeme d'inférence non-monotone en utilisant la théorie de circonscription.

5.4.9 Définition. La consistance d'une base de croyances d'un agent i qui raisonne par la logique des justifications est assurée par le système d'inférence non-monotone qui est modehé, en utilisant la théorie de circonscription, par le systéme axiomatique suivant : A = {F, A1(abi), CIRC(abr, A')), où :

Dans ce cas, la révision d'une base de croyances d'un agent est donnée par la proposition suivante.

5.4.10 Proposition. La base de cmyances, notée B C ~ , d'un agent i à l'instant t, aprés la m*ception d'un acte du langage At, est lacloture logique, notée Th, de la théone de deuxième ordre ( A U B C ~ u . . . , [dt,,]J)), OU B C ~ repesente la base de cmyances de cet agent à l'instant to. Autrement dit, le calcul en thwrie de c2rconscription a l'instant tn de la base de croyances, notée B C ~ , d'un agent i après avoir q u un acte du langage Ah, à partir de sa base de croyances à l'instant to , notée B C ~ , est donnée par la fonnule suivante :

Le reste de cette section sera consam& à des exemples qui illustrent les opérations de r6visÏons d'une base de croyances d'un agent 4voluant dans un système muleiagents sous l'influence de la communication, en utilisant la logique des défauts. Le principe reste le même pour la logique autoépistémique et la thkorie de circonscription.

Page 101: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des cromces sous I'hdiuence de Ia communication

5.4.11 Exemple 1. Dans cet exemple, on va illustrer le principe de la persistence d'une base de croyances d'un agent évoluant dans un système rnultiagents. Supposons à l'instant t o , l'agent i croit déjà la formule rp, c'est-à-dire Birp E B C ~ . Supposons à l'instant t i , il reçoit l'acte du langage informÿ, i, p) de l'agent j. D'après la sémantique de cet acte du langage, BC!' = E( ( {F) U B C ~ U {BiBjp)) {D))) = T~(BC? U {BiBj~)) . SUPPOSO~S à l'instant t i , il rqoit un autre acte du langage de l'agent j qui est confirm(j, i, 9). D'après la sémantique de cet acte du langage et la définition Bi ,j = Ji j A Bj, BC? = E( ( {F) U B C ~ u {BiBjp, Ji , j ~ , Bi , j~}, {D))) = T ~ ( B C ~ U {BiBj<p, Jijp, Bi ,j~}). Dans ce cas, le défaut D n'a aucun effet puisque la formule Bip est déjà dans T ~ ( B c , ! O U (BiBjp, Ji , j ~ ) Bi jp)). Donc, l'agent i persiste c m SE croyâ~?ce e m m 12 f o n d e y. Ce qi?i est mrstre par !a figure 5.2 suivante.

t

FIG. 3.3: Exemple de persistence d'une base de croyances.

Page 102: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'Muence de la communication 92

5.4.12 Exemple 2. Dans cet exemple, on va. illustrer l'opération d'expansion d'une base de croyances. Supposons à l'instant to, l'agent i n'a pas une croyance à la formule p, et il n'a pas une preuve concernant llinjustification de la formule ip, c'est-à-dire d i i p $ B C ~ . Supposons à l'instant ti, il reçoit l'acte du langage inform(j,i,rp) de l'agent j . Donc, BC? = E(( (F) U B C ~ U {BiBjp), {D))) = T ~ ( B C ? U {BiBjp}). SUPPOSORS à l'instant tz, il reçoit un autre acte du langage de l'agent j qui est confirm(jj i , p). Donc, BC~') = E(({F) U

BC? u {BiBjp9 Ji ,jvy Bi j p } 9 {D))) = T ~ ( B C ? u {BiBjp' Ji jpt Bi ,jP, B&). D m cas, le défaut D n'est pas bloqué puisque la justification de la formule 9 est consistante avec T ~ ( B C ~ LJ (BiBjp9 Ji jq, Bijpt Bitp}). Donc, l'agent i adopte la formule 9 comme croyance interne. c'est-à-dire B;p E BC:~. Ce qu'y est illustré par la figure 5.4 suivante.

FIG. 5.4: Exemple d'expansion d'une base de croyances.

Page 103: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la communication 93

5.4.13 Exemple 3. Dans cet exemple, on va illustrer l'opération de contraction d'une base de croyances. Supposons a l'instant t o , l'agent i n'a pas une croyance à la formule 9, et il préfiire la formule ~ ( o sur y, c'est-à-dire (p sfE -y). Supposons à l'instant ti, il re- p i t l'acte du langage inform(k1, i, p) de l'agent kl. Donc, BC," = T~(BC? U {BiBki(o)). Supposons ii l'instant t 2 , il reçoit un deuxième acte du langage de l'agent kl qui est confirrn(k1, i, p). Donc, BC:~ = T ~ ( B C ~ U {BiBklp, Ji,kip, Bi,klp, Bjv)) . SUPPOSOIN à l'b- tant t ~ , il reçoit un troisième acte du langage de l'agent k2 qui est disconfirm(k2, i, q) . Donc, BC;' = E ( ( { F ) U BC,'D W {BiBkl~, Ji,kip, B ~ , I c ~ c ~ ? Ji,k2yp), {D))) = T ~ ( B C ~ U (BiBkl<p, Jilklpi Bitlvi Ji,k21(01 -Jip)). Dans ce CS, le défaut D est bloqué par la formule 7J.v déduite de F, Ji.ki<p, Jizkz lv et (q sEE le). Donc. l'agent i ne croit plus a la formiile rp, c'est-à-dire Bip 4 BC;~. Ce qu'y est illustré par la figure 5.5 suivante.

FIG. 5.5: Exemple de contraction d'une base de croyances.

Page 104: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'ulfluence de la communication 94

5.4.14 Exemple 4. Dans cet exemple, on va illustrer un autre type d'opération de contrac- tion. Supposons à 4, l'agent i a le même degré de préférence envers - p et p, c'est-à-dire (p =FE yp). SUPPOSORS à t l , il reçoit l'acte du langage inform(k1, i, p). A tp, il reçoit un autre acte du langage qui est confirm(k1, à, 9). A ta, il reçoit un autre acte du langage de k2 qui est in- form(k2, i, ~ p ) . Donc, BC,"' = E( ( {F} u BC? U (BiBkl(O, Ji,kl(O, Bi,klp, BiBk2-t~}, ID))) = T ~ ( B C ~ U {&Bklp, Ji,kl~7 & , k l ~ , &(O' BiBk2l(P})* SUPPOSORS 6 t l ) il reçoit un autre acte du langage de k2 qui est confirm(k2,i,-9). Donc, BC? = E(({F) u BC? u {&Bkl<~, J i , k l ~ , Bi ,k l~, BiBk2l9, J ~ J I ~ ~ ( D T Bi,k2-'~}i { D l ) ) = T ~ ( B @ U {BiBkl'~, Ji,kl(~, & . k l l ~ , BiBk2l~9 J i , k 2 l ~ , Bi,k2?'~, ->Jip, lJil(O})- Le défaut D est bl* cpé dans les deux cas. soit par lJ+p: soit par -.J;-y. Donc, B.:y 9 B@ Ce qu'y est i!!u_tro par la figure 5.6 suivante.

con f irm(k2, i, -(O)

FE. 5.6: Exemple d'un autre type de contraction d'une base de croyances.

Page 105: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la communication 95

5.4.15 Exemple 5. Dans cet exemple, on va illustrer l9op&ation de révision d'une base de croyances. Supposons à to, l'agent i préfère -9 sur p, c'es-à-dire ((p <FE yp). Sup posons à t l , il reçoit l'acte du langage inform(kl,i, 9). A t l , il reçoit un autre acte du langage qui est confirm(k1, i, rp). A t3, il reçoit un autre acte du langage de k2 qui est in- form(k2, i, -9). Donc, B C ~ = E(({F} u B C ~ u {BiBklv, Ji,k~p, Bilki<p, BiBkz7$9), (D))) = T ~ ( B c , ' ~ U {BiBkl<p, Jicirp, BiVklp, Biv, BiBk2lp}). SUPPOSOT~S à t4, il reçoit un autre acte du langage de k2 qui est confirrn(k2,i,-.p). Donc, B C ~ = E( ( {F) u B C ~ U {BiBklV, J i , k l ~ , Bi,lel~p, BiBkl-'~, Ji,k211~1 B ~ . ~ Z ~ ( P } , {Dl)) = T ~ ( B C ~ U {BiBkl~, JI,LIPI Bi,klp, BiBk2l~t J i 1 k 2 1 ~ i Bi,k2-'~i - ' J i ' ~ v Bàl~)). Le défaut D est bloqué cl- !- C ~ F de -Jip et p ~ ~ z i l t cl-= le C ~ S de Ji-?- Donc, Bi-? 5 BC:. Ce qu'y est illustré par la figure 5.7 suivante.

FIG. 5.7: Exemple de révision d'une base de croyances.

Page 106: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'in8uence de la communication

5.5 Mise en oeuvre

Dans le but de rendre notre modèle formel computationnel et de concrétiser la relation d'enracinement épistémique multiagents introduite précédemment, on va introduire la notion de la logique modale probabiliste. Cette notion consiste à donner une interprétation pro- babiliste à la sémantique des mondes possibles de Kripke [39]. Comme cette dernière a été considérée, d'un point de vue logique, comme l'interprétation la plus intuitive de la logique modale, la notion de la logique modale probabiliste peut être vue et considérée, d'un point de vue computationnel, comme l'interprétation la plus intuitive de la sémantique des mondes possible de Kripke. En effet, la logique modale probabiliste va nous permettre la manupilation numérique des modalités. Autrement dit, il faut considérer cette logique comme un interp4- tevr du langage symbolique de la logique modale en langage numérique des probabilité plus proche de la machine. Une fois la logique modale probabiliste introduite, une interprétation numérique est donnée, par la suite, à la logique épistémique multiagents. Le but de cette interprétation est la concr6tisation de la relation d'enracinement épistémique mdtiagents qui constitue la clé de tout processus de révision des croyances.

5.5.1 Logique modale probabiliste

Supposons qu'on note par E l'ensemble de tous les événements qui peuvent se produire durant une expérience donnée, et supposons que A est un sous ensemble de l'ensemble E, c'est-à-dire A C E. Dans ce cas, supposons que le probléme posé est de calculer la probabilité pour qu'un évènement donné x appartienne à l'ensemble A, c'est-à-dire x E A. Cette proba- bilité classique est donnée par la formule suivante : P(x E A) = IAIIIEI, où ]A/ dénote le cardinal (le nombre d'éléments) de l'ensemble A. Par la suite, on va appliquer cette notion de probabilite pour caractériser d'une maniére numérique les deux modalités universelles (me daüté de nécessité et modalité de possibilité). Pour ce faire, considérons l'exemple suivant qui décrit une structure de Kripke.

5.5.1 Exemple 1.

A partir de la figure 5.8, on a : M,wl CM 9, M,w3 CM l$, M,u5 FM 7, MtwO b~ DP, M,wO FM a'$', M, wo FM O-@, M. Y 0 SM OT, uo b~ 09, Mt wo b~ O+, MI WO CM O+, Mt w0 k~ @Y, M, WO F M 07''Y*

Dans le but de caractériser les deux opérateurs O et O d'une manière numérique, on va introduire la notion de probabilité conditionnelIe d'une formule rp par rapport à un monde possible w par la définition suivante.

5.5.2 Définition. On définit la probabilité conditionnelle, notée P ~ ( ~ / W ) , de la formule 9 par rapport au monde possible w vis-à-vis du modéle M par :

5.5.3 Exemple 2. A partir de la figure 5.8, on a :

Page 107: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des

w6

A partir de suivant es.

croyances sous ltin%uence de la communication

FIG. 5.8: La sémantique des mondes possibles de Kripke.

Ia définition précédente et la théorie des probabilités, on a les propriétés

5.5.4 Proposition. Pour toutes formules cp et .S, et pour tout monde possible w , o n a :

PM(ca/w) E [O, 11 Ce résulat signifie qu 'une pm babilité conditionnelle d'une fornule dans la sémantique des mondes possibles de Kripke n'est qu'une probabilité au sens classique.

pM(vlw) + pM ( T l 4 E [O, 11 Ce résultat signafie que la somme des probabilités conditionnelles d'une fornule et sa négation est inférieur ou é'gal à 1, vu qu'on ne peut jamais auoir une fonnule et sa négation dans un m&me monde possible (tout monde possible de la s t n i c t u x de Kripke est consistant).

S i P ~ ( ~ / W ) = 1, alors P ~ ( - ~ J / w ) = O Ce résultat décode du résultat précédent.

pM(v v $14 = pM ( v I 4 + ' P ~ ( @ / W ) - ' p M b A $14 Ce résultat dé'coule de la probabilité de l'union de deux ensembles qui égale à la somme des probabilités de ces deux ensembles moins t probabilité de leur intersection.

Maintenant, il est possible d'introduire une caractérisation numérique de I'opérateur de nécessité fl. Cette caractérisation est donnée par le théorème suivant.

5.5.5 Théorème. Pour toute formule cp et pour tout monde possible ut, on a :

M, w O9 ($ P ~ ( ~ / W ) = 1

Preuve : Pour prouver M, u kM Ocp F ~ ( ~ / w ) = 1, supposons que (o est une formule et w est un monde possible de l'ensemble W. Donc, on a :

Page 108: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la communication

M ? w FM <Définition de Cl dans la sémantique des mondes possibles>

(Vw'I < w, W' >E 'R : M, w' CM p) o <(VxIP : Q) o (VxlP h Q = P) est un théoréme de la logique des prédicats>

( V W ~ < w , w ~ > E ~ A M , w ~ kM p=< w , w ~ > E ~ ) 9 <(Vx(P = Q) # { x ( P ) = {x(Q) est un théorème de la théorie des ensembles>

{W'I < W , W ~ > E ' R A M,w' bM QI = {wtl < W , W ' > E n) -3 <P = Q w lPl = IQI est un théorème de la théorie des ensembles>

I ~ W ' I c W, wr >E a A M, w1 kM = I ~ W ~ C W , w 1 >E n)l <Définition de Ia probabilité conditionnelle dans la structure de K_Ti_pke>

pM(p /w) = 1 De méme, une caractérisation numérique de l'opérateur de possibilite 0 est donnée par le

théorème suivant.

5.5.6 ThBorème. Pour toute formule <p et pour tout mande possible w, on a :

M,w FM OP 9 P ~ ( v / w ) # O

Preuve : Pour prouver M, w FM 09 e P ~ ( ~ / W ) + 0, supposons que q est une formule et w est un monde possible de l'ensemble W. Donc, on a :

M, w l=,w OP <Définition de O dans la sémantique des mondes possibles> (34 c W , W' >E n : M, W' kM 9)

u <(3xlP : -4) o ~(VXIP : Q) est un théoréme de la logique des prédicats> -(Vwtl < w , w' >E 'R : M , w' FM p)

9 <(VxlP : Q) o (VxlP Q) est un theoreme de la logique des prédicats> l p i ~ l l < w, w1 >E n M, w1 FM 9)

* <(P * -Q) o P h Q i fa=) est un théorème de la logique des prédicatsi -(Vw1l < w, w' >E 7Z A M, w' PM 9) a faux

o <(VxlP = Q) o {xIP) = {xlQ) est un théoréme de la théorie des ensembles> -({wtl < w, w' >E 'R A M, w' kM 9) = {w'( fa=))

o < { X I f aux) = 4 est un théorème de la théorie des ensembles> -({wll < w, wt >E a A M, ut kM 9) = #)

o <P = Q o lPl = 191 est un théor6me de la théorie des ensembles> 7(1{~'1 < W, ut >E AM,w' PM P ) I = 141)

w <Définition de la probabilité conditio~eile dans la structure de Kripke> ' ~ ~ ( d w ) # 0

D W s o n s maintenant la probabilité d'une formule par rapport à l'ensemble W de tous les mondes possibles. Cette probabilité est donnée par la définition suivante.

5.5.7 Denition. On definit la pmbabilité, notée P ~ ( ~ ) , de la formule <p vis-à-vis du modèle M par :

Vu qu'il existe une relation d'ordre sur l'intervalle [O, 11, il est possible de définir la notion d'ensemble des modèles minimaux d'une formule vis-à-vis de cette relation. Cette notion des modèles minimaux est donnée par la définition suiwmte.

Page 109: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous 13iafIuence de la communication 99

5.5.8 Définition. On d&nit l'ensemble des modèles minimaux, note [pl, pour la formule p par :

[(o] = { M I P ~ ( ~ ) 5 ' P ~ ' ( ~ ) pour tout modéle 11.1')

En tenant compte de la notion des modèles minimaux, il est intéressant d'introduire la notion de probabilité minimale d'une formule, qu'on va utüiser par la suite pour catactériser la relation d'enracinement épistémique. Cette notion de probabilité minimaie est donnée par la définition suivante.

5.5.9 Définition. On definit la probabilité minimale, noté P(p) , de la formule ip par :

A partir de cette notion de probabilité minimale et les théorèmes 5.5.5 et 5.5.6 , le résultat suivant découle.

5.5.10 Corollaire. Pour toute fornule 9, on a :

09 O P(p) = l OP * 'P(rp) + O

Après avoir introduit une traduction numérique de la logique modale, essayons mainte- nant de voir l'application de cette idée à la logique épistémique multiagents en vu d'une concrétisation tractable de la relation d'enracinement épistémique.

5.5.2 Enracinement épistémique multiagent s

On a vu au chapitre 3 que des fonctions de révision satisfaisant les postulats d'AGM peuvent être opérationalisées de différentes façons. Soit que l'on d 6 M s e une fonction de choix sur les sous-ensembles maximaux des croyances compatibles avec la formule à ajouter, soit que l'on définisse un ordre de p~e"férence sur les fornules, soit que l'on indique une p~I'férence entte modèles. De la même façon, une fonction de mise B jour peut Otre définie par l'attachement a chaque modèle d'une relation de pdférence. Ces approches restent toutefois abstraites dans la mesure où rien niest dit sur la determination des fonctions de choix ou des préférences, et où ces méthodes laissent souvent le choix entre trop de solutions pour permettre une opérationalisation rbeue. Pour contourner cet handicap, on va introduire dans cette section une nouvelle approche en vu d'une concrétisation tractable de la relation d'enracinement épistémique. En effet, à l'inverse des autres approches qui restent sur le plan théorique ou plutôt sur le plan abstrait, notre approche consiste à utiliser l'idée de la logique modale probabiliste pour introduire la notion de d e g d de cmyunce minimal Autrement dit, notre approche consiste à faire une translation du probléme de la définition d'une relation d'ordre de préférence sur les formules à un problème de la définition d'une relation d'ordre sur des valeurs numériques. Vu que la deuxième relation est déjà bien dkfhtie, le travail qui reste à faire est de réaliser cette translation d'une manière adéquate en se basant sur les fondements introduits dans la section précédente.

Tout d'abord, commençons par définir la notion de degré de croyance d'une formule. Cette notion est basée sur la notion de degré de croyance locale d'une formule par rapport à un monde possible qui est donnée par la définition suivante.

5.5.11 Diifinition. On définit le degré de myance locale, noté Z ) C ~ ~ ( ~ / W ) , de l'agent i pour la formule p par rapport à un monde possible w vis-à-vis du modele M par :

Page 110: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous I'iduence de ia communication 100

A partir de cette définition, la notion de degré de croyance d'une formule par rapport à l'ensemble de tous les mondes possibles W est donnée par la définition suivante.

5.5.12 Définition. On définit le degré de croyance, noté VC?(~J), de l'agent i pour la formule cp vis-à-vis du modèle M par :

En suivant l'idée de la notion des modéles minimaux de la logique modale probabiliste, la notion des modèles épistémiques minimaux d'une formule sera donnée par la dékition suivante.

5.5.13 Définition. On définit l'ensemble des moùèles épistémgques minimaux, noté [pli, de l'agent i vis-&-vis de la formule <p par :

[<pli = { M I ' D C ~ ~ ~ ) 5 2X,"Jt pour tout modèle M t )

D'après cette dernière définition, la notion de degré de croyance minimal d'une formule est donnée par respect à l'ensemble des modèles épidémiques minimaux de cette formule par la définition suivante.

5.5.14 Définition. On définit le degré de croyance minimal, noté VCi(p), de l'agent i pour la formuie tp par :

vCi(tp) = ~cf i ( 'p ) où M E [pli A partir de cette notion de degré de croyance minimal et les théorèmes 5.5.5 et 5.5.6 , le

résultat suivant découle.

5.5.15 Corollaire. Pour tout agent i et toute formule 9, on a :

Finalement, la notion de degr6 de croyance minimal va nous permettre de concrétiser la relation d'enracinement épistémique par la déhition suivante.

5.5.16 Dbfinition. On definit la d a t i o n d'enracinement épistémique multiagents, noté vis-à-vis de l'agent i comme suit :

(ip sis (I DCi (CO) 5 DG($) D'après cette définition, une comparaison épistémique entre deux formules sera traduit

(interpretée, compilée, etc.) en une comparaison entre les degrés de croyance minimaux de ces deux formules,

Discussion

Un systéme multiagents est généralement conçu en vue de faire coopérer plusieurs entites intelligentes dans des activités devant conduire à la résolution d'un problème ou la réalisation d'un but commun. Cette coopération est surtout réalisée à travers la communication entre ces entités autonomes et sociables. Cette communication permet le mouvement d'informations, intentionnel ou non intentionnel, d'un agent source vers un ou plusieurs agents destinataires. En général, ces informations transmises ont des effets directs sur la dynamique des croyances. Ce chapitre a présenté un modèle formel pour décrire cette dynamique des croyances sous

Page 111: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Dynamique des croyances sous l'influence de la commu~u*cation 101

l'influence de la communication. Vu que cette dynamique est fortement influencée par la n e tion de justification des croyances, soit d'un point de vue communication si on fait référence au concept des conditions préparatoires d'un acte du langage assertif [74], soit d'un point de vue révision des croyances si on fait référence a la théorie fondationnelle de la révision des croyances [31], la logique des justifications a été introduite. Le but de cette logique a été le développement d'un cadre formel qui permet d'ut iliçer des t ethniques non-monot ones pour modéliser le processus de la révision des croyances. Plus formellement, elle a permis de carac- tériser les deux formes des croyances, à savoir : les croyances internes et les croyances externes, et de caractériser les deux formes des justifications, à savoir : les justikations internes et les justifications externes. Ensuite, une spécification sémantique de la théorie .4GM et de quelques actes du langage FIPA ACL a été proposée dans le cadre de cette logique des justifications. Cette spécification sémantique a permis l'introduction d'un système d'inférence non-monotone pour traiter le problème de la dynamique des croyances dans UR contexte multiagents. Notre choix d'un formalisme non-monotone pour modéliser la dynamique des croyances a été fondé sur l'idée de Makinson et Gkdenfors (511 qui ont montré qu'il existe des fortes connexions entre les formalismes de raisonnement non-monotones et la révision des croyances. En effet, ils ont même établi une relation étroite, bilatérale entre ces deux théories. Ce choix a été également fondé sur la notion dlimpIicature dans la communication et plus particulièrement sur la notion du maxime de quantité de Grice [30] et la notion des conventions implicites dans la communication [9, 541. Finalement, une caracterisation tractable de la relation d'enracine- ment épistémique multiagents a été proposée. Cette caractérisation a été basée sur la notion de la logique modale probabiliste qui a étk introduite en vue d'une traduction numérique de la logique modale.

Page 112: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Chapitre 6

Conclusion

6.1 Récapitulatif

Réviser une base de croyances d'un agent évoluant dans un système multiagents, c'est corriger les expressions produites lorsque certains faits sont modifiés, c'est-à-dire définir la manière, progressive et incrémentde dont les croyances d'un agent changent lorsque des faits sont ajoutés ou retirés de sa base de croyances et qui permettent de rendre compte du trai- tement d'informations incomplètes, incertaines et t?voZutiues. Basées sur une information in- compl&e, incertaine ou évolutive, les croyances d'un agent sont souvent plausibles et sujettes à révision. En effet, elles sont des informations dont la validité peut-être remise en question si de nouvelles informations sont disponibles. Par exemple, lorsqu'un robot se déplace, il doit en permanence remettre à jour l'ensemble des déductions qu'il peut faire sur Ie monde. La position des objets peut être modifiCe et toutes les cons6quences liées B ces objets doivent &re mises à jour. Par exemple, supposons qu'un robot R, qui possède une pince prehensüe, doive raisonner sur le fait que sa pince soit vide ou non pour savoir s'il peut prendre un objet immédiatement. La connaissance gént?mle, valable pour tous les robots disposant de pinces, peut se formuler ainsi : PinceVide(x) > PeutPrendreOb j e t (x ) . Cependant, cet knoncé pose problème. Supposons qu'initialement le robot R ait la pince vide et qu'il posséde donc le fait PinceVide(R) daas sa base de croyances. Il peut donc dkduire le fait qu'il peut prendre un objet, c'est-à-dire que la formule PeutPrendzeObjet(R) est vraie. Mais dés qu'il prend un objet, cet Bnoncé ne l'est plus puisque sa pince n'est plus vide. D'autres phénomènes, par exemple si R a cassé sa pince, peuvent contredire la relation qui existe entre l'état de la pince et sa capacité à prendre des objets. L ' h a t i o n que la pince est vide est relative à un état du monde et n'a donc aucune d id i t é universelle. Or les logiques standards ne peuvent pas prendre en compte ce type de situation. Dès qu'une proposition est affirmée, elle ne peut être remise en cause. On dit que ces logiques sont monotones parce que les raisonnements ne font qu'ajouter des faits à la base de croyances dont la valeur de vérité ne peut être modifiée sous peine de rendre incohérente toute la base. Pour raisonner sur un agent qui évolue dans un système multiagents et qui ne possède que des croyances partielles, il est nécessaire de disposer de logiques différentes capable de traiter des croyances révisables et ainsi de pouvoir remettre en cause des faits déduits au préalable et qui ne s'avèrent plus pertinents. Ce raisonnement permet à un agent de raisonner dans un environnement oll l'information est incomplète. Si un agent intelligent est capable de raisonner en non-monotonie, alors il doit être capable de prendre des décisions face à des environnements où l'information est incompléte. Autrement dit, il doit être capable de change. sa base de croyances lorsqu'il reçoit des nouvelles informa-

Page 113: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Conclusion 103

tion de la part des autres agents. Ceci est trés important surtout quand l'information reçue est en conflit avec sa base de croyances. Ce mémoire a proposé un modéle formel pour ré- soudre ce conflit et traiter le problème de la dynamique des croyances sous l'influence de la communication.

Apports

Ce mémoire contribue à la résolution du problème de la dynamique des croyances dans un contexte de communication entre agents. Cette contribution se résume en l'introduction d'un mod& formel pour décrire cette dynamique des croyances. Plus formeiiemenc, eue se résume par les points suivants :

L'introduction de ta logique des justifications : Cette logique a été considérée comme un cadre formel qui a permis le traitement de la dynamique des croyances dans un contexte multiagents. Les motivations qui nous ont poussé à introduire cette nouvelle logique est que Ia dynamique des croyances est fortement influencée par la notion de justification des croyances. En effet, le concept des conditions préparatoires d'un acte du langage assertif [74] exige du cote de locuteur que ce dernier a des justifications (des raisons ou des arguments) envers ses croyances. La thbrie fondatiomeue de la révision des croyances [31] exige également du côté de l'interlocuteur que ce dernier n'accepte comme croyances que des croyances justifiées.

L'utilisation des fornulismes non-monotones pour modéliser la dynamique des croyances : Le choix des fornalismes non-monotones a été fondé sur l'idée de Makimon et Giirdenfors [5l] qui ont montre qu'il existe des fortes connexions entre les formalismes de raisonnement non-monotones et la révision des croyances. Ce choix a été également fondé sur Ia notion d'implicature dans la communication et plus particuliikement sur la notion du maxime de quantité de Grice [30] et la notion des conventions implicites dans la communication (9, 541.

L'introduction d'un système d'inférence non-monotone pour implémenter le processus de la révision des cm yances : Ce systéme non-monotone a pennis la revision d'une base de croyances d'un agent évoluant dans un système rnultiagents en utilisant des mécanismes non-monotones. Il est basé sur une spécification sémantique de la théone AGM et de quelques actes du langage FIPA ACL par la logique des justi6cations.

Une cumctérisation tmctczble de la relation d'enracinement épistémique rnultiagents : Cette notion est la clé pour réaliser adéquatement le processus de la révision des croyances. En effet, le concept d'enracinement épistémique est un concept puissant et d'une grande utilité. Il permet de comparer les croyances d'un point de vue importance. A partir de ces comparaisons, la révision a consisté, alors, a rejeter les croyances les moins importantes. La théorie AGM propose une définition qualitative de la relation d'enracinement épistémique. Cependant, elle ne considère pas l'aspect implémentation de la révision des croyances. Notre caractérisation tractable de la relation d'enracine- ment épistémique a pennis de résoudre ce problème. Cette caractérisation est basée sur la notion de la logique modale probabiliste qui a été introduite en vue d'une traduction numérique de la logique modale.

Page 114: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Condusion

6.3 Perspectives

Notre recherche peut être considérée comme une partie d'un grand projet de recherche qui vise le traitement de la dynamique des états mentaux sous l'iduence de la communication, et plus particulièrment sous I'hfluence du langage FIPA ACL. Pour r6aliser ce grand projet, un enrichissement possible pour le langage FIPA ACL serait d'intégrer les deux types d'actes du langage qui ont été mis de côté, à savoir : les actes du langage avec le but illocutoire déclaratif et surtout le but expressif. En effet, on pourrait penser a priori qu'il est inutile qu'une machine ait des états d'âmes, sentiments ou émotions. Mais si on veut s'inspirer du modèle humain et de son intelligence, il faut le faire jusqu'au bout et intégrer ces notions. On constate par exemple, qu'un humain t r a d e bien s'il est motivé par des encouragements, des marques de reconnaissance, toutes choses qui relévent du domaine des performatives expressives. Pour simuler ces mécanismes, on peut penser à un systéme de r4compenses/punitions pour motiver les agents, avec au départ une répartition ciBirente des capaciths entre agents pour simuler les dinérences entre les humains. Ces différences sont importantes car c'est ce qui va pousser certains agents à dkvevelopper leurs points forts, in& ant éventuellement d'autres agents plus faibles sur ces points à égaiïser ces agents, voire les dépasser, tout ceci contribuant à une élévation globale des capacit 6s sur l'ensemble des agents.

D'un autre cdté, il est intéressant d'étendre la dynamique sous l'influence du langage FIPA ACL aux états mentaux, autres que les croyances, en étendant le modéle formel introduit dans ce mémoire tout en suivant la table 6.1 suivante :

n %e il Logique à introduire 1 Les états mentaux à réviser 1

TAB. 6.1: Les perspectives de continuation de notre recherche.

. - - .. - - >

Engageant Directif Déclaratif Expressif

Logique du savoir-faire Logique du pouvoir Logique d'autorité Logique des h o t ions

Engagements, buts et Plans 1 L

Intentions, buts et Plans Croyances et intentions Etats d'âmes

Page 115: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Bibliographie

C. E. Alchourron, P. Giirdenfors, and D. Makinson. On the Logic of Theory Change : Partial Meet Functions for Contraction and Revision. Journal of Symbolic Logic, 50 :SI& 530, 1985. J. F. Allen and R. C. Perrault. Analyzing Intention in Utterances. Artificial Intelligence, 15(3) :143-178, 1980. D . Appelt. Planning English Sentences. Cambridge University Press, Cambridge, UK, 1985. D. Appelt and K. Konolige. A Practical Nonmonotonic Theory for Reasoning about Speech Acts. Technicd Report Technical Xote 432, SRI International, Menlo Park, CA, 1988. J. L. Austin. How To Do Things With Words. Clarendon Press, Oxford, UK, 1962. M. E. Bratman. Intention, Plans, and Pmcticul Reason. Hmaxd University Press, Cambridge, MA, 1987.

M. E. Bratman. What is Intention? In M. E. Pollack, P. R. Cohen, and J. L. Morgan, editors, In tentions in Communication, pages 15-32. MIT Press, 2 990. B. F. Chellas. Modal Logic. Cambridge University Press, 1980. H. H. Clark. lising Langvage. Cambridge University Press, Cambridge, MA, 1996.

K. Clark. Negation as Failure. In H. Gallaire and J. iMinker, editors, Logic and Databases, pages 293-322, Plenum Press, New York, NY, 1978.

P. R. Cohen and H. J. Levesque. Intention is Choice with Commitment. Artàficial Intelligence, 42 :213-261, 1990.

P. R. Cohen and H. J. Levesque. Persistence, Intention and Commitment. In M. E. Pollack, P. R. Cohen, and J. L. Morgan, editors, Intentions in Communication, pages 33-69. MIT Press, 1990. P. R. Cohen and H. J. Levesque. Rational Interaction as the Basis for Con1111unication. In M. E. Pollack, P. R. Cohen, and J. L. Morgan, editon, Intentions in Communication, pages 221-256. MIT Press, 1990. P. R. Cohen and H. J. Levesque. Communicative Actions for ilrtificial Agents. In Victor Lesser, editor, First International Conference on Multi-Agent System, pages 65-72. MIS Press, 1995. P. R. Cohen and C. R. Perrault. Elements of a Plan-Based Theory of Speech Acts. Cognitive Science, 3(3) :177-212, 1979.

M. Dalal. Investigations into a Theory of Knowledge Base Revision : Preliminary Report. In Pmceedings of the 7th National Conferrnce on Artificial Intelligence (AAAI-88), pages 475-479, 1988.

Page 116: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Bibliographie 106

(171 D. C. Dennett. The Logicd Geography of Computational Approaches : A View f5om the East Pole. In M. Brand and M. H h h , editors, The Repmentation of Knowledge and Belief, pages 59-79, University of lqrizona Press, Tbcson, TX, 1986.

[18j D. C. Dennett. La Conscience Ezpliquée. Editions Odile Jacob, 1991.

[19] S. Djeffd. Dynamique des Croyances : Aspects Multi-Agents. Master's thesis, Départe- ment d'informatique, université Laval, Québec, QC, 1996.

[20] H. B. Enderton. A Mathematical Introduction to Logic. Academic Press, San Diego, CA, 1972.

[21] R. Fagin ind 3. Y. Hd?e=. Se!ief, -4mze~ess, md Lixcited FLeasoiiing. A;t$cinl I ~ t d - ligence, 34 :39-76, 1988.

(221 R. Fagin, J. Y. Halpern, Y. Moses, and M. Y. Vardi. Reasoning about Knowledge. MIT Press, Cambridge, MA, 1995.

[23] T. Finin, R. Fkitzon, D. McKay, and R. McEntue. KQML as an Agent Communication Language. In Pmceedings of the Thid International Conference on Information and Knowledge Management (CIKMt94). ACM Press, 1994.

[24] T. Finin, R. Fkitzson, D. McKay, and R. McEntire. KQML - A Language and Protocol for KnowIedge and Information Exchange. Technical Report CS-94-02, Computer Science and Electrical Engineering Department, University of Maryland, Baltimore, &ID, 1994.

[25] T. Finin, J. Weber, G. Wiederhold, M. Genesereth, R. Fritzon, J. McGuire, S. Shapiro, D. McKay, R. Pelavin, and C. Be&. SpecScation of the KQML Agent Communication Language plus Example Agent Policies and Architectures (DRAFT Report). In DARPA Knowledge Sharing Initiative External Interfoce Working Gmup, 1994.

(261 FIPA. FIPA 97 Specincation Part 2 : Agent Communication Langage. In Foundation for Intelligent Physical Agents. http ://drogo.cselt .stet.it/fipa/, 1997.

1271 J. R. Galliers. A Theoretical Fmmework for Computer Models of Cooperative Dialogue. PhD thesis, Open University, UK, 1988.

[28] P. Gardenfors. Knowledge in Flux. MiT Press, Cambridge, MT, 1988.

1291 P. Gardenfors and H. Rott. Belief Revision. In D. Gabbay, C. J. Hogger, and J. A. Robinson, editors, Handbook of Logic in Artijkial Intelligence and Logic Pmgmmrning 4. Oxford Science Publication, 1995.

[30] H. P. Grice. Logic and Conversation. In P. Cole and J. L. Morgan, editon, Speech Ackr, Syntax and Semontics II& pages 41-58, Academic Press, New York, NY, 1975.

[31] G. Hannan. Change in View : Principles of Reasoning. Bradford Book, MIT Press, Cambridge, MA, 1986.

[32] J. Hintikka. Knowiedge and Belief : An Introduction to the Logic of the Two Notions. ComeU University Press, It haca, 1962.

[33] 2. Huang. Logics for Agents with Bounded Rationality. PhD thesis, Institute for Logic, Language and Computation (ILLC), University of Amesterdam, Amesterdam, North- HoIland, 1994.

1341 H. Katsuno and A. Mendehon. A U d i e d View of Propositional Knowledge Base U p dates. In Pmceedings of the 11th International Joint Conference on Artificial Intelligence (IJCA1'89), pages 269-276, Morgan Kadhann, San Mateo, CA, 1989.

Page 117: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

[35] H. Katsuno and A. Mendelzon. On the DSerence between Updating a Knowledge Base aad Revising it. In Principles of Knowledge Representation and Reusoning (KR '911, pages 387-394, 1991.

[36] H. Katsuno and A. Mendelzon. Propositional Knowledge Base Revision and Minimal Change. Artificiai Intelligence, 52 :263-294, 1991.

1371 K. Konolige. A Deduction Model of Belief. Morgan Kaufmann, Los Altos, CA, 1986.

[38] K. Konolige. On the Relation between Default and Autoepistemic Logic. Artifinal Intelligence, 35 :343-382, 1988.

[39] S. A. Kripke. Semantical Analyrir of Modd Lagk I : Yod ?!Icdal Propcsitional C a l c ~ . Zeatschraft fur ~'Muthernutische Logik und Gmndlagen der Mathemat2k, 9 :67-96, 1963.

[40] T. S . Kuhn. The Structure of Scientific Revolutions. The University of Chicago Press, Chicago, ILL, 1962.

[41] Y. Labrou. Semantics for an Agent Communication Language. PhD thesis, Computer Science and Electrical Engineering Depart ment, University of Maryland, Baltimore, MD, 1996.

[42] Y. Labrou and T. Finin. A Semantics Approach for KQML - A General Purpose Com- munication Language for Software Agents. Technical report, Computer Science and Electrical Engineering Department, University of Maryland, Baltimore, MD, 1994.

[43] 1. Lakatos. The Methodology of Scientfi Research Pmgmmrnes : Philosophical Popers. Cambridge University Press, Cambridge, UK, 1978.

[44] Y. Lesperance. A Formol Theory of I n d e x h l Knowledge and Action. PhD thesis, De- partnient of Cornputer Science, University of Toronto, Toronto, ON, 1991.

[45] Y. Lespérmce, H. J. Levesque, F. Lin, D. Marcu, R. Reiter, and R. Scherl. A Logical Approach to High-Level Robot Programming - 4 Progress Report. In B. Kuiperr , editor, Contml of the Physical World by Intelligent Systems, pages 79-85, New Orleans, LA, 1994.

[46] Y. Lespérance, H. J. Levesque, F. Lin, D. Marcu, R. Reiter, and R. Scherl. Foundations of a Logical Approach to Agent Progamming. In M. J. Wooldndge, J. P. Muller, and M. Tambe, editors, Intelligent Agents II : Proceedings of the 1995 Workshop on Agent Theories, Architectuns and Languages (ATAL-95), Lecture Notes in A rtificéal Intelli- gence, pages 331-346. Springer-Verlag, Berlin, 1996.

[47] H. J. Levesque. A Logic of Implicit and Explicit Belief. In Proceedings of the National Conference on Artificial Intelligence, pages 19û-202, Austin, TX, 1984.

[48] FI. J. Levesque. Knowledge Representation and Reasoning. In J. F. Traub, B. J. Grosz, B. W. Lampson, and N. J. Nilsson, editors, Annual Review of Cornputer Science, Vohme I, pages 255-287, h a I Review Inc., Palo Alto, CA, 1986.

(491 H. J. Levesque. Knowledge, Action and Ability in the Situation Calculus. In Overheads fi-om Invz'ted Talk at TARK 94, 1994.

[5q D. J. Litman and J. F. Allen. A Plan Recognition Model for Subdialogues in Convena- tions. Cognitives Sciences, 11 :163-200, 1987.

[54 D. Makinson and P. Giirdenfors. Relations between the Logic of Theory Change and Nonmonotonic Logic. In A. EWirmann and M. Morreau, editors, The Logic of Theory Change, Lecture Notes in Artificial Intelligence, Vol. 4 65, pages 185-205. Springer-Verlag, Berlin, 1991.

Page 118: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Bibliographie 108

[52] J. McCarthy. Ascnbing Ment al Qualities to Machines. In M. Ringle, d i t or, Philosophical Perspectives in Artificz'ial Intelligence. Harvester Press, 1979.

[53] J. McCarthy. Circumscnption - A Form of Non-Monotonie Reasoning. Artifiial Int elli- gence, 13 :27-39, 1980.

[54] J. McCarthy. Applications of Circumscription to Formake Cornmonsense Knowledge. Artificial Intelligence, 28 :89-116, 1986.

1551 J. McCarthy and P. J. Hayes. Some Philosophical Problems kom the Standpoint of Artifidal Intelligence. In B. Meltzer and D. Michie, editors, Machine Intelligence IV. Edinburgh University Press, 1969.

[56] D. McDermott. Non-Monotonie Logic II : Non-Monotonie Modal Theones. Journal of the ACM, 29(1) :33-57, 1982.

[57] D. McDermott. AI, Logic and the Frame Problem. In F. M. Brown, editor, The Finme Problem in Artificial Intelligence, pages 105-118, Morgan Kaufmann, San Mateo, CA, 1987.

1581 D. McDermott and J. Doyle. Non-Monotonie Logic 1. Artificial Intelligence, 13 :41-72, 1980.

[59] M. Minsky. A Framework for Representing KnowIedge. In P. H. Winston, editor, The Psychologie of Computer Vision, pages 211-280, McGraw-Hill, New York, LW, 1975.

[GO] M. Minsky. The Society of Mind Simon and Schuster, New York, LW, 1983.

1611 R. C. Moore. Reusoning about Knovledge and Action. PhD thesis, Computer Science and Electrical Engineering Department, MIT, Boston, MA, 1980.

[62] R. C. Moore. Possible-World Semantics for Autoepistemic Logic. Ln R. Reiter, editor, Ptvceedings of the Workshop on Non- Monotonie R easoning, pages 344-354, 1984.

[63] R. C. Moore. Semantical Considerations on Non-Monotonie Logic. Artaficial Intelligence, 25 :75-94, 2985.

[64] C. R. Perrault. An Application of Defauit Logic to Speech Act Theory. In hl. E. Pollack, P. R. Cohen, and J. L. Morgan, editors, Intentions in Communication, pages 161-185. hIIT Press, 1990.

[65] K. R. Popper. Conjectures and Re&tations. Routledge and Kegan Paul, London, UK, 1963.

1661 K. R. Popper. The Logic of Scientàfic Discoueq. Princeton University Press, Princeton, NJ, 1974.

[67j A. S. Rao. A Dynamics of BeIief Systems : A Philosophical, Logicai and Artificial Intel- ligence Perspective. Technical Report TR-02, Australia Artificial Intelligence Institute, Melbourne, Australia, 1989.

[68] A. S. Rao and M. P. Georgeff. Modeling Rational Agents within a BDLArchitecture. In M. N. Huhns and M. P. Singh, editors, Readings in agents, pages 317-328, Morgan Kaufriiam, San Francisco, CA, 1997.

[69] R. Reiter. On Closed World Data Bases. In H. GalIaire and J. Minker, editors, Logic and Databases, pages 55-76, Plenum Press, New York, NY, 1978.

[701 R. Reiter. A Logic for Default Reasoning. Artifinal Intelligence, 13 $31-132, 1980.

[Tl] R Reiter. Nonmonotonic Reasooning. In J. F. Tkaub, B. J. Grosz, B. W. Lampson, and N. J. N h o n , editors, Annual Reuiew of Computer Science, Volume II, pages 147-186, Annual Review Inc., Palo Alto, CA, 1987.

Page 119: €¦ · Résumé Un système mdtiagents est généralement conçu en vue de faire coopérer plusieurs entités intelligentes dans des activités devant conduire a la résolution

Bibliographie 109

1721 J. R. Searle. Speech Acts : An E~suy in the Philosophy of Language. Cambridge University Press, Cambridge, UK, 1969.

1731 J. R. Searle. Expresdon und Meuning. Cambridge University Press, Cambridge, UK, 1979.

[74] J. R. Searle and D. Vandeweken. Foundations of nlocutionary Logic. Cambridge Uni- versity Press, Cambridge, UK, 1985.

[75] Y. Shoham. Agent-Oriented Programming. A r t m a l Intelligence, 60(1) :5 1-92, 1993.

176) S. R. Thomas. PLACA : An Agent Oriented Progromming Language. PhD thesis, Corn- puter Science Department, Stanford University, Pa10 Alto, CA, 1993.

1771 M. Winslett. Updating Logical Dotabuses. Combridge University Press, Cambridge, UX, 1990.

[78] M. Wooldridge. T h e Logzenl Modeling of Cornpututional Muhi-Agents Systems. PhD t hesis, The Manchester Metropolit ain University, UK, 1994.