daniel dennett intentional systems 1979 par albert lejeune

3

Click here to load reader

Upload: albert-lejeune

Post on 08-Jun-2015

189 views

Category:

Documents


0 download

DESCRIPTION

Brainstorms: Philosophical Essays on Mind and Psychology (Harvester studies in philosophy)by Daniel C. DennettRésumé par Albert Lejeune

TRANSCRIPT

Page 1: Daniel Dennett Intentional Systems 1979 Par Albert Lejeune

UQAM

Programme de doctorat en informatique cognitive

Cours DIC 8101

Brainstorms: Philosophical Essays on Mind and Psychology (Harvester studies in philosophy)

by Daniel C. Dennett

Résumé

par

Albert Lejeune

Remis aux professeurs Jean-Guy Meunier et Pierre Poirier

Montréal, le 18 décembre 2008

Page 2: Daniel Dennett Intentional Systems 1979 Par Albert Lejeune

1. Systèmes intentionnels

Ce chapitre examine le concept d’un système dont le comportement peut être expliqué et prédit en

attribuant au système des croyances et des désirs. L’intentionnalité doit être comprise ici comme une

caractéristique des entités linguistiques. Un idiome est intentionnel si la substitution de termes

conjoints (codesignative) ne préserve pas la vérité.

I. Une chose est un système intentionnel seulement en relation avec les stratégies d’une personne

qui essaye de comprendre et de prédire le comportement de cette chose. En analysant l’exemple

de l’ordinateur qui joue aux échecs, on peut distinguer trois points de vue ou postures (stance) : la

posture du design (comprendre les instructions du programme), la posture physique (comprendre le

fonctionnement des circuits électroniques – posture généralement réservée aux cas de bris) et la

posture intentionnelle. Les ordinateurs qui jouent aux échecs ne sont accessibles à la prédiction

qu’à travers la posture intentionnelle. La rationalité de ce système est présupposée, ce qui veut

dire qu’il dispose d’un design optimal par rapport à ses buts. Dans ce cas, on peut prévoir son

comportement en attribuant au système la possession de certaines informations tout en le

supposant dirigé vers certains buts. En poussant plus loin, on peut appeler l’information détenue

par le système, des croyances, et ses buts, des désirs. Évidemment le point ici n’est pas de soutenir

que les ordinateurs ont des croyances et des désirs mais qu’en leur attribuant cela, il est possible de

prédire leur comportement. L’adoption de cette posture est une stratégie pragmatique, qu’on ne

cherche pas à qualifier de vraie ou de fausse. Quand peut-elle être vraiment payante? Chaque fois

que nous pouvons supposer la présence d’un design optimal tout en doutant de la possibilité

d’adopter une posture de design ou une posture physique (ex : la découverte de martiens…). Alors

l’attribution des croyances et des désirs est interdépendante (notion de circularité) et les seuls

points d’ancrage sont les besoins de survie, les régularités dans le comportement et dans le postulat

du design optimal. Est-ce pour autant de l’anthropomorphisme? Pas vraiment, tout ce que nous

transportons à partir de notre monde sont les catégories de rationalité, de perception et d’action.

II. Quand nous essayons de prédire le comportement d’un système étranger (ordinateur,

martien…) nous développons une théorie du comportement. Comment une telle théorie

intentionnelle du comportement peut-elle se relier à d’autres théories du comportement? Tout

d’abord le bon sens de nos explications et prédictions du comportement des hommes et des

animaux est intentionnelle. Nous partons du postulat de la rationalité. Ce postulat est si fort,

qu’en cas d’échec de nos prédictions nous pointons d’abord les conditions de traitement de

l’information (‘il n’a pas dû entendre…’). Nous agissons de la même façon avec les animaux. Le

postulat de l’intentionnalité d’un système est aussi le postulat de sa rationalité. Si le système est

parfaitement rationnel, toutes les vérités logiques vont apparaître; mais dans son imperfection

vraisemblable, toutes les lois logiques ne pourront pas être attribuées aux croyances de ce système.

Plus les imperfections s’avèrent nombreuses, plus le changement de posture (design ou physique)

va s’imposer. Mais si nous faisons cela, nous laissons inexpliquée une bonne part d’intelligence et

de rationalité. Illustrons ce point à l’aide d’une métaphore économique. Chaque fois qu’un

bâtisseur de théorie propose d’appeler quelque événement, état, structure etc.. signal, message ou

commande dans un système (ex : le cerveau), cette personne emprunte de l’intelligence. Cette

personne suppose l’existence d’un lecteur de signal, d’un analyseur de messages et d’un centre de

commande. Cet emprunt doit être remboursé en étudiant ces lecteurs, analyseurs etc. Sinon la

théorie reporte à plus tard la question fondamentale : en quoi ce système est-il intelligent? Ici

l’intentionnalité et la rationalité sont évidentes. Les abstractions intentionnelles telles que lecteur

de signal, égos et super égos, bibliothèque dans les corridors de la mémoire nous indiquent qu’une

Page 3: Daniel Dennett Intentional Systems 1979 Par Albert Lejeune

théorie est dans le rouge (en dette) au niveau de l’explication de l’intelligence. L’insuffisance de

l’explication intentionnelle du point de vue de la psychologie a été largement ressentie et mal

conçue. Ce sentiment vient surtout du béhaviorisme de Skinner et Quine. Ils sont totalement

opposés à tout idiome intentionnel. C’est la loi du déficit zéro! Ni emprunt, ni remboursement!

Pour Skinner ces idiomes sont aussi vides empiriquement que l’expression ‘virtus dormitiva’ dans

la pièce de Molière, lorsque le médecin prépare un somnifère. On peut bien décider sur la base

d’évidence que quelque chose est une pièce de cuivre ou du lichen (et cela permet de faire des

prédictions) mais décider sur la base d’évidence empirique que quelque chose est un système

intentionnel permet de prédire à un niveau logique plutôt qu’empirique. Skinner a essayé de

cadrer ses prédictions dans un langage non-intentionnel : des réponses corporelles à des stimuli

physiques. Cela ne l’a pas mené au mode de prédiction et d’explication qu’il recherchait. Pour

développer ses prédictions, il a mis au point la boîte de Skinner dans laquelle le comportement à

récompenser est restreint et le mouvement du corps, stéréotypé (ex : presser un levier).

Évidemment Skinner prétend qu’il a trouvé une loi qui relie des événements non intentionnels.

Mais voyons! On peut ligoter un mathématicien dans une boîte de Skinner de façon à ce qu’il ne

bouge que la tête; mettre une carte à la hauteur de ses yeux où il est écrit ‘Combien font 7x5?’;

placer deux boutons à la hauteur de la tête, l’un où il est écrit 35 et l’autre 34; placer des électrodes

sur le sol et envoyer des petits chocs; le contrôle sonore du stimulus émettant : ‘Répondez

maintenant!’. On peut prédire qu’avant entraînement, essais et erreurs, le mathématicien va

enfoncer le bouton 35 avec sa tête. Tout cela constitue-t-il une prédiction scientifique parce qu’on

a omis le vocabulaire intentionnel? Non, parce que tout tient à un environnement trop restreint.

Skinner voulait éliminer l’intentionnalité, il n’a pu que la masquer! Alors où regarder pour trouver

une théorie du comportement qui soit satisfaisante? La tactique la plus prometteuse est de partir

avec nos emprunts à l’intelligence, de contribuer aux événements internes et externes avec du

contenu et ensuite rechercher des mécanismes qui vont fonctionner correctement avec ces

‘messages’ de façon à rembourser nos emprunts. C’est ce que font les chercheurs en intelligence

artificielle avec des applications à la théorie des jeux (où l’intentionnalité est incontournable) et les

sciences économiques.

III Le concept de système intentionnel est relativement peu encombré et non métaphysique. Et il

est plus aisé de décider qu’une machine est un système intentionnel plutôt que de se poser la

question : pense-t-elle vraiment? Est-elle consciente? Moralement responsable? Pour revenir à la

métaphore économique : un 25 cents d’intentionnalité ne permettrait-il pas d’acheter des trésors

mentaux? Bien sûr, tous les systèmes intentionnels ne peuvent pas voler, nager ou ... parler. Mais

sans systèmes intentionnels capables de parler, il n’y aurait pas d’attribution de croyances, pas de

théorie, pas de postulat de rationalité ni de prédiction. La capacité de langage est sans aucun

doute le couronnement de l’évolution. Cela nous fait penser qu’à travers l’évolution, l’une des

caractéristiques continue est l’interdépendance des organes et des capacités distinctes. Pas de

vision lointaine sans locomotion etc. On ne peut donc pas attribuer des croyances à un système

sans que ces croyances soient appropriées à l’environnement et que le système réponde de façon

appropriée à cet environnement. Autrement dit : la capacité de croire ne porte pas de valeur de

survie à moins que ce soit une capacité à croire des vérités. Un poisson soluble dans l’eau est une

impossibilité dans l’évolution, de la même façon, on ne peut donner une description cohérente

d’un système fonctionnant sur des croyances fausses. Aussi, la capacité de communiquer n’aurait

pas pris autant de place dans l’évolution si elle n’était d’abord la faculté de transmettre des

croyances vraies. Ce qui signifie : la capacité de modifier les autres membres de l’espèce dans la

direction d’un design plus optimal.