pylyshyn explanatory roles résumé par albert lejeune a2008

3

Click here to load reader

Upload: albert-lejeune

Post on 08-Jun-2015

108 views

Category:

Documents


7 download

DESCRIPTION

Pylyshyn, Zenon W. (1984). The Explanatory Role of Representation. In Computation and Cognition. Cambridge, MA: MIT Press, pp. 24-48.Résumépar Albert Lejeune

TRANSCRIPT

Page 1: Pylyshyn Explanatory Roles Résumé Par Albert Lejeune A2008

UQAM

Programme de doctorat en informatique cognitive

Cours DIC 8101

Pylyshyn, Zenon W. (1984). The Explanatory Role of Representation. In Computation and Cognition. Cambridge, MA: MIT Press, pp. 24-48.

Résumé

par

Albert Lejeune

Remis aux professeurs Jean-Guy Meunier et Pierre Poirier

Montréal, le 14 janvier 2009

Page 2: Pylyshyn Explanatory Roles Résumé Par Albert Lejeune A2008

Introduction

Pour exprimer certaines généralisations cognitives, nous devons nous référer à des représentations. Ces

généralisations, établies sur des contenus de représentations ne sont pas des généralisations

fonctionnelles (elles ne se réfèrent pas aux propriétés physiques du système mais à sa façon de

fonctionner). Il y a en fait deux niveaux distincts en plus du niveau physique : un niveau

représentationnel ou sémantique et un niveau de traitement de symboles (knowledge level et symbol

level pour Newell, 1982).

L’attrait des représentations

Des généralisations sous forme de lois ou des principes explicatifs peuvent se référer à des objets

appartenant à un système fermé ou un système ouvert, lors de la localisation d’un système dans un état

ou un espace de phase, dans des systèmes déterministes. Cependant, en tant que matérialistes, nous

devons nous interroger au sujet de régularités de comportement qui mentionnent des entités

extrinsèques mais non connectées au système (peut être même non existantes) dans un monde gouverné

par des lois physiques (ex : devant une situation d’urgence, une personne appelle le 911). On peut

parler du problème de Brentano. Mais Brentano n’y voyait pas d’issue. Moi je vois une solution à ce

puzzle dans la mesure où les causes d’un tel comportement sont des représentations internes des causes

apparentes, c'est-à-dire un code physique ou un symbole. Cette notion de représentation n’est

nécessaire que dans le cas d’une explication, quand le contenu de la représentation devient une partie

de l’explication. Si je veux expliquer ce que je fais maintenant, assis devant mon terminal,

alternativement frappant au clavier et pensant à d’autres choses : je vois le campus de Stanford; derrière

moi, se trouvent les collines de Santa Cruz et je me demande si je ne devrais y aller marcher après le

lunch. Mon comportement, mon écriture, est causée par mes pensées et mes buts. Mais mon chapitre

n’existe pas et je ne vois pas les collines. Mon comportement est causé par un certain état du cerveau.

La seule façon d’expliquer mon écriture sur les représentations et mes pensées sur les collines et la

marche est d’affirmer que ces états du cerveau sont reliés aux choses référées (l’écriture, la marche, les

collines)… alors que mes états du cerveau ne sont pas connectés de façon causale à la marche et aux

collines.

Les niveaux représentationnel et fonctionnel

Il n’est donc pas suffisant de donner une description fonctionnelle des processus mentaux, nous devons

aussi discuter le contenu de certains états de représentation. Autrement dit, pouvons-nous trouver des

différences dans des états fonctionnels sans qu’il y ait pour autant des différences de contenu? Il nous

faut donc relier les états fonctionnels et représentationnels. Ma position est celle-ci : se trouver dans un

certain état représentationnel implique l’existence d’une expression symbolique qui encode cette

représentation quelque part dans la mémoire. Ces symboles peuvent causer des changements de

comportement dans le système. Pour cela, ils doivent être interprétés par des mécanismes que nous

pouvons qualifier d’architecture fonctionnelle : ce sont les opérations de base fournies par le substrat

biologique (pour stocker, retrouver, comparer etc.). Ainsi, deux personnes possédant des mêmes buts et

croyances peuvent différer de vitesse et de précision pour retrouver une information. Ces faiblesses ou

échecs sont des preuves de cette architecture fonctionnelle. Le même état représentationnel peut

conduire à des comportements qui diffèrent : on parlera de généralisations de niveau sémantique pour

désigner le contenu sémantique des représentations et de généralisations de niveau symbolique quand

on se réfère aux propriétés fonctionnelles de l’architecture fonctionnelle.

Page 3: Pylyshyn Explanatory Roles Résumé Par Albert Lejeune A2008

Le contenu représentationnel définissant un niveau de description

Certains principes contraignent des transitions entre des états individués en termes de contenu alors que

ces principes ne s’appliquent pas à des états individués seulement par des fonctions. Tout cela est

accepté par les tenants de l’intentionnalité. Cependant ces derniers comprennent mal le principe de

rationalité; ceci nous pousse à croire qu’un niveau purement fonctionnel ne puisse capter certaines

généralisations et que, par conséquent, un autre niveau soit exigé.

Niveaux et contraintes dans la capacité de réalisation

L’argument principal justifiant l’existence de niveaux est qu’on ne puisse exprimer à un niveau

inférieur, des généralisations valides à un certain niveau. On peut faire une analogie avec la biologie.

Quand la biologie choisit comme domaine les ‘choses vivantes’, elle développe des principes qui vont

s’appliquer à toutes les entités de ce domaine, et seulement dans ce domaine. Mais il y a des principes

auxquels certains organismes vivants n’obéissent pas, tout en se qualifiant comme organismes vivants

(ex : lois de l’embryologie). La physique peut émettre une généralisation (un ensemble de contraintes)

sur ce qui est physiquement possible, mais si certaines classes de possibilités ne se réalisent pas, nous

pouvons faire appel à des généralisations fondées sur des principes à un autre niveau, que ce soit la

biologie, la génétique etc.… De la même façon, l’architecture fonctionnelle prédit que des choses sont

possibles au niveau symbolique, mais qu’elles ne se produisent pas nécessairement. Alors, pour les

comprendre il faut faire appel au niveau sémantique.

D’où vient l’interprétation sémantique?

Les représentations sémantiques ne sont pas littéralement la cause d’un changement de comportement

du système; seule la forme matérielle de la communication est efficace en termes de causalité. Si nous

affirmons vouloir G ou croire dans P, nous attribuons une causalité à une représentation mais ce n’est

pas le contenu qui provoque les choses, mais bien certains aspects physiques de l’état représentationnel.

Les états d’un ordinateur peuvent donner lieu à beaucoup d’interprétations sémantiques : des positions

au jeu d’échecs aux prévisions météo. Mais reste la question de savoir ce qui détermine ce que

représente un état particulier. On trouve des réponses dans les premières versions du mentalisme;

certaines écoles du béhaviorisme (béhavioristes de la médiation, certains neurophysiologistes)

expliquent également le contenu représentationnel. Cette discussion continue avec Searle (1980) qui

parle d’IA faible quand des analogies ne comportent ni n’expliquent les contenus d’états mentaux.

Mais je veux au contraire affirmer que la computation est un modèle littéral de l’activité mentale et non

une simulation de comportement. En fait savoir si la représentation réside dans la tête du théoricien ou

dans le modèle lui-même est la mauvaise question. La bonne question est : qu’est-ce qui fixe

l’interprétation sémantique des états fonctionnels? Quelle est la latitude du théoricien pour assigner

une interprétation sémantique aux états du système? Dans le cas d’un ordinateur programmé pour

interagir avec son environnement à l’aide de transducteurs, pour communiquer en langage naturel et

pour effectuer des inférences, quelle serait la latitude du théoricien lui permettant d’assigner des

interprétations cohérentes aux états fonctionnels? Peu ou pas. Les états fonctionnels posséderaient

alors leur contenu sémantique.

Finalement, je considère que la cognition humaine et certains ordinateurs partagent cette caractéristique

remarquable de moteurs sémantiques (Dennett, 1978) ou d’informavores (Miller, G. 1984).