pylyshyn explanatory roles résumé par albert lejeune a2008
DESCRIPTION
Pylyshyn, Zenon W. (1984). The Explanatory Role of Representation. In Computation and Cognition. Cambridge, MA: MIT Press, pp. 24-48.Résumépar Albert LejeuneTRANSCRIPT
UQAM
Programme de doctorat en informatique cognitive
Cours DIC 8101
Pylyshyn, Zenon W. (1984). The Explanatory Role of Representation. In Computation and Cognition. Cambridge, MA: MIT Press, pp. 24-48.
Résumé
par
Albert Lejeune
Remis aux professeurs Jean-Guy Meunier et Pierre Poirier
Montréal, le 14 janvier 2009
Introduction
Pour exprimer certaines généralisations cognitives, nous devons nous référer à des représentations. Ces
généralisations, établies sur des contenus de représentations ne sont pas des généralisations
fonctionnelles (elles ne se réfèrent pas aux propriétés physiques du système mais à sa façon de
fonctionner). Il y a en fait deux niveaux distincts en plus du niveau physique : un niveau
représentationnel ou sémantique et un niveau de traitement de symboles (knowledge level et symbol
level pour Newell, 1982).
L’attrait des représentations
Des généralisations sous forme de lois ou des principes explicatifs peuvent se référer à des objets
appartenant à un système fermé ou un système ouvert, lors de la localisation d’un système dans un état
ou un espace de phase, dans des systèmes déterministes. Cependant, en tant que matérialistes, nous
devons nous interroger au sujet de régularités de comportement qui mentionnent des entités
extrinsèques mais non connectées au système (peut être même non existantes) dans un monde gouverné
par des lois physiques (ex : devant une situation d’urgence, une personne appelle le 911). On peut
parler du problème de Brentano. Mais Brentano n’y voyait pas d’issue. Moi je vois une solution à ce
puzzle dans la mesure où les causes d’un tel comportement sont des représentations internes des causes
apparentes, c'est-à-dire un code physique ou un symbole. Cette notion de représentation n’est
nécessaire que dans le cas d’une explication, quand le contenu de la représentation devient une partie
de l’explication. Si je veux expliquer ce que je fais maintenant, assis devant mon terminal,
alternativement frappant au clavier et pensant à d’autres choses : je vois le campus de Stanford; derrière
moi, se trouvent les collines de Santa Cruz et je me demande si je ne devrais y aller marcher après le
lunch. Mon comportement, mon écriture, est causée par mes pensées et mes buts. Mais mon chapitre
n’existe pas et je ne vois pas les collines. Mon comportement est causé par un certain état du cerveau.
La seule façon d’expliquer mon écriture sur les représentations et mes pensées sur les collines et la
marche est d’affirmer que ces états du cerveau sont reliés aux choses référées (l’écriture, la marche, les
collines)… alors que mes états du cerveau ne sont pas connectés de façon causale à la marche et aux
collines.
Les niveaux représentationnel et fonctionnel
Il n’est donc pas suffisant de donner une description fonctionnelle des processus mentaux, nous devons
aussi discuter le contenu de certains états de représentation. Autrement dit, pouvons-nous trouver des
différences dans des états fonctionnels sans qu’il y ait pour autant des différences de contenu? Il nous
faut donc relier les états fonctionnels et représentationnels. Ma position est celle-ci : se trouver dans un
certain état représentationnel implique l’existence d’une expression symbolique qui encode cette
représentation quelque part dans la mémoire. Ces symboles peuvent causer des changements de
comportement dans le système. Pour cela, ils doivent être interprétés par des mécanismes que nous
pouvons qualifier d’architecture fonctionnelle : ce sont les opérations de base fournies par le substrat
biologique (pour stocker, retrouver, comparer etc.). Ainsi, deux personnes possédant des mêmes buts et
croyances peuvent différer de vitesse et de précision pour retrouver une information. Ces faiblesses ou
échecs sont des preuves de cette architecture fonctionnelle. Le même état représentationnel peut
conduire à des comportements qui diffèrent : on parlera de généralisations de niveau sémantique pour
désigner le contenu sémantique des représentations et de généralisations de niveau symbolique quand
on se réfère aux propriétés fonctionnelles de l’architecture fonctionnelle.
Le contenu représentationnel définissant un niveau de description
Certains principes contraignent des transitions entre des états individués en termes de contenu alors que
ces principes ne s’appliquent pas à des états individués seulement par des fonctions. Tout cela est
accepté par les tenants de l’intentionnalité. Cependant ces derniers comprennent mal le principe de
rationalité; ceci nous pousse à croire qu’un niveau purement fonctionnel ne puisse capter certaines
généralisations et que, par conséquent, un autre niveau soit exigé.
Niveaux et contraintes dans la capacité de réalisation
L’argument principal justifiant l’existence de niveaux est qu’on ne puisse exprimer à un niveau
inférieur, des généralisations valides à un certain niveau. On peut faire une analogie avec la biologie.
Quand la biologie choisit comme domaine les ‘choses vivantes’, elle développe des principes qui vont
s’appliquer à toutes les entités de ce domaine, et seulement dans ce domaine. Mais il y a des principes
auxquels certains organismes vivants n’obéissent pas, tout en se qualifiant comme organismes vivants
(ex : lois de l’embryologie). La physique peut émettre une généralisation (un ensemble de contraintes)
sur ce qui est physiquement possible, mais si certaines classes de possibilités ne se réalisent pas, nous
pouvons faire appel à des généralisations fondées sur des principes à un autre niveau, que ce soit la
biologie, la génétique etc.… De la même façon, l’architecture fonctionnelle prédit que des choses sont
possibles au niveau symbolique, mais qu’elles ne se produisent pas nécessairement. Alors, pour les
comprendre il faut faire appel au niveau sémantique.
D’où vient l’interprétation sémantique?
Les représentations sémantiques ne sont pas littéralement la cause d’un changement de comportement
du système; seule la forme matérielle de la communication est efficace en termes de causalité. Si nous
affirmons vouloir G ou croire dans P, nous attribuons une causalité à une représentation mais ce n’est
pas le contenu qui provoque les choses, mais bien certains aspects physiques de l’état représentationnel.
Les états d’un ordinateur peuvent donner lieu à beaucoup d’interprétations sémantiques : des positions
au jeu d’échecs aux prévisions météo. Mais reste la question de savoir ce qui détermine ce que
représente un état particulier. On trouve des réponses dans les premières versions du mentalisme;
certaines écoles du béhaviorisme (béhavioristes de la médiation, certains neurophysiologistes)
expliquent également le contenu représentationnel. Cette discussion continue avec Searle (1980) qui
parle d’IA faible quand des analogies ne comportent ni n’expliquent les contenus d’états mentaux.
Mais je veux au contraire affirmer que la computation est un modèle littéral de l’activité mentale et non
une simulation de comportement. En fait savoir si la représentation réside dans la tête du théoricien ou
dans le modèle lui-même est la mauvaise question. La bonne question est : qu’est-ce qui fixe
l’interprétation sémantique des états fonctionnels? Quelle est la latitude du théoricien pour assigner
une interprétation sémantique aux états du système? Dans le cas d’un ordinateur programmé pour
interagir avec son environnement à l’aide de transducteurs, pour communiquer en langage naturel et
pour effectuer des inférences, quelle serait la latitude du théoricien lui permettant d’assigner des
interprétations cohérentes aux états fonctionnels? Peu ou pas. Les états fonctionnels posséderaient
alors leur contenu sémantique.
Finalement, je considère que la cognition humaine et certains ordinateurs partagent cette caractéristique
remarquable de moteurs sémantiques (Dennett, 1978) ou d’informavores (Miller, G. 1984).