Les sciences cognitives : (se) creuser la t?te pour trouver lĠesprit... Isabelle Tellier
"Quel ingénieur, à supposer qu'il puisse doter sa créature d'une raison, réussirait, même en employant tous les moyens de la science cybernétique, à la pourvoir de cette fleur de liberté, de ce don magique qu'on appelle caprice, et qui fait ramper les philosophes aux pieds d'une ballerine ?"
Marc Petit, Le Nain Géant
Stock, 1993

 
Les sciences cognitives sont à la mode dans le milieu universitaire et au-delà. Depuis quelques années, les chercheurs qui se réclament d'elles sont de plus en plus nombreux, et le dynamisme éditorial qu'elles inspirent ne se dément pas (voir la petite bibliographie proposée à la fin de cet article).
De quoi s'agit-il ? D'une approche multidisciplinaire (comme l'indique le pluriel qui semble s'imposer) de l'esprit humain, en tant qu'il est capable d'accéder à des connaissances (du latin cognoscere : connaître). Dans ce paysage, l'informatique occupe une place de choix. Certes, espérons-le, l'esprit humain n'a pas attendu l'ordinateur pour fonctionner ; mais ce dernier est un pourvoyeur de modèles et d'expérimentations irremplaçable. Même quand il n'intervient pas explicitement, il définit le cadre, et sans doute aussi les limites, de la plupart des travaux qui se rattachent aux sciences cognitives.
Comment et pourquoi en est-on arrivé là ? L'objectif de cet article est d'introduire brièvement à l'histoire, aux concepts et à la pratique d'un programme de recherche en pleine expansion, et d'en dégager les lignes de force et les implications.
Émergence historique
Préhistoire
Pour reconstituer l'histoire des sciences cognitives, on peut, comme le propose Howard Gardner[10], chercher dans les histoires respectives de chacune des principales disciplines qui les constituent (pour lui : philosophie, psychologie, intelligence artificielle et linguistique) les intérêts communs et les parallèles. On peut aussi choisir, avec Jean-Gabriel Ganascia[9], de se focaliser sur les ambitions, les déceptions et les progrès qui accompagnent la naissance et l'évolution de l'intelligence artificielle.
Tout le monde s'accorde néanmoins sur la reconnaissance de prestigieux aïeuls : Turing, qui en 1936 formalise avec sa fameuse machine abstraite (1) la notion de "procédure effective", et qui sera acteur, à la fin de la guerre, de la construction des premiers ordinateurs ; Shannon pour sa théorie mathématique de l'information ; Wiener, l'inventeur de la cybernétique, science visant à construire des machines dotées d'une finalité ; McCulloch et Pitts, enfin, auteurs en 1943 d'un article célèbre qui expose comment un réseau d'automates logiques peut simuler le comportement élémentaire de neurones.
L'impulsion est donc donnée par des théoriciens (mathématiciens, logiciens) et des ingénieurs. Leur objectif est de formaliser, de simuler, d'automatiser. Mais les perspectives ouvertes débordent rapidement les frontières disciplinaires établies, et une première série de rencontres tente de catalyser des énergies dispersées : entre 1946 et 1953, les conférences Macy réunissent à New York des chercheurs d'horizons divers. Les discussions portent sur le feed-back (ou rétroaction), l'auto-organisation, la communication... Elles sont riches, animées mais aussi pleines de malentendus[5]. Les bases techniques et intellectuelles des recherches à venir sont déjà là ; une culture et des réalisations communes restent encore à bâtir.
Convergences
L'été 1956 est marqué par la naissance officielle, à Dartmouth College, de l'intelligence artificielle (ou IA). La métaphore cerveau/ordinateur est ouvertement mise en avant : ce sont les fonctions supérieures de l'esprit humain (raisonnement, langage...) que l'on veut désormais modéliser. Si l'enthousiasme et les ambitions des informaticiens engagés dans cette aventure sont énormes, leurs concrétisations ne sont pas toujours à la hauteur. On pourrait résumer l'histoire de l'IA comme celle d'une prise de conscience progressive de la complexité des questions sous-jacentes à résoudre. Les premiers programmes tentent par exemple de mettre en oeuvre des méthodes universelles de résolution de problèmes. Ils ne sont en fait applicables qu'à des domaines prédéfinis stéréotypés. Progressivement, la discipline se morcelle en spécialités : traitement du langage (cf. plus loin), reconnaissance des formes, représentation des connaissances, raisonnements logiques..., et les chercheurs restreignent le domaine d'application de leurs réalisations. Les systèmes experts, vitrines de l'IA dans les années 70, sont le fruit de cette évolution. Malgré un bilan mitigé, l'IA a beaucoup apporté à l'informatique : définition de nouveaux langages de programmation (Lisp, Prolog), notion de recherche heuristique (c'est-à-dire n'aboutissant pas à coup sûr, mais cherchant le meilleur moyen de parvenir à une solution acceptable), définition d'architectures ou de structures de données riches et originales ("frames" de Minsky, "scripts" de Schank, réseaux sémantiques, "tableau noir"...).
Parallèlement à cette évolution, d'autres disciplines connaissent de profonds bouleversements. Ainsi, pendant la première moitié du siècle, la psychologie aux États Unis était dominée par le béhaviorisme. L'homme était alors assimilé à une boîte noire, et toutes les expériences le concernant étaient interprétées en termes de Stimulus-Réponse. En réaction contre cet assèchement, les chercheurs commencent, dans les années 50, à imaginer le contenu de la boîte noire. Ils s'inspirent pour cela de la théorie de l'information. La psychologie cognitive est le résultat de ce changement de perspective : elle s'attache à décrire l'esprit au travail comme une machine qui traite de l'information et se construit des représentations internes. Elle en propose des modèles et teste expérimentalement les prédictions inférées. Elle cherche en particulier à caractériser les processus de traitement et les représentations mis en jeu : leur nature, leurs propriétés, leurs relations, leur importance relative, leur caractère contrôlé ou automatique, leurs liens avec la (ou les) mémoire(s)...
Par ailleurs, la linguistique du début des années 60 voit l'apparition d'un nouveau venu, Noam Chomsky, qui promeut une approche radicalement nouvelle de sa discipline. Il accorde une grande importance à la syntaxe des langues, qu'il décrit dans des systèmes (ou grammaires) formel(le)s. Il s'intéresse aux points communs entre toutes les langues existantes et à leurs propriétés abstraites ; le langage est pour lui une abstraction idéale, mathématisable. Il adopte de plus une position résolument rationaliste et mentaliste en affirmant que les structures qu'il définit doivent être présentes dans l'esprit dès la naissance, pour permettre l'apprentissage du langage chez l'enfant.
Ces deux disciplines, qui abordent diverses compétences de l'esprit, se signalent donc par une rationalisation qui va dans le même sens : importance accordée à la modélisation, recherche de structures. L'IA s'intéresse aussi beaucoup aux structures formelles, et les programmes informatiques rendent possible la mise à l'épreuve des modèles explicites. Les rôles et les contributions de chacun se précisent donc. Les germes semés lors des conférences Macy ont portés des fruits : le terme de cognitive science apparaît au milieu des années 70 pour désigner les travaux inspirés par cette confluence.
Depuis lors, les sciences cognitives ne cessent de gagner du terrain. De nouvelles perspectives apparaissent maintenant du côté de la neurobiologie. Il s'agit cette fois d'observer, in vivo, le fonctionnement de la machinerie cérébrale. L'activité (électrique et chimique) des neurones est en effet beaucoup mieux connue depuis quelques années[2] et de nouvelles méthodes d'observation du cerveau (tomographie par émission de positons, imagerie par résonance magnétique...), s'ajoutant aux traditionnels électroencéphalogrammes, en donnent de saisissantes images. Ces progrès inspirent en retour de nouveaux modèles informatiques dits "connexionnistes", héritiers des premiers "neurones formels" de McCulloch et Pitts et d'analogies fructueuses avec la physique statistique. Avec eux, le "centre de gravité" des sciences cognitives se déplace vers des modèles plus proches de la biologie. Mais l'intégration de cette nouvelle approche au sein du cadre théorique initial est délicate. Pour mieux le comprendre, il est temps de préciser les principaux concepts qui fédèrent les sciences cognitives.
Concepts fondamentaux
Codage et traitement de l'information
Les informaticiens et les psychologues engagés dans les sciences cognitives partagent la conviction que penser, c'est traiter de l'information. Depuis Shannon, la notion d'information est quantifiable par des outils statistiques. Quant aux traitements possibles, ils sont définis par les capacités d'une machine de Turing universelle, autrement dit ils se confondent avec tout ce qui est exprimable par des algorithmes. Comment cela rend-il possible le parallèle entre cerveau et ordinateur ?
L'être humain puise dans son environnement une énorme quantité d'informations ; ses sens sont toujours sollicités. Mais, pour arriver jusqu'au cerveau, elles doivent subir un (ou plusieurs) codage(s) électrique(s) ou chimique(s) : le cerveau ne reçoit d'une image rétinienne que les impulsions transmises par le nerf optique... Or, la notion mathématique d'information sert à caractériser ce qu'il y a de commun entre plusieurs versions codées d'un même message. Il est donc théoriquement possible de donner à un ordinateur une somme d'informations équivalente à celle que reçoit un cerveau humain, mais codée différemment. Pour l'un comme pour l'autre, cette information se présente sous une forme symbolique. La seule différence (mais de taille !) est que l'organisme humain effectue lui-même l'opération de codage, alors qu'elle doit être fournie extérieurement (c'est-à-dire humainement) à la machine. De plus, dans les ordinateurs, les codages analogiques sont exclus au profit des seuls symboles discrets.
A cette première abstraction sur les données informationnelles, en correspond une deuxième sur leur mode de traitement. Tout système qui effectue des opérations sur des symboles discrets en suivant des règles explicites peut en effet être décrit comme la réalisation d'une certaine machine de Turing (cf. Note 1), d'un certain algorithme. Si l'esprit humain est bien un processus de traitement de l'information, alors il est au cerveau ce que le programme est à l'ordinateur. La seule différence, ici encore, est qu'il s'est en quelque sorte "programmé lui-même".
La notion de représentation
Comment se présente l'information, une fois traitée ? Comment peut-elle être stockée en mémoire sous une forme qui la rendra à nouveau disponible ultérieurement ? La notion de représentation interne a émergé progressivement pour répondre à ces questions. Selon Howard Gardner[10], c'est une des idées clés de la "révolution cognitive".
En psychologie, les représentations sont des structures abstraites construites lors de la réalisation d'une tâche cognitive par un individu. Elles peuvent être circonstancielles, transitoires, ou au contraire être stockées en mémoire à long terme, auquel cas elles sont intégrées aux conceptions, connaissances, croyances... de cet individu. Elles constituent finalement les entrées et sorties des processus de traitement, sauf de ceux qui sont directement branchés sur les canaux sensoriels. A l'heure actuelle, deux formats principaux de représentations sont étudiés chez l'homme : celles de nature propositionnelles, dont la structure est conforme à celle du langage, servent à stocker des faits ou des énoncés, tandis que les images mentales, analogiques et fortement spatialisées, permettent par exemple de coder des formes, des figures...
Dans ce cadre, comprendre quelque chose, c'est s'en construire une représentation. Les informaticiens ont parfaitement assimilé la leçon puisque, pour eux aussi, comprendre l'esprit équivaut à en construire un modèle. La méthodologie des sciences cognitives est conforme à ces principes explicatifs. La représentation des connaissances est par ailleurs, depuis le milieu des années 70, une branche très active de l'IA. La construction de logiciels intégrant un grand nombre de données a en effet mis en évidence la nécessité de les structurer. Les représentations symboliques nées de cet effort (langages logiques, "frames", graphes conceptuels...) sont toutes de nature propositionnelles. Il est bien difficile de dire, à l'heure actuelle, si elles sont un reflet crédible de celles manipulées par l'esprit.
Le fonctionnalisme
À défaut d'une illusoire identité de fonctionnement, le cerveau et l'ordinateur partagent une même structure fonctionnelle. Cette manière abstraite, formelle, d'aborder l'architecture et l'activité de l'esprit, indépendamment du substrat biologique qui lui donne naissance, est le mode de réflexion privilégié des philosophes dits fonctionnalistes.
Putman en est sans doute le premier représentant. Dans un article pionnier de 1960, il développe le parallélisme entre les états mentaux humains et les états logiques des machines de Turing (bien qu'il soit, par la suite, revenu sur ses premières positions). Fodor, pour sa part, propose en 1983 une organisation de l'esprit en "modules" et Dennett, dans ses écrits les plus récents[4], tente d'expliquer la conscience par l'effet du travail parallèle d'une multitude d'agents, un peu à la manière de ce qu'avait aussi envisagé Minsky[13].
Les progrès scientifiques liés aux sciences cognitives ouvrent donc la voie à une nouvelle et féconde philosophie de l'esprit[7]. A l'origine de ces travaux, se trouve le problème du rapport entre les états mentaux et les états physiques du cerveau, dernier avatar du fameux mind-body problem hérité du dualisme cartésien.
Pour de nombreux neurologues, en effet, les états mentaux sont identiques aux états biologiques du cerveau, "l'homme n'a plus rien à faire de l'Esprit, il lui suffit d'être un Homme Neuronal"[2]. C'est une position réductionniste, voire éliminativiste, si l'on estime que la biologie doit, à terme, se substituer à la psychologie.
Pour les fonctionnalistes en revanche, les états mentaux, bien que réalisés par des états physiques, constituent une classe de phénomènes qu'il est légitime d'étudier pour eux-mêmes, Cette philosophie s'efforce donc généralement de promouvoir un matérialisme non réductionniste : l'esprit naît de la matière, mais sa description ne peut se réduire à une explication de nature purement physique ou biologique ; elle est indissociable d'un "niveau symbolique".
Le programme connexionniste
La théorie évoquée jusqu'à présent est essentiellement celle du cognitivisme, qui postule l'indépendance du niveau symbolique du traitement de l'information. Une telle approche de la cognition se passe apparemment très bien de la biologie. A quoi bon, en effet, observer des transferts électriques ou chimiques à l'intérieur du cerveau si on ne sait rien de leur signification, autrement dit si on ignore quelle(s) donnée(s) ou quel((s) traitement(s) ils codent ?
Une question essentielle reste pourtant posée : comment le sens vient-il aux symboles ? Où réside la signification des codages ?
Les modèles "(néo)-connexionnistes" proposent une solution nouvelle à ce problème. Les programmes informatiques nés de cette école traitent l'information à l'aide d'un réseau de cellules élémentaires interconnectées, plutôt que par un contrôle centralisé. Des "coefficients synaptiques" évaluent chaque connexion entre cellules. Ces réseaux sont généralement conçus en plusieurs couches : une première couche joue le rôle d'interface avec les stimuli du monde extérieur et propage les perturbations vers les couches suivantes. Chaque cellule réagit individuellement : suivant le résultat d'un calcul combinant les impulsions qu'elle reçoit des couches précédentes avec les coefficients synaptiques correspondants, elle peut à son tour envoyer ou non une excitation aux cellules des couches suivantes. Au bout d'un certain temps, et après une phase d'apprentissage qui sert à fixer la valeur des coefficients, le réseau se stabilise ou passe par des états périodiques. C'est cette configuration émergente globale qui constitue la réponse du système aux stimuli initiaux, qui les "représente", les code.
Cette architecture s'inspire explicitement (on parle de "réseaux neuronaux") de celle du cerveau. De fait, elle parvient à simuler, beaucoup mieux que ne le font les programmes séquentiels traditionnels, certaines fonctions d'apprentissage ou de perception, en particulier dans les domaines du traitement d'images ou de la reconnaissance de formes. De plus, si le réseau est altéré ou partiellement détruit, il fournit alors des résultats comparables à ceux que donne un cerveau qui a subi une lésion.
Pour les "cognitivistes", le cerveau se comporte comme un ordinateur : il résout des problèmes en manipulant des symboles. L'approche "connexionniste" inverse le sens de la métaphore : cette fois, on cherche à faire en sorte que l'ordinateur ressemble au cerveau ; l'organisation du substrat physique n'est plus négligé. Mais si les logiciels produits sont différents, ils fonctionnent pour l'instant tous sur les mêmes machines. Le niveau auquel se place la simulation est simplement différent dans les deux cas. Il conditionne aussi les domaines étudiés et les avancées obtenues : avec des symboles, on reproduit bien les fonctions abstraites comme le raisonnement, tandis que les réseaux se spécialisent dans le traitement des données perceptives ou la simulation de mémoires associatives. Suivant que l'on s'intéresse à l'apprentissage d'une fonction ou à son exécution, une fois définitivement acquise, l'un ou l'autre modèle sera privilégié.
Le programme connexionniste, en pleine expansion, donne un peu plus d'autonomie à la machine. En écho au projet cybernétique, il modélise l'auto-organisation, l'auto-structuration, l'émergence du sens. Mais l'architecture du réseau, définie au départ par le programmeur, est encore largement conditionnée par la fonction très spécialisée qu'il devra réaliser. L'avenir est peut-être aux systèmes "hybrides", qui combinent les deux techniques : par exemple, chaque configuration émergente stable d'un réseau peut être associée à un symbole qui pourra ensuite être manipulé comme tel. Le chantier ainsi engagé est immense, et la communauté des chercheurs en sciences cognitives est encore partagée sur la route à suivre.
Un exemple : le langage
Pour prouver le mouvement, il n'est que de marcher. Afin de mieux appréhender les sciences cognitives, illustrons donc les méthodes de travail des chercheurs sur le thème, transversal par excellence, de la compréhension et de la production des langues dites "naturelles" (comme le français, par opposition aux langages informatiques) par l'esprit et par l'ordinateur.
Quelques notions de linguistique
L'usage du langage est caractéristique de l'espèce humaine : on ne connaît pas de société sans langage, ni de langage hors de la compagnie des hommes. Les langues naturelles sont fondamentalement plus complexes que les moyens de communication utilisés par les animaux parce que, pour reprendre la terminologie du linguiste André Martinet, elles sont toutes "doublement articulées". La première articulation est lexicale : elle rend possible la construction d'autant de mots que l'on veut à partir d'un nombre fixe de sons élémentaires ou "phonèmes". La deuxième articulation, celle de la syntaxe, régit la combinaison des mots entre eux et autorise une production potentiellement infinie de phrases.
Mais le langage est aussi et surtout un formidable outil qui entretient des relations étroites avec la pensée et qui permet de représenter, c'est-à-dire de "rendre présent", par évocation, ce qui est imaginaire ou ailleurs dans l'espace ou le temps. Étudier comment des combinaisons complexes de sons ou de mots peuvent porter du sens relève du domaine de la sémantique.
Les processus de compréhension et de production du langage nécessitent donc la maîtrise de différents niveaux : lexical, syntaxique et sémantique. Les sciences cognitives essaient de recenser et de simuler les fonctions mises en jeu lors de l'exécution de ces processus.
Comment fait l'esprit humain ?
Dans la plus banale conversation, chacun est capable, très rapidement, de comprendre ce que lui dit son interlocuteur et de prendre à son tour la parole. Quels traitements l'esprit doit-il réaliser pour que cela soit possible ? Le schéma 1 en donne une première approximation.
Les rectangles de ce schéma sont des processus de traitement, des fonctions, tandis que les ovales symbolisent des représentations statiques. Les flèches indiquent le sens de circulation de l'information (un diagramme plus complet devrait aussi inclure des flèches entre la mémoire et les processus d'analyse et de synthèse). Le schéma 1, bien que très simplifié et abstrait (par exemple, les processus auditifs et articulatoires n'y apparaissent pas), illustre néanmoins comment la "boîte noire" de l'esprit accomplissant une tâche précise est décomposable en constituants plus élémentaires. Tant que les processus qui interviennent ne sont pas totalement explicites, c'est-à-dire tant qu'ils ne peuvent s'exprimer sous forme d'algorithmes, ils sont d'ailleurs eux-mêmes également décomposables. Mais comment construire, tester et valider un tel modèle ? Diverses approches y contribuent.

Schéma 1

Les premières données, historiquement, proviennent de l'observation de patients atteints d'aphasie, c'est-à-dire de troubles du langage. Cette pathologie apparaît sous plusieurs formes : l'aphasie de Wernicke est sensorielle ou "de réception", celle de Broca est "motrice" ou "d'expression" et toutes deux s'accompagnent parfois d'une incapacité à avoir accès à du sens. De telles perturbations sont explicables par le dysfonctionnement spécifique d'une ou de plusieurs fonctions intervenant dans notre modèle. Depuis la fin du XIXème siècle, on sait aussi qu'elles sont liées à la présence de lésions dans des régions précises du cerveau, ce qui plaide pour une inscription biologique particulière de chacune de ces fonctions.
Mais, pendant longtemps, seule l'autopsie post-mortem permettait de le vérifier. A l'heure actuelle, les nouvelles méthodes d'imagerie fonctionnelle rendent possible la visualisation de l'activité cérébrale de sujets vivants, souffrants ou non. Les zones du cerveau successivement actives lors de l'exécution d'une tâche quelconque sont alors repérables. Une neurobiologie fonctionnelle voit donc le jour, cherchant à mettre en correspondance ce que fait le cerveau et comment il le fait. Elle contribue à identifier et à localiser les ressources mentales mises en oeuvre lors d'une l'expérience. Mais ses résultats sont encore bornés par les limites de résolution temporelle et/ou spatiale de ses moyens d'observation.
Une troisième voie, sans doute moins coûteuse en matériel sophistiqué, est explorée par les psychologues (les psycholinguistes, en l'occurrence). C'est surtout à eux que l'on doit la définition de schémas "fonctionnalistes" comme celui proposé : un tel modèle constitue le point de départ de leur démarche hypothético-déductive. Sa validation passe ensuite par des expériences où rien n'est laissé au hasard, et donnant lieu à des mesures quantitatives. Par exemple, on pourra mesurer le temps que met un sujet pour décider si un stimulus auditif est un mot ou non (décision lexicale), ou bien est une phrase correctement formée ou non (décision syntaxique). Les résultats obtenus aident à préciser le schéma initial, à fixer la valeur de paramètres. Ainsi, l'ordre dans lequel s'effectuent les différentes opérations, l'influence d'un traitement sur un autre, ce qui modifie un temps d'exécution... sont analysés avec rigueur.
Ces diverses techniques d'observation apportent chacun leur propre éclairage sur un même phénomène, éminemment complexe et encore loin d'être élucidé. Mais, dans l'esprit des sciences cognitives, la compréhension de ce phénomène passe aussi par sa simulation.
Comment faire faire à la machine ?
Afin de construire leurs programmes, les informaticiens s'aident aussi de diagrammes comme celui proposé dans le schéma 1. Leur travail consiste alors à expliciter le modèle, c'est-à-dire à trouver des équivalents informatiques aux constituants qui y interviennent : les "représentations" doivent être traduites en structures de données, et les "processus" en algorithmes. Ils s'inspirent pour cela des travaux de plus en plus précis des linguistes. Quelles ont été les réalisations marquantes dans ce domaine ?
Dès le début de l'IA, le traitement informatique du langage naturel apparaît comme un défi à relever. Dans un premier temps, les efforts se portent sur la reconnaissance des mots (l'analyse lexicale) appliquée à la traduction automatique. La légende prétend qu'un programme de traduction anglais-russe et russe-anglais des années 60 aurait transformé la sentence "la chair est faible mais l'esprit est fort", après passage par le russe et retour à l'anglais, en une autre non moins définitive : "La viande est pourrie mais la vodka est bonne"... A la même époque, d'autres programmes naissent, eux aussi fondés sur le principe des mots clés. Ils ne font pas illusion très longtemps (c'est le cas du fameux faux psychanalyste ELIZA).
Une langue ne se réduit évidemment pas à une liste de mots, à un simple dictionnaire. L'orientation "syntaxique" que Chomsky fait prendre à la linguistique influence bientôt les recherches. De nombreux formalismes grammaticaux sont définis et implémentés : ils servent à caractériser de manière mathématique les agencements de mots qui constituent une phrase grammaticalement correcte. Mais ils sont trop rigides, trop limités encore, et ils ne disent rien de ce dont parle la phrase analysée. Pour expliciter une langue, en effet, il faut aussi expliciter ce qu'elle désigne ; il faut donc disposer d'un modèle du monde. Winograd, auteur en 1972 d'un célèbre programme nommé SHRDLU l'avait parfaitement compris : les échanges langagiers qui y étaient pris en compte concernaient seulement un "micro-monde" de cubes et de blocs géométriques aisément modélisable.
Les recherches des années 70 mettent l'accent sur la représentation des connaissances et la sémantique. Les énoncés sont replacés dans leur contexte, rangés dans des "cadres" ("scripts" ou "frames"). Cela ne va pas non plus sans déconvenue : on dit qu'un jour, un programme conçu pour résumer automatiquement des articles de journaux et ayant à traiter un texte commençant par "La mort du Pape secoue l'hémisphère occidental" produisit : "Tremblement de terre dans l'hémisphère occidental. Un mort : le Pape.". Fatale erreur de "cadrage"... Néanmoins, les propositions de structuration de la mémoire sous forme de "réseaux sémantiques" sont l'occasion de validations psychologiques encourageantes.
Les travaux actuels sont sans doute plus modestes que leurs prédécesseurs ; la complexité du problème n'est plus négligée. Les modèles à l'étude ne se limitent plus à la phrase, ils s'intéressent à la structure des discours. On cherche aussi à comprendre les "intentions" qui se cachent derrière ce qui est dit, et à interpréter correctement les phénomènes de métaphores, de polysémies, d'anaphores (par exemple les références pronominales) ou d'ellipses, si usuelles dans le langage courant. La tâche est rude, beaucoup de travail reste à faire.
La critique philosophique
Un tel programme de recherche a-t-il des chances d'aboutir un jour ? Dans un article important de 1980, le philosophe américain John Searle dénie toute forme de compréhension aux programmes informatiques chargés de traiter le langage. Son argument se fonde sur l'expérience de pensée de la "chambre chinoise" : imaginons donc, dit-il, que je sois enfermé dans une pièce, disposant seulement d'un jeu complet de caractères chinois (langue dont je ne connais rien) et d'un manuel rédigé dans ma langue maternelle. La pièce ne communique avec l'extérieur que par l'intermédiaire des caractères chinois. Étant dedans, je reçois donc (par une interface quelconque) des séries ordonnées de caractères et, en suivant scrupuleusement les instructions détaillées de mon manuel, j'y réponds de même. De l'extérieur de la pièce, on peut avoir l'impression qu'un dialogue en chinois s'est établi. Pourtant, je ne comprends rien aux symboles que j'utilise ; je ne fais qu'exécuter les instructions du manuel (qui représente, bien sûr, le programme informatique). Pour Searle, donc, la manipulation de symboles formels n'a rien à voir avec une réelle compréhension. Comme il aime à le souligner, les états mentaux ne se réduisent pas à des opérations abstraites : ils ont la propriété d'être "intentionnels" c'est-à-dire de faire référence à autre chose qu'à eux-mêmes, d'être "à propos de" quelque chose d'autre.
Cet argument très fort contre le cognitivisme classique est encore d'actualité. Pour le contrer, certains mettent leurs espoirs dans les réseaux neuronaux, qui commencent à avoir des applications intéressantes. Par ailleurs, une "linguistique cognitive" se développe : elle s'écarte du formalisme strict pour privilégier l'étude du langage en tant que production humaine incarnée, en relation avec d'autres facultés cognitives. Le langage est si souple et si fluctuant qu'il semble de plus en plus difficile de le réduire à un simple code. Pour le modéliser, il ne suffit pas d'expliciter sa structure interne (lexicale et syntaxique), ni ce qu'il permet de dire (sa sémantique), il faut aussi s'intéresser à ses conditions de production (ce qu'on appelle la pragmatique), et à la façon dont il reflète comment le monde est perçu, catégorisé et conceptualisé par l'esprit. Une coopération entre disciplines s'impose plus que jamais.
Quel que soit le domaine d'étude observé, le panorama des méthodes, des outils et des difficultés rencontrées aurait pris la même tournure. Le langage nous a paru exemplaire, parce qu'il concerne tous les champs des sciences cognitives. Nous sommes maintenant suffisamment armés pour considérer, en connaissance de cause, les frontières auxquelles se heurtent ces travaux.
Les limites
Le corps et les émotions
Les chercheurs en IA ont longtemps négligé les phénomènes perceptifs ou moteurs, apparemment élémentaires, pour ne s'intéresser qu'aux opérations abstraites, "nobles", de la pensée, paradoxalement plus faciles à modéliser. L'intelligence humaine, pourtant, est fortement située, ancrée dans des contraintes biologiques, dans un corps, un environnement et un contexte social.
Certaines lésions cérébrales peuvent provoquer des déficits sensoriels ou comportementaux des plus surprenants[15]. Des recherches neuropsychologiques récentes tendent aussi à prouver que même les processus apparemment rationnels chez l'homme, comme la prise de décision, ne fonctionnent correctement qu'en lien avec les émotions et l'affectivité[3]. L'esprit n'est pas aussi indépendant du corps que le voudraient bien les informaticiens.
Les robots sont-ils l'avenir des ordinateurs ? A l'heure actuelle, on les munit de multiples capteurs, leur donnant ainsi un peu plus de prises sur leur environnement. À travers le projet de la "vie artificielle", on cherche aussi à les rendre plus autonomes. Mais la perception sensorielle et la sensation ne sont sans doute pas de même nature que la résolution de problèmes.
Les tenants d'une science "énactive"[16] ou constructiviste vont jusqu'à remettre en cause la notion de traitement de l'information et de représentation interne, et à faire dépendre toutes les facultés cognitives d'interactions avec l'extérieur. Pour eux, la cognition est indissociable de la vie, définie comme l'ensemble des processus physiologiques par lesquels les organismes se produisent eux-mêmes en permanence. Sans la motivation essentielle de la survie, l'apprentissage est vain. Peut-être que tant qu'elles ne craindront pas d'être débranchées, les machines ne feront aucun progrès significatif...
Plusieurs philosophes, en général inspirés par la phénoménologie et l'existentialisme, ont aussi pris appui sur l'importance du corps et du vécu personnel pour nier la portée des travaux menés en sciences cognitives. Les domaines du subjectif, de l'affectif, ne trouvent pas leur place dans la vision de l'homme qu'elles nous proposent. Le plaisir et la douleur, par exemple, ne sont pas des connaissances comme les autres : on ne sait pas que l'on a mal, on a mal, tout simplement. La conscience phénoménale, celle du vécu individuel, est irréductible à une description objective extérieure en termes de manipulation de symbole.
La psychologie cognitive se heurte aussi aux traditions héritées de la psychanalyse. En France, les psychologues cognitivistes ont du mal à établir un dialogue avec leurs collègues "cliniciens". Leurs outils d'analyse sont performants, mais ils proposent encore peu de solutions thérapeutiques.
Les ordinateurs sont sans doute trop parfaits ; ils ont "de la mémoire mais pas de souvenirs", comme le dit le personnage joué par Michel Serrault dans le film Nelly et Mr. Arnaud. Il leur manque les joies, les douleurs et les émotions de l'incarnation sans quoi une intention, une motivation ou un désir n'a aucune raison d'être (2).
Le mystère de la conscience
Une "science de la conscience" peut-elle naître dans le sillage des sciences cognitives ? Certains chercheurs prennent maintenant ce thème très au sérieux. Leur espoir se fonde sur l'approfondissement de nos connaissances neurobiologiques[6] ou sur une simulation informatique particulièrement subtile et puissante[12]. Une des caractéristiques fondamentale de la conscience généralement prise en compte dans ces premières approches est son pouvoir "auto-réflexif". Les premiers modèles proposés ne sont donc pas avares de "boucles réentrantes" ou de programmes récursifs, s'appliquant à eux-mêmes.
Mais, dans le cadre des sciences cognitives, on se doit surtout de se demander quelle est la fonction de la conscience. A-t-elle un " pouvoir causal " sur les autres fonctions mentales ? Dans ce cas, elle joue un rôle comparable à un "méta-programme" grand ordonnateur de processus. Il se pourrait aussi qu'elle ne soit qu'épiphénomène illusoire, ne faisant qu'accompagner le travail effectif démultiplié de l'esprit[4]. Dans leurs expériences au quotidien, ni les psychologues ni les informaticiens n'ont vraiment besoin d'y faire référence. La conscience sera-t-elle encore longtemps le "point aveugle" des théories de l'esprit ? Disposons-nous même des outils matériels et conceptuels nécessaires pour aborder le problème[14] ? Le débat est vif et sans doute loin d'être clos. Il engage tous les acteurs des sciences cognitives.
Conclusion
L'émergence des sciences cognitives est le fruit de l'évolution parallèle de plusieurs disciplines qui, jusque là, n'avaient pas l'habitude de communiquer entre elles. Elles sont, pour la première fois depuis longtemps, l'occasion de rencontres entre cultures scientifiques et philosophiques. Même si les travaux vraiment pluridisciplinaires sont encore rares, des objets d'étude communs ont été définis, des concepts partagés. Tous les chercheurs concernés ont vu leur démarche évoluer, sinon se renouveler profondément à leur contact.
L'enjeu est considérable : au-delà des simples programmes de recherche techniques, les sciences cognitives sont porteuses d'un projet anthropologique, d'une nouvelle définition de l'homme. Les réductionnismes mécanistes ou neurologiques guettent.
Pourtant, plus la modélisation avance, plus le modèle humain semble s'éloigner. Il est tentant de définir l'esprit comme, précisément, ce qui manque encore à toutes les simulations. Il se pourrait que, à l'instar de la théologie négative du Moyen-Age, qui se résignait à ne cerner son objet d'étude, Dieu, que par ce qu'il n'est pas, les sciences cognitives n'arrivent aussi qu'à une caractérisation par défaut de l'homme. Ce serait un premier résultat intéressant, en en attendant d'autres...

Notes

  1. Une "machine de Turing" est un dispositif pouvant passer par un nombre fini d'états. Il inclut aussi un ruban infini séparé en cases - chaque case pouvant recevoir un symbole -, une tête de lecture/écriture du ruban et une table. Une configuration de la machine est définie par son état et le contenu de la case du ruban en train d'être lue. La table établit, pour chaque configuration possible (il y en a un nombre fini), celle qui sera la suivante et la case adjacente du ruban (à droite ou à gauche de la précédente) qui sera ensuite considérée. La donnée d'un état initial, d'un ruban, d'une case de départ et d'une table détermine univoquement le fonctionnement de la machine jusqu'à un "état final". Ce mécanisme très simple modélise tout processus "calculable", tout algorithme.
  2. Sur ce thème, on pourra lire par exemple le roman de Dino Buzzati intitulé : L'image de pierre, Collection 10/18. Il met en scène un super-ordinateur que ses créateurs ont réussi à doter d'une "âme", mais qui souffre de ne pas avoir de corps...

Petite bibliographie commentée