ALAN TURING ET LE JEU DE L'IMITATION

De
Publié par

Niveau: Secondaire, Lycée, Première
ALAN TURING ET LE JEU DE L'IMITATION Patrick Goutefangea Avec le « jeu de l'imitation », Turing imagine une méthode pour décider si une machine « peut penser ». Il montre que la défini- tion théorique de la machine qu'il a lui-même donnée en 1936- 1937 n'interdit pas l'hypothèse qu'une machine conforme à cette définition puisse l'emporter au jeu. Ce faisant, il n'aborde ni un problème technique, ni un problème de logique théorique, mais s'avance sur le terrain d'une philosophie que l'on qualifiera de « continentale » : pour l'emporter au jeu, la machine doit s'ex- primer à la première personne et être pour son adversaire un semblable. La machine victorieuse doit être élevée à la pleine dignité du sujet de la philosophie classique. E n 1950, Turing, dans Les Ordinateurs et l'Intelligence1, examinela question « Les machines peuvent-elles penser ? », et propose d'y répondre, de manière assez déconcertante, en substituant à la question pro- prement dite une expérience alors impossible à mener : le célèbre « jeu de l'imi- tation ». En soi, le seul fait que Turing, connu comme mathématicien et auteur d'une définition logique largement acceptée de la notion de machine, consacre un texte à une question telle que celle de la « pensée » des machines, mériterait sans doute un examen : y a-t-il, dans sa démarche antérieure, un problème théo- rique qui débouche sur cette question ? La notion logique de machine élaborée à la fin des années trente

  • question philosophique de la pensée

  • jeu de l'imitation

  • démarche

  • certitude métaphysique

  • ques- tion de la machine

  • pensée

  • pleine dignité du sujet de la philosophie classique


Publié le : mercredi 30 mai 2012
Lecture(s) : 81
Source : www2.cndp.fr
Nombre de pages : 20
Voir plus Voir moins
*Phi
20
ol102p.1à12828/06/0516:40Page20
ALAN TURING ET LE JEU DE L’IMITATION Patrick Goutefangea
Varia
Avec le « jeu de l’imitation », Turing imagine une méthode pour décider si une machine « peut penser ». Il montre que la défini-tion théorique de la machine qu’il a lui-même donnée en 1936-1937 n’interdit pas l’hypothèse qu’une machine conforme à cette définition puisse l’emporter au jeu. Ce faisant, il n’aborde ni un problème technique, ni un problème de logique théorique, mais s’avance sur le terrain d’une philosophie que l’on qualifiera de « continentale » : pour l’emporter au jeu, la machine doit s’ex-primer à la première personne et être pour son adversaire un semblable. La machine victorieuse doit être élevée à la pleine dignité du sujet de la philosophie classique. E lna1q9u5e0s,tiTounri«nLg,esdamnasch L i e n s es O r p d e i u n v at e e n u t r -s e l e l t e s l ’I p n e t n e s ll e i r g ? en », c e e 1 t,perxoapmoisnee d’y répondre, de manière assez déconcertante, en substituant à la question pro-prement dite une expérience alors impossible à mener : le célèbre « jeu de l’imi-tation ». En soi, le seul fait que Turing, connu comme mathématicien et auteur d’une définition logique largement acceptée de la notion de machine, consacre un texte à une question telle que celle de la « pensée » des machines, mériterait sans doute un examen : y a-t-il, dans sa démarche antérieure, un problème théo-rique qui débouche sur cette question ? La notion logique de machine élaborée à la fin des années trente – la « machine de Turing » – porte-t-elle l’exigence d’une réflexion de cet ordre ? Nous en ferions volontiers l’hypothèse, mais nous laissons à d’autres, plus qualifiés, le soin de le vérifier. C’est à la curieuse méthode pré-conisée par Turing que nous nous intéresserons ici, pour au moins tenter de mon-
1. Turing Alan Mathison, « Computing Machinery and Intelligence », Mind , octobre 1950, n° 59, p. 433-460. In Collected Works of A. M. Turing , Londres, North-Holland, 1993, vol. 3, Mechanical Intelligence . Nous ren-voyons à la traduction française de Patrice Blanchard. In Girard Jean-Yves, La Machine de Turing , Paris, Seuil, 1995.
P*ihol012.p1à12828/06/0516:40Page21
trer que c est bien, à propos des machines, la question philosophique de la pensée qui est abordée, dans ce qu’elle a de redoutable, voire pour certains de suspect. Cela nous conduira à examiner notamment un passage peu commenté du texte de Turing : celui consacré à l’hypothèse des « machines qui apprennent ». Turing avait ébauché le principe du jeu de l’imitation, quelques mois avant de composer Les Ordinateurs et l’Intelligence , dans un texte intitulé Intelligent Machinery 2 rédigé à l’intention du National Physical Laboratory, l organisme de recherche britannique auquel il était alors rattaché. Supposons, proposait-il, un assez médiocre joueur d’échecs, C, opposé à deux adversaires, B et A, de force à peu près égale à la sienne, et dont l’un, par exemple B, serait une « machine de Turing ». On sait qu’une « machine de Turing » est une machine logique, « à états discrets », définie par une table d’instructions, et dont Turing avait montré, en 1936-1937 3 , qu’elle pouvait, non seulement calculer n’im-porte quel nombre calculable par un calculateur humain, mais encore imi-ter le comportement de n’importe quelle autre machine discrète dont la configuration lui était fournie en entrée. La « machine de Turing », parce qu’elle est programmable, peut être une « machine universelle ». Turing s’était lui-même essayé à concevoir sur le papier une machine de ce type jouant médio-crement aux échecs 4 . Or, notait-il, le joueur C opposé à la machine B et à un autre joueur humain A aurait de toute évidence les plus grandes difficultés à décider lequel de ses adversaires est la machine 5 . Cet exemple servait de modèle au jeu décrit peu après dans Les Ordinateurs et l’Intelligence . Le jeu de l’imitation oppose un homme A à deux autres protagonistes : B – une femme – et C – un homme ou une femme ; chacun des trois joueurs est isolé des deux autres ; C, en posant des questions à A et B, doit détermi-ner qui est l’homme, qui est la femme. L’homme A doit s’efforcer de tromper C, en se faisant passer pour la femme B, laquelle doit aider C. Les trois pro-tagonistes communiquent par l’intermédiaire d’un téléscripteur ; ils ne peu-vent donc utiliser au cours du jeu de caractéristiques telles que l’apparence extérieure, la voix ou les performances physiques. Seul ce qui relève de l’échange linguistique est pris en compte. Quelles sont les chances respectives de A d’un côté, de B et C de l’autre ? Les trois protagonistes du jeu sont, par hypothèse, des individus humains quelconques ; nous pouvons donc considérer qu’ils sont grosso modo de la même force. En conséquence, C, puisqu’il est aidé par B, doit avoir à peu près deux fois plus de chances de l’emporter que A. Inversement, celui-ci doit s’im-poser dans un tiers des cas, ou encore, C doit se tromper environ une fois sur trois. Tel est du moins le résultat qui doit prévaloir, à mesure que le nombre
2. Turing A. M., Intelligent Machinery in Collected Works of A. M. Turing , Mechanical Intelligence , op. cit. 3. « On Computable Numbers, with an Application to the Entscheidungsproblems », Proceedings of the London Mathematical Society , 1937, vol. 42. In Collected Works of A. M. Turing , op. cit. , vol. 2, Mathematical Logic . Publié en français in Girard Jean-Yves, La Machine de Turing , trad. Julien Basch, op. cit. 4. Voir Hodges Andrew, Alan Turing ou l’Énigme de l’intelligence , trad. Nathalie Zimmermann, Paris, Payot, 1988, p. 186 et suiv. 5. « Il n’est pas difficile de concevoir une « machine de papier » qui ne jouera pas trop mal aux échecs. Prenons maintenant trois hommes comme sujets de l’expérience, A, B, C. A et C sont des joueurs d’échecs assez limités, B est l’opérateur qui fait fonctionner la machine de papier […] une partie est jouée entre C et, soit A, soit la machine de papier. C pourrait trouver extrêmement difficile de dire contre lequel il joue. » Intelligent Machinery , op. cit. , p.127. C’est nous qui traduisons.
21
P*ih
22
ol012.p1à12828/06/0516:40Page22
de parties augmente, si les protagonistes sont choisis parmi un échantillon suffisamment large pour qu’une différence ponctuelle de talent ne vienne faus-ser les résultats. Qu’arrivera-t-il, demande Turing, si A est remplacé par une machine, en l’occurrence par une « machine universelle » ? L’interrogateur C du jeu de l’imitation, affirme-t-il, se trompera aussi souvent dans ce cas que lorsqu’il a affaire exclusivement à des humains 6 . En d’autres termes, une machine, selon Turing, peut avoir autant de chances de «faire bonne figure» au jeu de l’imitation qu’un individu humain quelconque ; elle peut se montrer l’égale d’un être humain placé dans les conditions du jeu – réduit à la parole – c’est-à-dire l’égale d’un être dont les observateurs du jeu admettent qu’il pense. Pourquoi une telle démarche ? Sa justification ne tient-elle pas à ce qu’elle ferait l’économie des difficultés liées à la définition du terme « penser » ? Une tentative d’élucidation conceptuelle, ici, éviterait difficilement, en effet, de faire appel à des notions marquées par leur appartenance ancienne au regis-tre de la métaphysique – celles, par exemple, d’« entendement » ou de « raison ». Turing est-il donc simplement prudent, considérant qu il n’est pas lui-même en mesure de répondre de manière pertinente à une question telle que « Qu’est-ce que la pensée ? », ou bien entend-il inscrire nettement sa démarche dans le contexte analytique qui est celui de la scène philosophique anglo-saxonne au moment de la publication des Ordinateurs et l’Intelligence ? Dans ce dernier cas, son refus de discuter la notion de pensée ne pourrait-il signifier qu’à ses yeux la question même « Qu’est-ce que la pensée ? » est une de ces pseudo-questions, spécialité de la philosophie « continentale », qu’une philosophie bien comprise a pour tâche de débusquer ? Tout se pas-serait alors, pour lui, comme s’il s’agissait de répondre à la « vraie » question cachée sous celle de la pensée des machines – une machine peut-elle faire « jeu égal » avec un homme ? – ce qui supposerait une « expérience ». Par ailleurs, sous cet angle, la substitution du jeu de l’imitation à la question « Les machines peuvent-elles penser ? » ne reviendrait-elle pas à remplacer une démarche philosophique à forte connotation « continentale » par une pro-blématique relevant du registre de la psychologie scientifique ? Turing n’en-tend-il pas adopter, par exemple, une approche behavioriste ? Le jeu de l’imitation aurait pour fonction de vérifier que la machine est en mesure de reproduire un certain comportement et la démarche de Turing reposerait sur la présupposition que le terme « penser », dans la question « Les machines peuvent-elles penser ? », peut être remplacé par la description de certains types de comportements. Il est cependant permis de se demander si cette interprétation rend bien compte de ce qui fait l’originalité de la réflexion de Turing. L’argumentation de celui-ci vise explicitement une certaine opinion commune pour laquelle la pensée est inséparable de l’imprévisibilité qui accompagne l’invention ; au
6. « Je crois que dans une cinquantaine d’années il sera possible de programmer des ordinateurs […] pour les faire si bien jouer au jeu de l’imitation qu’un interrogateur moyen n’aura pas plus de 70 % de chances de procéder à l’identification exacte après cinq minutes d’interrogation. » Les Ordinateurs et l’Intelligencee , op. cit. , p. 148.
*Philo102p.1à12828/06/0516:40Page23
regard de cette opinion commune, une machine est parfaitement prévisible et n’invente rien, donc ne Si la machine pense pas. Dans Intelligent Machinery , ce texte qui l’emporte – précède de quelques mois Les Ordinateurs et l’intel-si l’examinateur ligence , Turing écrivait ainsi : « Le point jusqu’où nous conclut le jeu considérons que quelque chose se comporte de manière en déclarant à intelligente est déterminé autant par notre propre son propos : « voici état d’esprit et formation que par les propriétés de un homme » – l’objet considéré. Si nous sommes capables d’expli-c’est l’opinion quer et de prévoir son comportement ou s’il sem-commune qui aura ble y avoir le moindre plan sous-jacent, nous sommes été trompée peu tentés d’imaginer de l’intelligence 7 .» Pour l’opinion commune, en somme, du moins telle que la comprend Turing, l’imprévisibilité serait une propriété de la pensée, comme la prévisibilité une propriété du méca-nique. La critique de cette position joue, au moins structurellement, un rôle central dans l’argumentation de Turing : l’examinateur du jeu, étant, par hypo-thèse, un homme quelconque, sera lui-même porteur de l’opinion commune, et sa conviction qu’une machine, parce qu’elle est prévisible, ne peut sur-prendre un homme, contrairement à un autre homme, être pensant, s’expri-mera au cours du jeu : l’examinateur « moyen » cherchera à distinguer l’un de l’autre ses interlocuteurs à partir de l’idée – énoncée ou non – qu’une machine ne saurait penser. Par là même, s’il se trouve, comme Turing en soutient la possibilité, que la machine l’emporte – si l’examinateur conclut le jeu en décla-rant à son propos : « voici un homme » – c’est l’opinion commune qui aura été trompée ; surprise par une machine, elle aura contribué elle-même à établir le contraire de ce qu’elle affirme. Ce point est d’autant plus frappant que l’opinion commune évoquée ici a une expression philosophique, laquelle plonge ses racines dans la métaphy-sique cartésienne et pose que la machine appartient à un autre ordre que l’homme. Que la machine ne pense pas est, pour Descartes, une certitude métaphysique puisqu’il s’agit d’une conséquence de la distinction des sub-stances : elle relève de la substance étendue et non de la substance pensante. Descartes illustre cette idée, dans la cinquième partie du Discours de la méthode , , à l’aide d’une « expérience » fictive proche, dans sa structure de celle pro-posée par Turing : imaginons un automate fabriqué par un artisan doué d’une habileté supérieure, et imitant parfaitement l’apparence et le comportement d’un être humain ; nous aurions toujours, soutient Descartes, deux moyens de ne pas confondre cet automate avec un homme véritable : la parole et l’ac-tion réfléchie 8 . Un tel automate pourrait, sans doute, émettre un discours, de la même façon qu’il serait en mesure d effectuer certaines actions mieux qu’un être humain: on ne voit pas pourquoi la forme matérielle – donc, pour Descartes, mécanique– de la parole ne pourrait être reproduite par une machine ; pour-
7. Intelligent Machinery , op. cit ., p. 127. C’est nous qui traduisons. 8. Descartes R., Œuvres philosophiques , Paris, Garnier, 1988, coll. « Classiques Garnier », tome I, Discours de la méthode, p. 628 et suiv.
23
P*ih
24
ol012p.1à12828/06/0516:40Page24
tant, aussi parfait serait-il en son genre, cet automate ne pourrait « répondre au sens de tout ce qui se dit en sa présence comme le ferait l’homme le plus hébété 9 », de même qu’il ne saurait inventer une action pour lui encore inédite. Chez Descartes, en vérité, le discours humain et l’action réfléchie se distin-guent de toute reproduction de leur seule forme matérielle par cela qu’ils expriment un « jugement », c’est-à-dire l’application d’une volonté à une idée 10 . Le jugement renvoie à la dualité de l’homme, union d’une âme et d’un corps, mode de la substance pensante et de la substance étendue ; par là, la parole n’est pas seulement une action mécanique, comme celle que reproduirait un automate, mais l’acte d’une conscience inscrite dans un monde, l’expression de ce « je » qui, prononcé dans le « je pense », signifie toujours « je suis ». Or – c’est ce que nous voudrions montrer – « l’expérience » proposée par Turing avec le jeu de l’imitation consiste, dans son principe, à imaginer une machine susceptible d’avoir avec des individus humains un « échange de paro-les », en vertu du fait qu’elle se montrerait capable de tenir un discours « à la première personne », de dire « je » comme le fait n’importe quel individu humain. C’est pour cette raison que l’on ne pourrait légitimement refuser de dire d’une telle machine qu’elle « pense », comme pensent les individus humains qui s’adressent à elle. Dans cette perspective, la dernière partie des Ordinateurs et l’Intelligence , consacrée, non plus au jeu de l’imitation en tant que tel, mais aux « machines qui apprennent », prend un relief particulier. Turing, en effet, ne songe pas à n’importe quel type d’apprentissage : selon lui, une machine peut être « éduquée » comme un petit d’homme. Un pro-cessus d’éducation présuppose la mise en œuvre, par l’entité éduquée, d’une première personne, et cette référence à la première personne est proprement ce qui lie l’un à l’autre, dans la réflexion de Turing, le développement sur les machines qui apprennent et celui sur le jeu de l’imitation. Peut-elle être débarrassée de sa connotation « continentale », c’est-à-dire du statut que lui confère le fait de renvoyer au « je » du « je pense » ? Le « je » prononcé par une machine qui tiendrait tête à des hommes au jeu de l’imitation n’aurait-il pas le même statut que celui prononcé par ces hommes mêmes ? Ainsi, la curieuse méthode suivie par Turing ne ferait pas l’économie d’une problématique conti-nentale ; elle s’y inscrirait au contraire, pour apporter une réponse rompant avec la conception classiquement défendue dans ce contexte depuis Descartes, à savoir avec l’idée que l’homme et la machine appartiennent à des ordres différents. En abordant, à travers le jeu de l’imitation, non seulement la ques-tion de la machine, mais celle des rapports de l’homme à celle-ci, Turing, sans peut-être qu’il le sache répondrait autrement à la question même abordée par Descartes, contribuant, par là, à la mise au jour des problèmes spécifiques, profondément enracinés dans l’histoire de la philosophie occidentale, que soulève l’actuelle nécessité de repenser les rapports de l’homme à la machine.
9. Ibid ., p. 629. 10. Ce n’est que pour un jugement qu’il y a du vrai et du faux ; l’erreur découle d’un acte de volonté appliqué à ce qui est mal conçu, c’est-à-dire à ce qui n’est pas conçu clairement et distinctement. Le concevoir et le vou-loir, en revanche, n’ont pas de sens pour l’automate, qui participe de la seule substance étendue : un moulin à vent ne se trompe jamais, pas même lorsque son fonctionnement est défectueux.
P*ihol012.p1à21828/06/0516:40Page25
La logique du jeu de l’imitation et l’échange de paroles Qu’une machine puisse « parler » – condition de sa participation au jeu de l’imitation – c’est au fond ce que Turing avait déjà démontré en élabo-rant la notion de « machine universelle » : une telle machine peut manipuler des symboles et énoncer des propositions, au sens logique du terme. Lui faire émettre ces propositions sous une certaine forme matérielle, et notamment sonore, est un problème de mécanique sans pertinence ici, et déjà résolu au moment où Turing publie Les Ordinateurs et l’Intelligence . Toutefois, en ima-ginant le jeu de l’imitation, Turing s’avance plus loin. Ses travaux des années trente démontraient seulement qu’une machine universelle, puisqu’elle est capable de mener un calcul et, par là, de manipuler des symboles, peut simuler la faculté humaine de discourir à la troisième personne, c’est-à-dire d’énoncer un discours purement descriptif, de l’ordre du « il y a », ou du « ça », où ’ st pris en compte que ce que les linguistes nomment la « personne -n e d’univers 11 », c’est-à-dire l’expression de l’attachement de tout objet du dis-cours à l’ordre des choses. Le prototype d’un tel discours est le discours scientifique, et son expression idéale la proposition mathématique, celle même qu’une « machine universelle », au moins pour ce qui concerne le « calcula-ble », est en mesure d’énoncer. Dans un tel cadre, un échange de questions et de réponses entre locuteurs, comme celui qui doit avoir lieu pendant le jeu, serait certainement possible 12 , mais entre qui et qui aurait lieu cet échange ? C’est le propre même du discours scientifique que « d’oublier », ou de met-tre entre parenthèses les actants du discours, en les identifiant à un unique locuteur abstrait. Or, on voit bien qu’une machine « parlante » de ce type – qui ne connaîtrait que la troisième personne – ne saurait en aucun cas faire bonne figure au jeu de l’imitation. Le changement induit dans la structure du jeu par la substitution d’une machine à la femme de la situation initiale est à cet égard éclairant. Demandons-nous, en effet, s’il s’agit encore, pour l’examinateur C, dans le cadre d’une telle substitution, de dire qui, de A ou de B, est une femme 13 ? Si tel était le but du jeu, la machine devrait viser à se faire prendre, par l’examinateur C, pour une femme, et la meilleure stratégie pour elle consisterait certainement à tenter d’imiter directement le comportement d’une femme plutôt que celui d’un homme cherchant à se faire passer pour une femme. Imaginons que la machine ne se montre pas assez « adroite » pour tromper C sur sa prétendue « féminité », ce dernier concluera le jeu en affirmant : « A (la machine) ne peut pas être une femme, donc A est un homme. » Toutefois, suffit-il que la machine imite mal une femme pour que l’examinateur croit avoir affaire à un homme ?
11. L’expression est de Gérard Moignet, Systématique de la langue française , Paris, Klincksieck, 1981. 12. À la condition que les questions soient de « bonnes » questions, appelant des réponses purement descriptives. 13. Ce point, souvent passé sous silence, a été souligné par plusieurs auteurs. Voir, par exemple, Naur Peter, « Thinking and Turing’s Test », Nordisk Tidskrift for Informations Behandling , 1986, vol. 26, n° 2 ; Lassègue Jean, « Le test de Turing et l’énigme de la différence des sexes », Les Contenants de pensée , Anzieu D., Haag G. (éd.), Paris, Dunod, 1993 ; Keith William, « Artificial Intelligences, Feminist and Otherwise », Social Epistemology , 1994, vol. 8, n° 4 ; Genova Judith, « Turing’s Sexual Guessing Game », Social Epistemology , ibid. ; Vernant Denis, « L’intelligence de la machine et sa capacité dialogique », Penser l’esprit ; des sciences de la cognition à une philosophie cognitive , Rialle V., Fisette D. (éd.), Grenoble, PUG, 1996.
25
P*ih
26
ol012.p1à12828/06/0516:40Page26
Il faut encore qu’imiter mal une femme ne l’empê-che pas d’imiter de manière convaincante un « être humain ». En d’autres termes, ce n’est pas d’abord macShiunffeiti-militqeuemlaal sur sa prétendue féminité, mais sur son « humanité » une femme pour prétendue que la machine doit tromper C ; c’est le que l’examinateur comportement humain en général, tel qu’il appa-raît à travers le langage, qu’elle doit avant tout pou-cruonithaovmoimrea?ffIalifraeuàt voir imiter: «On supposera, dit Turing, que la meilleure encore qu’imiter stratégie est d’essayer de fournir des réponses qui mal une femme seraient naturellement données par un homme 14 », le ne l’empêche terme « homme » signifiant ici, d’après le contexte, pas d’imiter « l’être humain 15 ». Qu’ inateur humain se un exam trompeaussisouvent,lorsquelaplaceldresAdlalneselset codnevaminacnaiènrteejeu est occupée par une machine que o qu e un « être humain » occupée par un homme signifiera que la machine a été confondue par lui, dans le cadre de leur échange de paroles, avec un être humain. Que la machine l’em-porte environ une fois sur trois attestera que l’examinateur lui a implicitement accordé une parole humaine. Or, pour que l’examinateur du jeu croit reconnaître l’humanité dans son adversaire mécanique, il doit de toute évidence avoir la conviction que le rap-port établi entre lui et son interlocuteur est identique à celui qu’il entretien-drait avec un individu humain ; il faut, en d’autres termes, qu’il ne doute pas que ce qui a lieu entre lui et son adversaire soit, non pas un échange abstrait de questions et de réponses d’où il serait lui-même absent en tant que sujet singulier, en tant que « personne », mais un échange de paroles, impliquant l’engagement existentiel des locuteurs ; c’est à ce prix qu’il croira reconnaître un « semblable 16 ». L’échange de paroles exige que ses protagonistes s’expri-ment à la première personne, qu’ils soient, plus que des locuteurs, des inter-locuteurs, que chacun d’eux fasse usage des déictiques je et tu . Alors, et alors seulement, « l’expérience » imaginée par Turing sera convaincante. Comment douter, en effet, que les protagonistes d’un échange de paroles pensent ? Comment mettre en doute que l’échange de paroles entre des êtres humains manifeste l’exercice de la pensée par ceux-ci ? L’expression même du doute, ici, supposerait la parole, et toute parole est adressée à qui peut la compren-dre et la partager. Dès lors, s’il y a échange de paroles entre un homme et une machine, n’est-ce pas qu’ils partagent la pensée ? La discussion que mène Turing d’un certain nombre de situations, aux-quelles le jeu peut se prêter, et que le sens commun oppose à son hypothèse, doit se comprendre à cette aune : une machine, dit-on, ne pourrait l’em-porter au jeu de l’imitation car elle ne commet pas d’erreurs, ne peut pas apprendre, se comporte de manière prévisible et est incapable d’invention,
14. Les Ordinateurs et l’Intelligence , op. cit. , p. 138. 15. Ainsi, P. Blanchard traduit-il dans l’expression « answers that would naturally be given by a man », a man par « l’homme », plutôt que par « un homme ». Girard Jean-Yves, La Machine de Turing , op. cit. , p. 138. 16. Aussi bien l’échange, au cours du jeu, peut-il aller, par hypothèse, de la simple conversation à la discussion, et porter sur un sujet quelconque.
*Philo102p.1à12828/06/0516:40Page27
enfin et surtout, car elle ne sait pas ce qu’elle fait, ni même qu’elle fait quelque chose. Turing discute ces objections en s’efforçant de montrer que, si, dans la définition logique de la machine comme machine universelle, rien n’in-terdit qu’une machine conforme à cette définition joue aux échecs, rien n’in-terdit non plus qu’elle fasse bonne figure au jeu. Pour chacune des situations envisagées, une machine universelle, selon lui, peut être conçue de telle sorte que, dans le strict cadre du jeu, l’examinateur humain ne dispose pas davan-tage que dans l’exemple des joueurs d’échecs d’ Intelligent Machinery de cri-tères de discrimination suffisants pour pouvoir la distinguer à coup sûr d’un individu humain. Le problème de la conscience prend naturellement ici un relief particu-lier, d’autant que Turing l’aborde sous l’angle de l’expression artistique, lieu par excellence de la subjectivité, et qui apparaît comme ce dont la machine, aux yeux de l’opinion commune, est le plus irréductiblement éloignée. Il cite à ce propos l’argument formulé, dans une conférence de 1949, par sir Geoffrey Jefferson 17 , lequel déclarait : « Nous ne pourrons pas accepter l’idée que la machine égale le cerveau jusqu’à ce qu’une machine puisse écrire un sonnet ou composer un concerto à partir de pensées ou d’émotions ressenties, et non pas en choisissant des symboles au hasard, et non seulement l’écrire, mais savoir qu’elle l’a écrit 18 . » Turing discute l’argument en ’ ttardant sur une situation particulière, s a celle de « l’examen oral » au cours duquel il est demandé à un élève, à titre d’exercice, de composer un sonnet, puis de le commenter . « Le jeu, note-t-il, [le jeu de l’imitation] est fréquemment utilisé en pratique (en omettant le joueur B) sous le nom d’ examen oral pour découvrir si quelqu’un comprend véritablement quelque chose ou “a appris comme un perroquet”. Imaginons une partie d’un tel examen : L’examinateur : Dans le premier vers de votre sonnet qui dit : “Te compare-rais-je à un jour d’été”, est-ce “ jour de printemps” serait aussi bien ou que un mieux ? Le témoin ( witness ) : Cela ne rimerait pas. L’examinateur : Et “un jour d’hiver” ? Cela rimerait très bien… Le témoin : Oui, mais personne n a envie d’être comparé à un jour d’hiver… 19 » De quels éléments disposerait l’examinateur C, demande Turing, pour distinguer la machine de son propre partenaire humain, dans l’hypothèse où cet échange aurait lieu au cours du jeu et où le témoin s’avérerait être la machine ? Ne serait-il pas aussi démuni que l’est le joueur d’échecs d’ Intelligent Machinery pour distinguer son adversaire mécanique de son adversaire humain? Or, le sonnet étant une forme littéraire qui obéit à des règles précises, les-quelles commandent non seulement sa composition, mais son commentaire, rien a priori, dans la définition de la « machine universelle », n’interdit de concevoir une « machine à sonnets ».
17. Sir Geoffrey Jefferson était professeur de neurochirurgie à l’université de Manchester. Turing participa avec lui, en janvier 1952, à une émission de la BBC sur la question de la « pensée » des machines. Voir le BBC Written Archives Centre . 18. Les Ordinateurs et l’Intelligence , op. cit. , p. 153. 19. Ibid. , p. 155.
27
*Phi
28
lo102p.1à12828/06/0516:40Page28
La possibilité d’une « victoire » de la machine au jeu se comprend préci-sément à partir de là. Admettons, en effet, que le jeu de l’imitation soit décom-posable, à l’infini, en une succession de tests partiels, bien plus élémentaires encore que celui du sonnet ; sachant qu’une machine universelle, selon sa défi-nition, peut simuler le comportement de toute autre machine, nous conclu-rons qu’il existe toujours une machine théorique imitant le comportement de chacune des machines partielles d’une série correspondant à une session vic-torieuse du jeu. Bref, Turing s’efforce de montrer dans Les Ordinateurs et l’Intelligence , que rien dans la définition de la machine universelle ne s oppose à ce qu’une machine conforme à cette définition puisse simuler l’acte humain de parole, l’engagement réflexif d’un sujet hic et nunc , condition de toute énonciation et de tout procès de communication langagière, de tout échange de paroles. Du comportement des joueurs d’échecs d’ Intelligent Machinery à celui des interlocuteurs du jeu de l’imitation, il passe ainsi de la prise en compte d’un comportement tout à fait particulier à celle de ce que l’on s’accorde à considérer comme le comportement humain par excellence. Or, selon sa démonstration, le résultat doit être le même dans les deux situations. La dif-ficulté devant laquelle se trouve le joueur d’échecs C pour distinguer ses adver-saires atteste, à tout le moins, qu’un individu humain peut jouer aux échecs avec une machine, comme il le ferait avec un autre individu humain ; dans le cas du jeu de l’imitation, la même difficulté atteste qu’un individu humain peut « converser » avec une machine comme il le ferait, dans les mêmes condi-tions, avec d’autres individus humains. La capacité de la machine universelle à énoncer des propositions, à tenir un discours à la « personne d’univers » est étendue par Turing, au moyen du jeu de l’imitation, jusqu’aux limites de ce comportement spécifiquement humain qu’est l’acte de langage à la pre-mière personne, acte qui, aux yeux de tout homme, implique la pensée. Mais la situation a-t-elle pour autant changé de nature ? C’est parce que le jeu d’échecs s’apparente à un calcul qu’une machine peut y jouer ; dès lors, la thèse de Turing n’est-elle pas que le comportement de l’homme en tant que locuteur peut également être assimilé à un calcul, puisque aussi bien c’est sous la forme du calcul qu’est définie la capacité de la machine universelle à énon-cer des propositions ? Les critiques du jeu C’est bien ainsi que la démarche de Turing a été majoritairement interpré-tée, tant par ses critiques, lesquels lui ont souvent reproché son behaviorisme, que par ses héritiers, tels les promoteurs de l’intelligence artificielle classique (IA), et il est vrai que les meilleurs résultats obtenus par celle-ci ont pu paraître corroborer les anticipations de Turing. Sur chacun des points évoqués par ce dernier dans Les Ordinateurs et l’Intelligence – la conscience, l’erreur, l’apprentissage, l’informalité du comportement, l’invention – les chercheurs en IA ont affirmé, et jusqu’à un certain point établi, que la conception, à partir d’une formalisation rigoureuse de situations types, de machines simulant des comportements humains tels qu’ils peuvent être observés dans des circonstances précises et limitées, était théoriquement possible 20 et légitimait la démarche de Turing.
*Philo102p.1à12828/06/0516:40Page29
Mais l’IA classique n’a pas tenu toutes ses promesses et de nombreuses réserves ont été émises à l’égard de ses présupposés, à savoir que les actions humaines pourraient être représentées par des systèmes de symboles, régis par des règles, elles-mêmes établies en fonction de l’analyse du comportement effectif d’un individu humain devant un problème déterminé. C’est précisément dans le cadre de la dis-ue Même si cauéstséiocrnitidqeuléIe.ATcolaustseifqois,cqeuneleastdpéamslarécchheecdedeT«ulrienxg-une machine périence», c’est-à-dire l’impossibilité pour une machine l’emportait au jeu de réussir le test, qu’ont souligné les critiques les plus de l’imitation dans fortes, mais la signification que donne Turing à un un cas sur trois, éventuel succès. Plusieurs auteurs ont ainsi soutenu cela ne prouverait qu’une machine qui ferait bonne figure au jeu de pas qu’elle l’imitation ne serait jamais autre chose, tout au long « pense », au sens de l’épreuve, y compris si elle réussissait le « test du humain du terme sonnet », qu’un dispositif purement formel dont on peut difficilement dire qu’il « sache » quoi que ce soit ou qu’il ait conscience de quelque chose ; de sorte que même si une machine l’emportait au jeu de l’imitation dans un cas sur trois, comme le suggère Turing, cela ne prouverait pas q ’ lle « pense », au u e sens humain du terme. John Searle, notamment, a illustré avec force cette idée en imaginant une « expérience de pensée » connue sous le nom d’« argument de la chambre chinoise 21 ». Imaginons que nous enfermions dans une pièce un être humain ne sachant pas le chinois, et que nous mettions à sa disposition des paniers dans lesquels se trouvent des symboles de la langue chinoise ainsi qu’un livre, écrit dans sa propre langue, où sont consignées des règles purement syntaxiques de mani-pulation des symboles. Supposons que des combinaisons de symboles chinois aient été introduites dans la pièce, et que le livre fournisse des règles ordon-nant à notre opérateur de sortir certains symboles de la pièce dans un certain ordre. Admettons, enfin, que les chaînes de symboles introduites soient des « questions » et celles que l’opérateur sort de la pièce les réponses à ces ques-tions. Si les règles ont été correctement rédigées, et si l’opérateur ne fait pas d’erreur en les suivant, tout se passera exactement comme si, à des questions posées par un Chinois de Chine, des réponses étaient données par un Chinois de Chine. Or, remarque Searle, l’opérateur placé dans la « chambre chinoise » ne sera pas devenu pour autant capable de parler le chinois 22 . De la même façon, pour Searle, la machine qu’invoque Turing, parce qu’elle est stricte-
20. En témoigne la célèbre « machine-psychiatre » mise au point par J. Weizenbaum, un programme classique capable de simuler le comportement d’un psychiatre au cours de l’interrogation d’un patient, en réagissant de manière déterminée à un certain nombre de mots-clés. On raconte que la secrétaire de Weizenbaum demanda un jour à celui-ci de sortir de la pièce pour pouvoir parler à sa machine en toute intimité. Voir Weizenbaum J., Computer Power and Human Reason , New York, W. H. Freeman and Co, 1976. 21. L’argument de J. Searle est exposé dans plusieurs textes : « L’esprit est-il un programme d’ordinateur ? », Pour la science , mars 1990, n° 149 ; Du cerveau au savoir , Paris, Hermann, 1985 ; « Esprits, cerveaux et pro-grammes » in Hofstadter D., Dennett D. (éd.), Vues de l’esprit , Paris, InterEditions, 1987. 22. « […] dans une telle situation je vous défie d’apprendre un mot de chinois… » Du cerveau au savoir , op. cit., p. 43.
29
P*ih
30
ol012p.1à12828/06/0516:40Page30
ment formelle – c’est une « machine de Turing » – ne fait que combiner des états, lesquels ne sont pas pour elle des symboles, même s’ils le sont pour ses constructeurs ou les hommes qui l’observent. Bref, aux yeux de Searle, dans le cadre du jeu de l’imitation, ce n’est que du point de vue des adver-saires de la machine qu’il y a échange de paroles ; la machine n’a pas elle-même de « point de vue ». En somme, quand bien même une machine simulerait le discours humain à la pre-mière personne, quand bien même elle utiliserait le Tout se passe sdyéimctbiole«je»,ce«je»neseraitjamaispourelleun comme si la que. machine, énonçant Ce dernier point a été discuté avec perspicacité « je suis », fût-ce en par Hillary Putnam, à l’occasion d’une argumenta-affirmant cette tion où il imagine une autre célèbre expérience de contre-vérité : « je pensée, dite des « cerveaux dans une cuve 23 ». suis un homme », chaqIumeaignindiovnids,uphruopmoasineaPituténtéampl,aqcéuedlaensceurnveeacuuvdee, partageait avec ses interlocuteurs et que ses terminaisons nerveuses aient été reliées à humains uxntéorrideina.teAuurcuqnuiirnedpivriodduuihtulemsasitnimneulsiedraupmluosndeen la consistance e ur l monde extérieur, et pourtant aucun existentielle contact avec e d’eux ne s’en apercevra ; tout se passera de telle sorte que, lorsque les cerveaux dans leurs cuves s’adres-seront les uns aux autres, ils se comporteront exactement comme s’ils étaient hébergés dans un corps. Pourtant, remarque Putnam, un cerveau ainsi traité ne pourra pas dire « je suis un cerveau dans une cuve » au sens où le dirait un cerveau « ordinaire » – qui ne serait pas dans une cuve mais dans un corps – car la référence de leurs discours respectifs ne sera pas la même. Le cerveau dans une cuve fera référence « dans l’image » : lorsqu’il parlera d’un arbre, la référence de son discours ne sera pas l’arbre lui-même, mais l’image de l’arbre engendrée par les stimuli que produit l’ordinateur auquel il est relié. Ainsi, prononçant le mot « cuve », il fera référence, non pas à la cuve dans laquelle il se trouve, mais à l’image de celle-ci fournie par l’ordinateur. Bref, pour employer le mot « cuve » avec la même référence qu’un cerveau « ordi-naire », il ne devrait pas être dans une cuve. Les cerveaux dans une cuve et ceux qui n’y sont pas ne partagent pas la référence. Rapportée au jeu de l’imitation, cette situation revient à montrer que la machine A 24 ne partage pas la référence avec ses interlocuteurs humains C et B ; les trois joueurs par-leront-ils, ce ne sera jamais de la même chose. Ils ne communiqueront pas et, en définitive, tout se passera comme si la machine ne disait rien à ses inter-locuteurs humains, de même que l’opérateur de la chambre chinoise, dans l’expérience de pensée proposée par Searle, ne dit rien à ses interrogateurs chinois.
23. Putnam Hillary, Raison, vérité et histoire , Paris, Minuit, 1984. 24. En passant de la première version du jeu – où A, B et C sont tous trois des êtres humains – à la seconde – où une machine prend la place de l’adversaire de l’examinateur – Turing renomme les protagonistes ; désor-mais A est l’examinateur, B son partenaire et C la machine. Pour la clarté de l’exposé, ici, nous continuerons à nommer la machine A, l’examinateur C, et son partenaire humain B.
Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.