LE SAVOIR ET L'ORDINATEUR

De
Publié par

Le nouvel essor des technologies informatiques du traitement de la connaissance semble augurer d’une mutation profonde de la nature même de ce qui est manipulé par nos ordinateurs, de cette « information » qui accéderait désormais pour eux à un statut beaucoup plus spécifique de connaissance, leur conférant simultanément une certaine apparence d’intelligence et une relative autonomie de comportement. D’une telle mutation, nous n’entrevoyons pas encore les conséquences culturels et sociétales mais nous ressentons une révolution une révolution à la fois dans les principes mêmes de constitution de nos savoirs futurs et dans notre relation aux ordinateurs.
Publié le : dimanche 1 décembre 2002
Lecture(s) : 237
EAN13 : 9782296304420
Nombre de pages : 458
Voir plus Voir moins
Cette publication est uniquement disponible à l'achat

LE SAVOIR ET L'ORDINATEUR'

@L'Hannattan,2002 ISBN: 2-7475-3350-6

Denis Berthier

LE SAVOIR ET L'ORDINATEUR

L'Harmattan 5-7, rue de l'École-Polytechnique 75005 Paris FRANCE

L'Harmattan Hongrie Hargita u. 3 1026 Budapest HONGRIE

L'Harmattan Italia Via Bava, 37 10214 Torino ITALIE

Introduction

There' s not a morning I begin without A thousand questions running Through my mind, That I don' t try to find the reason And the logic in the world that God Designed. The reason why a bird was given wings, If not to fly [...] What' s wright or wrong, Where I belong Within the scheme of things. [...] If not to hunger for the meaning Of it all, Then tell me what a soul is for? Why have the wings unless you're Meant to fly?' And tell me please, why have a mind If not to question why? [Yend, Sony Music Entertainment, 1983]

1. Objet de ce livre
Cet ouvrage trouve son origine dans une interrogation d'apparence naïve sur la signification et la portée culturelles des technologies informatiques du traitement de la connaissance, avec en premier lieu bien sûr l'intelligence artificielle (ou informatique symbolique). Envahissant peu à peu toute notre activité, ces technologies imprègnent sournoisement nos représentations inconscientes de l'intelligence, de la mémoire et autres catégories cognitives, et vont jusqu'à proposer de nouvelles manières de penser I'homme. Ne sont-elles alors que le prolongement banal d'une évolution continue dans les moyens de mémorisation, de diffusion et de traitement de l'information? Ou bien augurent-elles d'une mutation profonde de la nature même de ce qui est traité par nos ordinateurs, de ce qui n'est a priori qu'information en un sens technique étroit, mais qui parfois commencerait justement à accéder pour ceux-ci à un statut beaucoup plus spécifique de connaissance, leur conférant simultanément une certaine apparence d' « intelligence» et une relative autonomie de comportement? D'une telle 5

mutation, nous n'entrevoyons pas encore bien les conséquences culturelles et sociétales, mais nous pressentons vaguement qu'elle pourrait induire une révolution simultanément dans notre manière de concevoir la connaissance ellemême, dans notre relation concrète aux ordinateurs avec qui désormais nous la partagerions, et dans la place que ceux-ci occupent dans notre inconscient collectif et dans notre vie quotidienne. On ne saurait trop insister sur le fait que la « révolution» de l'information (et, faut-il le préciser, de la communication) a déjà eu lieu, ou du moins est largement avancée dans la partie riche du globe, et que sa portée, ne serait-ce que par l'informatisation de tous les secteurs de l'économie et de la vie sociale ou par le développement exponentiel du réseau Internet, est aussi évidente que considérable, d'une ampleur comparable à la révolution entraînée par l'invention de l'imprimerie. La continuelle montée en force du secteur tertiaire tout au long de la deuxième moitié du XXe siècle, même si elle a initialement précédé cette informatisation, a fini par en devenir inséparable; au point qu'il est devenu banal d'associer dans un même constat le passage des pays développés à un stade « postindustriel» et la formation d'une « société de l'information ». Certes, il reste, dans le désordre, à maintenir à son rythme effréné actuel l'augmentation des performances des processeurs et mémoires vives pour le traitement de l'information, des disques pour son stockage et des réseaux pour sa transmission, à construire des interfaces plus conviviales que l'écran rigide, le clavier et la souris, à achever avec le tout numérique la convergence de tous les médias, à développer des logiciels « libres» permettant à chacun d'exploiter ces médias à sa guise, à ordonner quelque peu le contenu d'Internet, ou plutôt à améliorer les moyens d'accès à l'information qu'il recèle (au double sens du terme), à en assurer la fiabilité et la sécurité, à mieux maîtriser les processus, toujours artisanaux, de développement du logiciel, et à imaginer bien d'autres innovations technologiques ou services plus ou moins (f)utiles que nous n'entrevoyons pas encore. Certainement, il reste aussi à étudier les conséquences sociétales de cette révolution, liée de près à l'émergence d'une économie du quasi immatériel, en relation étroite avec un processus global de mondialisation sauvage, et à inventer une éthique de l'accès à l'information qui empêcherait de redoubler la fracture économique actuelle ou de créer des zones de refuge pour le totalitarisme. Mais, si tel en est le contexte, là n'est pas l'objet de notre intérêt dans ce livre. Nous proposons en effet d'étudier un aspect infiniment plus spécifique de ces évolutions, une aventure technologique et intellectuelle au terme de laquelle nous pourrons considérer que l'ordinateur ne traite pas seulement de l'information mais de la connaissance. Dans un second temps, se pose la question de l'impact sur notre connaissance d'humains de cet accès des ordinateurs à un tel niveau, où l'on ne peut plus se contenter de les concevoir comme de simples mémoires externes dont la seule caractéristique serait leur particulière efficacité pour archiver le savoir. Il se pourrait bien en effet que, de la même manière que l'imprimerie n'a pas seulement bouleversé les modes de diffusion de la connaissance, mais a été le prélude à la laïcisation de son contenu, la révolution évidente et massive de

6

l'information masque, tout en en constituant une pré-condition technologique, une révolution bien plus subtile de la connaissance, qui nous touche beaucoup plus profondément en notre être intime, dans la mesure où cette connaissance qui devient objet d'échange, voire de partage, entre l'homme et l'ordinateur, se trouverait modifiée en sa nature même et en ses principes constitutifs du seul fait de ce partage, en même temps que notre relation à l'ordinateur. Les enjeux culturels d'une telle révolution de la connaissance sont beaucoup trop importants pour permettre qu'elle reste affaire d'informaticiens. Devrait-on être obnubilé par le génie génétique, ses dérives potentielles et ses conséquences sur notre environnement biophysique, et laisser par ailleurs se produire, sans y réfléchir à deux fois, une tout aussi formidable modification potentielle de notre environnement mental? C'est pourquoi ce livre ne s'adresse pas spécifiquement à des experts d'un domaine ou d'un autre, bien qu'il comporte inévitablement certains aspects techniques suffisamment détaillés pour permettre de cerner les technologies dont il traite dans leur réalité concrète plutôt qu'à travers les fantasmes collectifs plus ou moins conscients qui la déforment parfois grossièrement. Il vise avant tout à attirer l'attention sur les diverses facettes de cet accès de l'ordinateur à la connaissance, sur ces «connaissances génétiquement modifiées» qui en sont la clé, et sur les effets potentiels de ce «clonage» Symbolique.

1.1 Information et connaissance
Au sens strict du terme en informatique, l'information est constituée par des suites de bits (c'est-à-dire de symboles 0 ou 1) et le traitement de l'information consiste en manipulations formelles sur ces bits, identifiables en première approximation à des suites d'instructions élémentaires d'un processeur. Le traitement de l'information se décline en traitement de texte, traitement du signal, traitement d'images, etc, en fonction des types de structures dans lesquelles sont moulées ces suites de bits et des opérations spécialisées qui leur sont appliquées. Chacun de ces traitements spécialisés permet de considérer l'information qu'il manipule à un niveau conceptuel qui n'est plus celui de suites de bits indifférenciés, mais qui est celui des types abstraits de données auxquels il s'applique (textes, sons, images, etc), niveau où la manière dont il est composé à partir des instructions élémentaires du processeur n'est plus directement pertinente. Ainsi peuvent se constituer des niveaux de description abstraits, totalement mathématiques, de certains objets et traitements associés, c'est-à-dire de types abstraits définis de manière axiomatique et susceptibles d'être implémentés sur des machines différentes par des combinaisons différentes d'instructions élémentaires différentes. De la même manière, ce que nous entendons par connaissance en informatique ne s'oppose pas à l'information en ce sens étroit, mais se situe par définition à un tout autre niveau conceptuel. Indiquons dès maintenant que les termes généraux en lesquels on parle de l'une ne sont pas ceux en lesquels on parle de l'autre, que les

7

opérations que l'on effectue typiquement sur l'une (stockage, transmission, procédures séquentielles) ne sont pas de même nature que celles que l'on effectue typiquement sur l'autre (modélisation, communication, déduction, raisonnement, argumentation), ce qui, du point de vue de la « philosophie» des types abstraits que nous venons juste d'évoquer, suffirait amplement à en faire un objet différent. Sur un plan plus pratique, la connaissance exige des modes informatiques de représentation à la fois plus variés et plus complexes que l'information en général; il faudra toutefois attendre quelque peu pour voir cette distinction se préciser et le niveau conceptuel auquel situer la connaissance pour l'ordinateur prendre quelque consistance.

1.2 L'intelligence

artificielle et la connaissance

Aussi poserons-nous d'emblée, par définition, que si l'information est le matériau de l'informatique en général, la connaissance est celui de l'intelligence artificielle (lA, par la suite). (Notons pour les spécialistes que nous emploierons toujours cette expression d'lA dans son sens originel, celui d'une informatique « symbolique », c'est-à-dire manipulant des symboles formels; les raisons de ce choix et l'intérêt toujours actuel de cette lA-là apparaîtront tout au long du livre). Le traitement de la connaissance en informatique se distingue ainsi du traitement de l'information dans la mesure exacte où l'intelligence artificielle se distingue de l'informatique générale, c'est-à-dire par le regard que nous portons, et plus concrètement par le discours que nous tenons, de manière indissociable, sur son objet, sur ses méthodes, sur le type de systèmes qu'elle vise à construire, en particulier sur leur autonomie et leur capacité d'adaptation à leur environnement, sur le matériau que ceux-ci traitent et sur les manières dont ils le traitent affirmations qui ne peuvent ici prétendre qu'à indiquer, à titre de point de repère, ce qui sera développé par la suite. Mentionnons seulement pour l'instant que l'lA permet de décrire et de prévoir le comportement de certains systèmes informatiques à un niveau conceptuel et en des termes qui sont ceux qu'on emploierait pour décrire des comportements humains: à la fois dans leurs aspects intentionnels et dans leur manière d'exploiter des connaissances particulières pour réaliser leurs buts. Une question lancinante, qu'on peut étiqueter initialement comme celle des hypothèses fondatrices de l'intelligence artificielle, parcourt donc ces pages sous des formes diverses: peut-on, comme le suppose l'lA, mettre toute connaissance en formules, peut-on subsidiairement réduire son exploitation à un calcul symbolique formel? Questions éculées, dira-t-on; et puis, l'lA est passée de mode, on ne lui pardonne pas ses prétentions exorbitantes des débuts, ni son incapacité à tenir les promesses des marchands de miracles des années quatre-vingt; certains, qui commercialisent des produits recourant à ses méthodes, se gardent d'en faire état, de peur d'effrayer le client; par ailleurs, beaucoup des techniques qu'elle a développées se trouvent désormais employées de manière diffuse dans toute l'informatique, contribuant à rejeter l'lA dans l'ombre. Pourtant, sortie des
8

projecteurs, elle a poursuivi tranquillement son programme de recherche et évolué en profondeur, au point que son objet même doive être reformulé : car l'objet de l'lA, l'objet effectif, c'est-à-dire tel qu'il ressort de la pratique de cette discipline, ce n'est pas l'intelligence, comme on l'imaginait au début et comme le suggère encore le nom qu'elle a conservé. L'objet de l' lA, c'est l'agent rationnel, c'est la manière dont un agent peut exploiter rationnellement des connaissances particulières pour atteindre certains objectifs, et c'est encore la manière dont il peut interagir avec d'autres agents de même nature, sur des modes coopératifs ou compétitifs, pour finalement participer à de véritables sociétés mixtes (humaines et informatiques), éventuellement réparties aux quatre coins du globe et communiquant à travers le réseau Internet. Au cœur de toute réflexion sur l'lA se trouve donc une interrogation sur la nature précise et le rôle de l'ingrédient fondamental de la rationalité de ces agents: des connaissances symboliques formelles, elles aussi hybrides mihumaines mi-informatiques, compréhensibles par un humain ne sachant rien des subtilités informatiques d'une machine capable de les mettre en œuvre, et exploitables par un ordinateur ne sachant rien des subtilités psychiques d'un humain les comprenant. Car, si l'objet de l'lA est bien en définitive l'agent rationnel, son instrumentation passe par la formalisation symbolique des savoirs. L'lA semble ainsi établir entre l'ordinateur et l'humain un pont dont on n'imagine pas encore clairement les conséquences possibles sur notre conception de ce qu'est la connaissance.

1.3 L'ordre Symbolique de l'lA, accomplissement formel du structuralisme
Une telle forme de partage de connaissances entre l'homme et l'ordinateur soulève la question plus générale de la place de I'lA dans la société, sous une forme d'autant plus aiguë que cette discipline technique n'apparaît pas coupée de toutes connexions avec la culture qui l'a précédée. Au contraire, bien qu'elle n'ait pas jusqu'à présent pris conscience de cette parenté et de ses conséquences culturelles, l'lA prolonge à sa manière, formalise et rend technologiquement opérationnelle l'affirmation fondatrice du structuralisme, celle de l'existence et de l'autonomie d'un ordre Symbolique qui est le lieu de manipulations formelles d'éléments a-signifiants en eux-mêmes, mais productrices d'effets de sens. Bien plus, c'est cette coupure inaugurale de la notion de signe d'avec toutes ses adhérences psychologiques et représentationnelles antérieures qui, en lA comme pour le structuralisme, autorise des méthodes d'analyse et de traitement radicalement nouvelles. Le signe participe ainsi à la grande aventure de la science du XXe siècle, gravitant autour de pratiques de modélisation qui n'ont pas vocation à se soucier des questions ontologiques. L'ordre Symbolique de l' lA véhicule d'ailleurs une forme technique de relativité « référentielle» et d'absence de fondements qui permet de contrer les dérives philosophiques du structuralisme qui

9

se produisent habituellement dès qu'il accorde au signifiant une primauté sur le signifié. En outre, 1'lA partage avec la sémiotique structurale une même prétention de principe à l'universalité d'applicabilité de son regard: le champ de l'lA, comme le champ du structuralisme, c'est a priori toute la culture - prétention à laquelle le constat d'une émergence effective de l'lA à un niveau sociétal commence à donner quelque crédibilité.

1.4 L'ordre Symbolique, les savoirs et la place de l'lA
En même temps qu'en retraçant les évolutions de l'lA à l'intérieur du paradigme symbolique elles feront apparaître l'agent rationnel comme son objet effectif, les deuxième et troisième parties aboutiront à déterminer précisément l'instrument de la rationalité cet agent: non la connaissance, comme nous l'avons dit précédemment de manière vague (ni une connaissance « en soi », qui serait intrinsèquement fondée dans un quelconque absolu, ni une connaissance qui serait interne à un sujet et indépendante de l'usage pouvant en être fait, comme le supposait implicitement le développement des premiers « systèmes experts»), mais des savoirs doublement subordonnés, sur un plan général au principe de rationalité qui régit les agents de I'lA, et sur un plan particulier aux objectifs institutionnels spécifiquement assignés à chaque agent, des savoirs organisés selon des principes épistémiques précis, formulés et formalisés dans des modes socialisés de communication. D'où le constat d'un décalage du centre de gravité initial de l'lA, du champ mental individuel vers le champ socioculturel. D'où aussi la conclusion qu'en fait l'lA est moins une science de la cognition (comme on l'entend dire habituellement) qu'une science de la culture; qu'elle se situe donc, par rapport à la ligne ténue qui les sépare, plus du côté des sciences de la société que de celui des sciences de l'homme. Cette conclusion permet de mieux cerner ce qui fait la cohérence du point de vue sous lequel nous abordons l'lA: l'ordre Symbolique formel comme soubassement, l'agent rationnel comme objet, des savoirs socialisés comme instrument, la rationalité comme principe régulateur de leur usage, et finalement les sciences de la culture comme point de rattachement dans une possible classification des sciences,. elle justifie le lien étroit que nous établissons avec le structuralisme,. elle permettra en particulier, dans la quatrième partie, de montrer comment la sémiotique structurale, avec sa conception du signe comme instrument de communication, comble une lacune de la conception classique du signe en lA. Il appartiendra à la suite de ce travail de montrer l'intérêt de cette approche. Soulignons cependant qu'il ne s'agit pas pour nous de prendre parti pour cette «bonne vieille lA », comme on l'appelle parfois d'une manière qui se veut péjorative, contre des conceptions prétendument plus «modernes », comme les réseaux de neurones ou l'étude des architectures cognitives en général, chacune de ces disciplines ayant ses objectifs et ses mérites propres. Mais il s'agit

10

certainement, avec son repositionnement aux côtés de la sémiotique parmi les sciences de la culture, de montrer que cette bonne vieille lA symbolique est toujours appelée à tenir une place de choix dans la culture, qu'il serait dommageable de méconnaître à cause d'effets de mode intellectuelle.

1.5 L'émergence

de l'lA à un niveau sociétal

Devons-nous alors voir dans cet ordre Symbolique formel, tel que rendu opérationnel par l'lA, et dans ces connaissances hybrides, le point focal d'une nouvelle configuration épistémique, au sens que Michel Foucault donne à cette expression dans son étude « archéologique» du savoir, c'est-à-dire de nouveaux principes d'élaboration, de structuration et de formulation des savoirs, qui seraient influencés par les conceptions qui règnent en lA ? Il n'est pas indifférent de constater que le champ couvert par les méthodes de l'lA a largement débordé celui des applications techniques, pour investir la culture par pans entiers et s'étendre à tous les domaines de la connaissance, y compris des sujets autrefois réservés à la philosophie, et jusqu'à aborder le très délicat problème des « connaissances de sens commun », soulevant une nouvelle question, tout aussi lancinante que la première, qui est celle de sa portée socioculturelle - question d'autant plus critique que les développements récents, autour de la technologie des «agents intelligents », capables de communiquer et de coopérer, ouvrent concrètement à 1'lA la porte du réseau Internet et de la mondialisation. Avec ces masses de savoirs formels développées pour 1'lA, avec cette émergence de l'lA à un niveau sociétal, l'hybridation de la connaissance pourrait acquérir une toute nouvelle signification et, de curiosité intellectuelle, devenir un fait de société. Dans ces conditions, les principes de constitution des savoirs en lA pourraient agir en retour sur nos principes généraux de constitution des savoirs, en risquant par exemple de les corseter dans une armature formelle. Et, au fond, ne serait-ce pas un peu dévalorisant pour les savoirs d'être manipulables par un ordinateur? Les manipuler, c'est-à-dire raisonner, n'en deviendrait-il pas affaire de techniciens du raisonnement, comme calculer serait affaire de comptables? Voilà de quoi donner à notre question initiale un premier soupçon d'acuité. Cette possible action en retour d'une conception de la connaissance spécifique à l'lA sur notre conception générale de la connaissance est d'autant plus plausible, comme le montrera la troisième partie, que: 10) dans la mesure justement où le paradigme symbolique de l'lA lui donne vocation à investir tous les secteurs de la culture, parler d'un épistémè interne à 1'lA fait sens a priori; 2°) à travers la pratique effective de l'lA, on peut constater de facto des modes de constitution du savoir spécifiquement associés à cette discipline; il existe bien un épistémè interne à l'lA actuelle; 3°) il existe également une conception de la langue de l'lA actuelle, essentiellement logiciste, cohérente avec ses conceptions du signe et du savoir; et 4°) l'lA commence effectivement à émerger massivement à un niveau sociétal, justifiant l'intérêt des points précédents.
Il

Il en résulte que, quelle que soit la place qu'on consente à leur attribuer en définitive, on ne peut penser aujourd'hui sans penser l'ordre Symbolique formel et le rôle de l'ordinateur dans la constitution des savoirs du troisième millénaire.

1.6 Possibles conséquences épistémiques et sociétales
Concernant les conséquences sociétales les plus concrètes d'une éventuelle mutation épistémique liée à l'lA, nous en mentionnons quelques enjeux, bien que ce livre n'en traite qu'occasionnellement, se limitant essentiellement à envisager en quoi cette mutation pourrait consister étant données les technologies qui la soustendent, ainsi que les pré-conditions de sa survenue effective. Qu'on ne s'y trompe cependant pas: aussi abstraits ou techniques que puissent paraître certains questionnements de ce livre, nous sommes aux antipodes d'une spéculation gratuite. Car, après tout, si la connaissance peut être mise en formules librement accessibles sur Internet à la vitesse de la lumière à un assistant électronique qui les retrouverait à la demande et saurait les exploiter à notre place, à quoi bon se fatiguer à les acquérir à la vitesse laborieuse de nos neurones? De la même manière, s'il s'avère qu'un ordinateur peut raisonner aussi bien qu'il peut calculer, il n'y a plus de valeur ajoutée pour un homme à savoir raisonner, et l'on pourrait abandonner l'apprentissage du raisonnement tout comme on a abandonné de fait l'apprentissage du calcul mental. Et tout comme je contemple ma maraîchère préférée de la rue Daguerre sortir sa calculette pour déterminer le prix d'une livre de cerises à trente francs le kilo, ainsi devrais-je peut-être me résigner à voir mes petits-enfants sortir leur raisonneur électronique pour déterminer si Socrate est mortel. Or, sur un plan pratique, l'homme moyen peut-il vivre dans un monde d'artefacts cognitifs dont il ne comprendrait pas les principes généraux de fonctionnement et se contenter d'interagir avec eux, un peu comme il se contente d'allumer la télévision sans ressentir le besoin de savoir comment ça marche? Il convient de repérer une différence fondamentale entre ces deux cas d'abandon confiant en la compétence des ingénieurs. Regarder la télévision sans rien connaître de ses principes de conception internes n'a aucune raison de poser de grands problèmes métaphysiques: non pas parce que tous ces circuits compliqués n'ont rien de miraculeux; mais parce qu'ils n'ont aucun rapport avec le contenu de ce qui se donne à voir par leur biais (à cet égard, concernant l'interprétation de ce qui est regardé, quelques connaissances de sémiotique (télé- )visuelle seraient plus utiles que des connaissances techniques). Il en va tout autrement quand il s'agit d'interagir avec un système informatique « intelligent» et cela risque d'être très troublant si l'on n'a pas la moindre idée de sa « manière de penser ». En effet, les concepts abstraits qui en ordonnent la conception et le fonctionnement sont à la fois très proches et subtilement différents des concepts humains, et l'on risque de se trouver en permanence en porte-à-faux par rapport au système, de la même manière qu'on se trouverait en difficulté face à un étranger parlant correctement notre langue mais dont on ne saurait trop dans quelle mesure il ignore notre culture 12

et certains usages: comprend-il bien ce que je veux dire ?, veut-il vraiment dire ce qu'il dit ?, joue-t-il délibérément de sa supposée méconnaissance ?, etc. Sur un plan plus abstrait, n'y a-t-il pas dans la manipulation de la connaissance quelque chose de plus intime que dans le calcul mental, qui ferait qu'elle ne peut être totalement déléguée à un robot pensant comme le calcul peut être délégué sans trop de dommage à une calculette, par exemple la maîtrise d'une sorte de complexité intrinsèque au fonctionnement de la pensée, valable dans tous les domaines, ou, plus concrètement, un lien étroit avec la maîtrise du langage dans lequel la connaissance et la pensée trouvent à s'exprimer? Sinon, comment pourrions-nous continuer à faire de la raison le propre de l'homme, et comment redéfinir notre place face à ces artefacts sémiotiques et cognitifs qui vont bientôt partager notre monde et dont les flux de connaissances qu'ils contrôleront nous seront rapidement aussi indispensables que les flux d'eau courante, de gaz, d'électricité et de paroles superflues dans les téléphones portables? Y a-t-il fondamentalement dans la connaissance et dans son utilisation rationnelle quelque chose qui échappe à l'ordinateur, y a-t-il fondamentalement dans la rationalité autre chose que de la logique formelle? Devrons-nous alors, en réaction à cette mise en formules des savoirs, en venir à attacher moins d'importance à l'abstraction formalisatrice et au pur intellect qui dominent actuellement toute la formation de nos enfants au détriment de leur intuition et de la transmission de valeurs, pour promouvoir en contrepartie leur développement spirituel ou leur inculquer les bribes d'écologie mentale et d'éthique sociale qui pourraient sauver la planète de l'explosion, de la pollution ou du totalitarisme?

1.7 Impact épistémique de l'lA, interopérabilité

et accès au sens

Revenant aux deux questions jumelles de ce livre, celle d'une éventuelle révolution de la connaissance liée à l'lA et celle de notre relation aux ordinateurs, il apparaîtra que, si la première peut se comprendre en termes d'épistémè, la deuxième se pose dans le contexte sociétal d'une forte exigence d'interopérabilité entre l'homme et l'ordinateur, c'est-à-dire d'une plus grande « naturalité » dans la communication, l'échange, le partage et l'exploitation conjointe des savoirs. En nous appuyant sur les travaux de Foucault exposés dans « Les mots et les choses », nous verrons que, reprises en termes de convergence épistémique et d'interopérabilité sémiotique, les deux questions sont étroitement corrélées, ce qui conduit à préciser notre question initiale: il ne s'agit pas de savoir si la culture peut être contaminée par l'épistémè interne de l'lA actuelle, puisqu'il semble bien que celui-ci soit appelé à évoluer en même temps que sa langue, mais quelles mutations prévisibles de l'lA peuvent amener son épistémè et l'épistémè commun à converger. Or, prendre au sérieux le positionnement de l'lA parmi les sciences de la culture, c'est aussi considérer que la signification ne peut pas être seulement affaire de mécanismes internes à un système de signes, fût-il qualifié d'agent, ainsi que l'affirme le paradigme symbolique de l'lA, mais qu'elle doit aussi être affaire de
13

communication, comme le postule la sémiotique structurale. Et l'on verra justement que, même quand l'lA s'essaie à définir la signification comme relative aux mécanismes internes de son traitement par un agent artificiel, elle ne peut éviter de retrouver en partie sa nécessaire relativité par rapport aux processus de communication entre agents, qui conditionnent leur interopérabilité. Cela soulève en fin de compte une question aussi embarrassante qu'imprévue, la question du sens: «qu'est-ce que cela signifie de signifier? ». Et l'on en vient à soupçonner que la véritable question fondamentale à laquelle se trouve confrontée I'lA pourrait bien être celle du sens et de son partage plutôt que celle de l'intelligence. L'introduction d'humains dans le champ d'interopérabilité des agents artificiels permet de «raccorder» assez naturellement in abstracto la définition technique du sens élaborée par l'lA à la conception « communicationnelle » de la sémiotique structurale. On souhaiterait évidemment un raccordement plus concret. Mais une question difficile se présente immédiatement: étant données les caractéristiques du savoir en lA, le langage logique permettant de le formuler, que nous pouvons identifier comme étant la langue de l'lA classique, peut-il être l'instrument d'une telle interopérabilité sémiotique, alors qu'il est si éloigné du langage naturel dans sa syntaxe et sa sémantique? Observant que ce langage logique n'est pas une caractéristique intrinsèque du paradigme symbolique, peut-on entrevoir une possibilité concrète pour l'lA d'atteindre à un autre type de langage sans remettre en cause son paradigme fondateur? Peut-on plus précisément envisager pour des systèmes artificiels un accès à un mode de signifiance qui serait plus proche du mode naturel que la sémantique logiciste ?

1.8 Modèles symboliques du sens et accès de l'ordinateur au sens
Avec la sémantique conceptuelle, issue de toute une tradition de recherches linguistiques, et trouvant des justifications précises dans de minutieuses études relatives à une multiplicité de langues, nous verrons que des modèles des structures sémantiques du langage naturel permettent effectivement d'envisager des systèmes de modélisation ou représentation des connaissances plus «naturels» que les systèmes traditionnels de l'lA implicitement basés sur la logique, et qui en outre jouissent de bonnes propriétés d'efficacité représentationnelle et inférentielle. La sémantique conceptuelle constitue à l'intérieur de l'ordre Symbolique le modèle formel d'une couche structurelle universelle de signifiance, partageable entre l'homme et l'ordinateur. A sa manière, elle justifie ainsi l'hypothèse fondamentale du structuralisme et de l'lA, l'autonomie du Symbolique: le signifiant, le signifié et leur relation sont entièrement descriptibles dans l'ordre Symbolique. Il se pourrait bien ainsi que l'lA remplisse dans un avenir pas si lointain les conditions nécessaires à une interopérabilité accrue avec l'homme et à une influence épistémique significative. Nous verrons par ailleurs que la Sémiophysique de Thom laisse entrevoir la possibilité qu'il y ait une raison mathématique fondamentale à l'existence d'une 14

couche sémantique autonome et universelle. En confortant l'idée d'une couche structurelle universelle de signifiance modélisable dans l'ordre Symbolique, en justifiant l'autonomie de cette couche par rapport aux processus physiques sousjacents aux comportements Symboliques de l'homme et de l'ordinateur, processus dont il est évident qu'ils ne peuvent pas être identiques pour l'un et pour l'autre, la Sémiophysique contribue à justifier le paradigme symbolique de l'lA. Pas plus qu'aucun autre concept, celui de signification n'a de sens figé: c'est l'une des conséquences que « Les mots et les choses» permettent de tirer de la forte corrélation dont ce livre démontre l'existence entre l'épistémè d'une époque et sa conception de ce que signifie signifier. Etant donnée la place grandissante de l'informatique dans notre vie courante, l'exigence d' interopérabilité et la multiplication des interactions effectives avec l'ordinateur conduisent inéluctablement au développement de langages formels proches (syntaxiquement et sémantiquement) du langage naturel, permettant des interactions relativement « naturelles» avec l'homme. Les modèles sémantiques de ces langages, basés sur les théories linguistiques précédentes, voisins mais peut-être subtilement différents de nos modèles implicites actuels, risquent de devenir nos modèles sémantiques tout court. Des modes de signifiance plus subtils que ceux formalisés dans ces langages risquent de tomber en désuétude du fait de leur inefficacité communicationnelle dans un monde où la signifiance serait évaluée à l'aune de la compréhensibilité par une machine. Tel semble donc le véritable enjeu de la forte exigence sociétale actuelle d'interopérabilité entre l'homme et l'ordinateur et des travaux en lA et en linguistique informatique qui concourent à la satisfaire: définir non seulement ce que sera la langue de nos relations avec l'ordinateur, mais aussi ce à quoi risquent à terme de se limiter nos modes courants de
signifiance.

2. Contexte technologique: et sa portée

la révolution numérique

Puisque nous n'y reviendrons pas ultérieurement, examinons rapidement le contexte général de la «révolution numérique» dans lequel se situe notre questionnement plus ciblé sur les technologies de la connaissance. Seul ce contexte permet de mesurer la portée concrète et l'actualité de notre étude et de justifier l'objet précis que nous lui avons assigné ci-dessus.

2.1 La révolution numérique et ses bases technologiques
Ce qu'on appelle couramment aspects: l' « universalité» de l'ensemble « révolution numérique» comporte plusieurs de codage

.

des techniques

mathématiques

numérique, qui désormais savent traiter tous les types de médias courants (texte structuré, dessin, image, son, animation, vidéo, etc), chacun selon des modes de
15

.

.
.

. .

codage spécifiques normalisés, et les représenter uniformément comme des suites de bits; sa conséquence pratique, la possibilité de stocker tous les médias sur les mêmes supports physiques que les programmes et fichiers informatiques; avec des implications commerciales très précises, comme l'apparition de la photo numérique ou le passage en quelques années des caméscopes analogiques aux caméscopes numériques, et la possibilité pour tout amateur de faire de la retouche d'images ou du montage vidéo; l' « universalité» de la technique hypertexte, qui, en essence, permet de combiner des méthodes universelles de codage de l'information avec des protocoles universels de transmission; on peut ainsi mélanger dans un même « document» tous les médias (ce qui n'était le cas ni du livre, ni de la cassette audio, ni de la bande vidéo) et « naviguer» de manière totalement transparente entre médias d'un même document ou entre documents, où qu'ils soient situés dans le monde; sa conséquence pratique, la quasi-dématérialisation du support physique des médias (au point que ce terme de média, qui désigne littéralement le « moyen », ne signifie plus dans le langage courant que le type de contenu) : une suite de bits, qu'ils soient stockés sur un CD-Rom ou sur un disque dur quelque part sur la planète, est mQins matérielle que la suite de caractères sur une page, ou la bobine de film, dont elle est l'équivalent; la nature du support physique prend un caractère d'autant plus virtuel que la diffusion du contenu est moins restreinte par des questions d'éloignement géographique, de coût du support, ou de délai de reproduction; et, finalement, le fait du développement exponentiel du réseau Internet, qui est devenu une réalité tellement massive aujourd'hui qu'il n'est pas besoin de commentaires.

Cette «révolution numérique» repose sur trois avancées technologiques majeures, continues depuis les débuts de l'informatique, qui ne nous intéressent pas ici en elles-mêmes, mais par ce qu'elles rendent possible: l'augmentation rapide des capacités de stockage d'informations sur toutes sortes de supports physiques, proportionnellement de tailles de plus en plus petites et de coûts de plus en plus bas: en quelques années, par exemple, à taille du support constante, des techniques de gravure de plus en plus fines permettent de passer du CD-Rom (600 Mo) au DVD-Rom (5 Go), puis bientôt au FMD-Rom (le Fluorescent Multilayer Disk de 140 Go pour commencer, et de 1 To annoncés) ; rappelons qu'un octet permet de coder un caractère, un méga-octet (Mo) en code un million (ce qui est environ le volume requis pour un roman formaté de deux cents pages), un giga-octet (Go) en code un milliard (ce qui correspond environ à vingt minutes de films d'un DVD-vidéo) et un téra-octet (Ta) en code mille milliards; ainsi, il suffirait de quelques unes de ces futures «galettes» pour stocker (avec des moyens d'acquisition convenables) tout ce qu'une personne moyenne peut lire, entendre ou voir au cours de son existence, ou (ce qui est plus 16

.
.

quantifiable) tous les «documents» (au sens le plus général du terme) jamais publiés, c'est-à-dire toute la production culturelle du monde; l'augmentation rapide des capacités de traitement des processeurs, dont la puissance double environ tous les dix-huit mois, autorisant le traitement de données de plus en plus volumineuses en des temps compatibles avec leur exploitation dans des conditions normales, par exemple l'affichage de pages contenant des images fixes ou animées de haute résolution; le développement explosif des technologies de communication, qui permettent d'accéder rapidement à toutes ces informations, où qu'elles se trouvent sur la planète (pour peu qu'on sache où les trouver).

2.2 La question des savoirs face à la révolution numérique
Concernant plus spécifiquement le savoir, la révolution numérique signifie, dans un premier temps, la possibilité d'archiver sur un même support informatique tous les savoirs, quelles que soient les formes sous lesquelles ils se présentent naturellement; et, dans un deuxième temps, les besoins d'acces à ces savoirs entraînent naturellement leur mise en réseau, autorisée et accélérée par les technologies de l'Internet et par le développement foudroyant des télécommunications, avec un effet boule-de-neige sur le volume des contenus déposés sur le Réseau. En elle-même, la révolution numérique a donc déjà un impact profond sur les savoirs, leur accessibilité et leur exploitation, qu'exprime bien le slogan: «tous les savoirs du monde à quelques clics de souris ». Elle est, par exemple, à l'origine des évolutions majeures de l'enseignement assisté par ordinateur (EAO), qui avait récemment encore assez mauvaise presse, mais qui a acquis sa respectabilité en se parant des atours chatoyants du multimédia, de l'hypertexte et de l'Internet, et en adoptant des pseudonymes plus chics, comme « e-learning ». Elle est aussi à l'origine d'un mouvement de très grande ampleur dans les bibliothèques, universités et centres de recherche, qui mettent « en ligne» toutes sortes de livres, cours, publications et bases de données. De même, de nombreux éditeurs commencent à rendre leurs ouvrages accessibles sur le réseau. Toutefois, il apparaît rapidement, dans un troisième temps, qu'il n'est pas si simple de se repérer dans cette jungle qu'est devenue l'Internet et de trouver les bons clics de souris. L'interconnexion mondiale ne suffit pas en elle-même à assurer aux humains un accès convenable à ces stocks de savoirs qu'ils archivent sur les disques durs et font transiter à travers le réseau. Il faudrait qu'en outre les ordinateurs soient capables de retrouver sélectivement le savoir adéquat, au moment voulu et de manière aussi simple que possible pour l'utilisateur; il faudrait donc qu'ils aient une certaine compréhension, un certain accès au « sens» des savoirs qu'ils manipulent, pour les filtrer « intelligemment» ; l'lA entre ainsi d'ores et déjà en scène, de manière plus ou moins discrète. Dans un quatrième temps, on ne se contentera plus de retrouver les savoirs bruts, on attendra de l'ordinateur qu'il sache les manipuler et les exploiter lui-même à des fins particulières, par exemple nous faire un résumé synthétique des cinq mille
17

références trouvées sur le sujet qui nous intéresse, ou nous aider à affiner nos critères de recherche, ou encore mener sur ce qu'il a trouvé quelques raisonnements pour répondre à la question précise que nous lui avons posée; l'lA règnera alors en maître sur le réseau du savoir, ouvrant à chacun la possibilité d'exploiter à sa guise des savoirs spécialisés dans des domaines où il n'a pas de connaissances très précises. Ce scénario reste bien entendu une reconstitution mythique, puisque dans la réalité les quatre phases se déroulent en partie en parallèle, se justifiant et s'alimentant mutuellement. Pour situer le début du troisième millénaire: nous sommes au cœur de la troisième phase - c'est-à-dire que les besoins qui la motivent sont clairement exprimés et que les recherches qui pourraient conduire à son succès sont largement avancées, comme cela sera montré dans la troisième partie. Et, pour situer notre étude, elle est principalement concernée par les troisième et quatrième phases, qui seules font entrer en jeu les technologies de la connaissance, c'est-à-dire traitent l'information à un niveau où elle apparaît comme savoirs, supposant un certain accès de l'ordinateur à leur sens; seules ces technologies sont susceptibles d'exiger quelques adaptations réciproques de l'homme et de l'ordinateur pour parvenir à une conception du savoir qui leur serait commune, c'est-à-dire exploitable sous la même forme par tous deux. Or, le croisement technologique entre l'lA et Internet, que présupposent ces deux phases, s'est justement produit au cours des années récentes, avec plusieurs types de développements: 10) langages de représentation des connaissances compatibles avec les normes du «web» (c'est-à-dire construits au-dessus de XML) ; 2°) technologies d'agents intelligents capables de communiquer et de coopérer à travers le réseau; 3°) applications concrètes de ces agents à la recherche d'informations et au commerce électronique (entre autres) ; 4°) apparition de normes de codage « sémantique» des informations déposées sur le « web» ; 5°) bibliothèques de «composants distribués» permettant de créer des modèles d'entreprises communicantes, etc. A terme, c'est-à-dire modulo quelques développements supplémentaires non triviaux, dont la quatrième partie montrera qu'il faut y inclure un certain accès de l'lA au langage naturel, ce croisement devrait bénéficier aux deux, procurant potentiellement aux agents de l'lA des pâturages quasi illimités où aller brouter de nouvelles connaissances et permettant inversement de doter Internet de fonctionnalités « intelligentes».

2.3 Nécessité d'étendre notre champ d'étude à « tous les savoirs
du monde»
Notre réflexion sur le savoir serait (relativement) facile si nous la restreignions à l'étude des problèmes d'organisation posés par le développement d'un CD-Rom, d'un DVD-Rom ou d'un système à base de connaissances de quelques milliers ou dizaines de milliers de règles d'expertise dans un domaine particulier; cela nous placerait en tout cas sur un terrain assez sûr et relativement bien balisé (comme la deuxième partie le montrera en détail). 18

Mais les potentialités quasi illimitées ouvertes par la « révolution numérique» imposent l'affirmation qui constitue simultanément le contexte et la justification de ce livre: ce qui, dans le domaine du savoir, est concerné par «la révolution numérique », c'est d'emblée « tous les savoirs du monde ». Toute réflexion sur la connaissance se trouve donc aujourd'hui confrontée à l'obligation impérieuse de prendre la mesure exacte du potentiel technologique des prochaines décennies, de définir en conséquence l'ampleur de son champ d'investigation, et d'adopter ou de se forger des outils conceptuels adaptés à l'analyse de l'impact sur la connaissance de la révolution numérique et, en particulier, des technologies de la connaissance.

En pratique, elle ne peut donc échapper à la triple nécessité: 10) de se situer au
niveau, non des savoirs particuliers, mais des principes dessinant l'organisation du champ complet des savoirs, c'est-à-dire de l'épistémè ; 2°) d'essayer d'entrevoir quel pourrait être l'impact épistémique des technologies informatiques de la connaissance; et 3°) d'analyser les conditions de survenue effective d'une mutation épistémique liée à ces technologies. Autre manière de dire qu'il ne semble pas possible aujourd'hui de faire l'économie de notre programme de travail.

3. Questions de méthode et d'exposition
Cet ouvrage aborde (à divers degrés de détail) un faisceau de disciplines scientifiques concernées de manières variées par le traitement informatique de la connaissance. Pourtant, il ne se veut principalement ni de vulgarisation scientifique, ni d'introduction à ces disciplines, ni de philosophie de la science, ni d'histoire de la science, ni d'épistémologie générale, bien qu'il doive en permanence flirter avec ces différentes approches. Il prétend se situer dans un mouvement réflexif critique interne à ce faisceau de disciplines, qui nécessite la mise en suspens de tout discours idéologique externe tenu sur elles (fût-ce par ceux-là mêmes qui les produisent). Dès lors se posent deux questions cruciales: la première de méthode: comment à la fois rester au plus près des pratiques

.

.

scientifiques effectives et créer la distanciation nécessaire à toute réflexivité ? ; deux types principaux de distanciation s'offrent à nous: «spatiale» et « temporelle» ; la seconde d'exposition: quelles connaissances préalables peut-on exiger du lecteur et que faut-il exposer ici?

3.1 Nécessité d'un recul adéquat
Trouver le lieu adéquat d'où répondre à notre question initiale n'est pas si évident qu'il pourrait y paraître. C'est d'abord qu'il manque un espace naturel où la poser avec le recul suffisant. A serrer de trop près les technologies concernées, qui en sont encore à un stade de développement technique en évolution rapide, on manque en effet de concepts réflexifs qui autoriseraient une distanciation et une mise en perspective. 19

Le cognitivisme symbolique, par exemple, c'est-à-dire une certaine vision computationnelle de l'esprit, interprétation philosophico-psychologique de l'intelligence artificielle basée sur ses concepts fondateurs et qui la considère comme pourvoyeuse de modèles de la cognition humaine, offre en la matière peu de ressources et semble une bien piètre et partielle manière d'inscrire l'lA dans la culture de notre époque. Car il n'est que l'expression particulière d'une tendance universelle, et somme toute bien naturelle, à faire des systèmes techniques les plus complexes d'une époque le modèle de l'homme. D'ailleurs, même s'il nous arrive, à l'occasion, de faire quelques commentaires sur l'interprétation cognitiviste de l' lA, là n'est pas le centre d'intérêt de ce travail: il ne s'agit pas pour nous d'analyser si 1'lA technique fournit des modèles adéquats de l'intelligence, la cognition, l'esprit, etc. C'est à 1'lA en tant que science et technique que nous nous intéressons, aux artefacts qu'elle produit, à une certaine conception de la connaissance qu'elle promeut implicitement, et quand nous nous interrogeons sur ses conséquences socioculturelles, il s'agit bien des conséquences de cette lA technique, et non de philosophie cognitiviste. D'une manière générale, le projet de ce livre se distingue par son principal objet d'intérêt (la notion de savoir nécessaire au fonctionnement des artefacts construits par 1'lA) du projet des sciences

cognitives, centrées sur l'étude de diverses catégories cognitives humaines - ce
qu'exprime aussi notre classement de 1'lA parmi les sciences de la culture plutôt que de la cognition. C'est aussi qu'il manque inversement un espace naturel où poser notre question sans trop de recul, et que les principaux discours généraux qui pourraient naturellement prétendre à tracer les contours d'un tel espace, restent trop généraux justement, et trop étrangers aux technologies nouvelles et à la «révolution» qu'elles annoncent, pour y apporter une lumière suffisamment vive. La réflexion sur la connaissance en général, par opposition à la connaissance spécifique à tel ou tel domaine (mathématiques, physique, psychologie, etc), est traditionnellement, depuis la Métaphysique d'Aristote en Occident, l'affaire de la philosophie. Selon cette tradition, la question est la plupart du temps rapidement piégée par la question de l'Etre, et ce qui devrait être épistémologie est rabattu sur l'Ontologie, «que puis-je connaître? » se retrouvant malencontreusement subordonné à « qu'est-ce qui Est? ». Quant aux approches plus récentes, la « philosophie de la science» issue du positivisme logique, la « philosophie de la connaissance» issue de la critique kantienne, ainsi que les diverses formes de l' « épistémologie» apparues depuis le début du XXe siècle, quoiqu'elles portent elles-mêmes les traces d'une mutation profonde intervenue dans la conception de la connaissance, disons depuis la critique kantienne, elles tiennent aussi peu compte de la place potentielle des technologies modernes. Une nuance doit être apportée à ces remarques en ce qui concerne quelques aspects de la philosophie analytique, dont nous analyserons certaines des relations qu'elle entretient avec 1'lA. C'est enfin que ces discours philosophiques généraux ne sauraient plus aujourd'hui être considérés comme les seuls autorisés, ou même les principaux, qu'ils sont indirectement concurrencés, au niveau de recul qui est le leur, mais sous 20

une perspective différente, par le discours d'origine un peu plus technique du structuralisme, lequel semble au premier abord en meilleure consonance avec l'lA, ne serait-ce que par sa conception du signe, comme nous l'avons indiqué plus haut. S'appuyant sur le modèle linguistique, le structuralisme a développé des méthodes générales qui ont fait accéder au statut de science un certain nombre de disciplines jusque-là considérées comme « du côté des humanités », remettant en cause le divorce entre sciences et humanités qui s'était consommé au cours du XIXe siècle. Autour des concepts fondamentaux du structuralisme, les concepts de signe et de structure, s'est cristallisée toute une conception des sciences humaines et sociales qui leur a fait rejoindre les sciences « dures» dans une démarche commune basée sur l'idée de modélisation. Malheureusement, le structuralisme, lui-même agrégat instable de disciplines auxquelles, s'il est facile de trouver une origine historique commune au renouveau qu'elles ont connu, il n'est pas évident de trouver un noyau commun, le structuralisme est débordé de toutes parts par l'évolution interne de ces disciplines, pour lesquelles il n'est plus, au mieux, qu'un lointain ancêtre plus ou moins avouable; c'est qu'en effet sur ses développements proprement scientifiques sont venues se greffer des options philosophiques suspectes dont il n'est pas toujours évident de décider sur quelles bases s'autoriser à les en séparer. Aussi devrons-nous consacrer quelque temps à mettre à jour les caractéristiques du structuralisme essentielles pour notre propos, c'est-à-dire à définir ce que nous adopterons comme étant le discours du structuralisme scientifique.

3.2 Nécessité d'une perspective temporelle
Nous produirons également une certaine distanciation « temporelle» grâce à l'étude des évolutions effectives de l'lA. Ces évolutions, qui restent trop souvent non analysées, peuvent être lourdes de sens. Implicites resteront toutefois les principes et champs d'application de l'hypothèse, qui ne peut évidemment être admise sans restrictions, qu'une évolution suppose un progrès sous-jacent de la connaissance - au sens minimal d'une meilleure compréhension de l'objet, des méthodes ou des résultats d'une discipline, sans qu'il soit nécessaire d'adopter une vision idéaliste du progrès. On ne peut évidemment déduire du constat d'une évolution ni qu'elle était logiquement nécessaire ni qu'elle était la seule possible, mais il ne s'agit pas ici d'établir une preuve formelle de ce qui est avancé. Notre approche ne se justifie cependant que si l'on essaie de remonter aux causes des évolutions, ne pouvant se satisfaire d'une description purement factuelle. Aussi avons-nous mis un soin tout particulier à retracer dans les textes originaux les conceptions précises des chercheurs qui ont marqué cette discipline (d'où une assez abondante bibliographie technique).

3.3 Problème d'exposition
Tout travail trans-disciplinaire se heurte inévitablement aux mêmes problèmes. Utilisant des concepts, se référant à des discours et s'adressant à un public issus de 21

disciplines parfois totalement étrangères les unes aux autres, doit-il se contenter de renvoyer le lecteur aux textes originaux et laisser chacun essayer d'y voir clair dans les domaines qu'il connaît mal? Et sinon, ne va-t-il pas rapidement lasser d'autres lecteurs en exposant des sujets qu'ils considèrent comme élémentaires, voire dépassés? Parler aujourd'hui du structuralisme expose tout particulièrement à cette critique; et pourtant comment tirer un trait sur un moment aussi incontournable de I'histoire de la pensée, dont nous verrons que I'lA renouvelle l'actualité et l'intérêt? De même, fallait-il un aussi long chapitre sur le savoir, le signe et la langue, alors que les idées de Foucault sont largement connues dans le grand public dont la culture est orientée vers les «humanités»? Mais elles le sont très certainement beaucoup moins parmi les lecteurs scientifiques, que nous ne voulons pas décourager par la nécessité d'aller chercher ailleurs pour comprendre de manière concrète de quoi nous parlons. Du côté technique, dans les domaines de I 'lA et de la linguistique informatique, centraux pour notre exposé, nous ne pouvons éviter d'entrer dans un certain nombre de « détails» techniques. Nous essayons par exemple de montrer (dans les grandes lignes) comment des agents intelligents et des sociétés virtuelles constituées de tels agents peuvent être conçus, et comment peut être développé un langage formel, hybride mi-humain mi-informatique, pour les spécifier. Pour faire sentir la faisabilité de ces agents, nous devons établir un pont suffisamment précis avec la dérisoire petite machine de Turing dont ils semblent à des années-lumière en complexité et qui leur est pourtant formellement équivalente. Seuls ces « détails» permettent de comprendre précisément la puissance et l'actualité du paradigme symbolique. De la même manière, lorsque nous parlons de la modélisation du savoir en lA, plutôt que des considérations un peu vagues sur toutes les méthodologies existantes, nous avons préféré choisir un exemple et l'analyser de manière détaillée, faute de quoi nos propos n'auraient pu rester qu'au stade d'un bavardage dénué de fondement concret dans les pratiques effectives; nous avons choisi la méthodologie KADS, car c'est, selon nous, la plus élaborée et la plus souple; cela peut toujours être débattu, mais a peu d'importance en regard de l'objet de ce livre; chacun pourra vérifier que les conclusions générales que nous tirons sur la conception du savoir et de la langue en lA restent valables pour sa méthodologie préférée. En ce qui concerne la linguistique informatique, il n'est évidemment pas question, en quelques pages, d'en faire une présentation générale, qui n'apporterait rien à notre propos; mais il nous faut cependant en décrire de manière précise quelques aspects choisis qui nous permettent de laisser entrevoir: 10) la possibilité d'une approche de la sémantique et de son lien avec la syntaxe, profondément différente de celle, beaucoup plus connue, qui a cours dans la logique formelle et l'lA classique, 2°) son intérêt technique concret pour l'lA, et 3°) le rôle critique qu'elle est appelée à jouer pour qu'advienne une véritable interopérabilité entre l'homme et l'ordinateur et pour définir la place de l'lA dans la culture. 22

Pour chacun de ces domaines, le spécialiste trouvera certainement le survol trop rapide, mais devra considérer que ce livre n'a aucune prétention à faire une revue de leurs divers problèmes ou techniques et qu'il laisse pour cette raison dans l'ombre de très nombreux aspects de sa discipline, dont il ne faudrait pas conclure qu'ils sont intrinsèquement moins intéressants que ceux que nous avons choisi d'exposer; nous espérons que le non-spécialiste y puisera suffisamment d'informations pour en entrevoir les principes généraux et ne pas rester sur l'idée que tout cela lui est incompréhensible; car nous sommes convaincus que, puisque l'lA investit massivement et subrepticement la culture, et puisque l'avenir de l'lA passe par son accès au langage naturel, une certaine connaissance des possibilités actuelles de l'lA et de la linguistique informatique doit diffuser largement dans la culture. Or, nous avons pu constater, par exemple, que des étudiants en écoles d'ingénieur ou de management (à bac + 3, 4 ou 5), pourtant spécialisés dans les technologies de l'information, gardaient sur l'lA des idées à peu près aussi vagues que le grand public pour lequel le terme ou bien renvoie aux jeux d'échecs ou bien fusionne avec celui de robot pour évoquer la rationalité meurtrière de l'ordinateur HAL dans l' « Odyssée de l'Espace », le gentil R2D2 de la « Guerre des Etoiles », les romans d'Asimov et, depuis peu, le film « AI » de Spielberg.

3.4 Fils conducteurs
Pour faciliter une lecture sélective, et au risque de quelques redondances, les quatre parties du livre sont (relativement) indépendantes les unes des autres, et à l'intérieur de chaque partie la plupart des chapitres sont aussi relativement indépendants. Les mêmes principaux fils conducteurs s'entremêlent cependant étroitement, dans des proportions variées, d'un chapitre à l'autre: 1°) un fil « informatique symbolique» (aussi peu technique que possible, mais aussi précis que nécessaire) présente les machines de Turing universelles et le paradigme symbolique de 1'lA, ainsi que les évolutions internes de cette discipline, jusqu'au développement du paradigme des agents intelligents qui lui ouvre la porte d'Internet; 2°) un fil « sémiotique» présente notre perception du structuralisme scientifique et quelques rudiments de sémiotique structurale, montre comment le paradigme symbolique prolonge et accomplit la conception structuraliste des systèmes de signes, puis comment les agents intelligents obligent à réintroduire en lA une dimension communicationnelle du signe qu'elle avait initialement occultée; il étudie avec un certain détailla sémantique conceptuelle de Jackendoff, en tant que un système de modélisation de la sémantique du langage naturel, dépouillée de ses surinterprétations cognitivistes ; il montre que la combinaison de différents aspects complémentaires du signe linguistique permet d'envisager un accès de l'ordinateur à des fragments significatifs du langage naturel; 3°) un fil «archéologique» trouve son origine dans la corrélation repérée par Michel Foucault entre les conceptions du savoir du signe et de la langue à chaque 23

époque; il se décline concrètement en lA à travers l'étude détaillée des méthodologies et des langages de modélisation des connaissances; il aboutit à exhiber une langue et un épistémè propres à l'lA « classique» ; 4 0) un fil « épistémologique» aborde le paradigme scientifique de la modélisation en général et la reconnaissance tardive par I'lA de la nécessité de s'y plier; il traite de questions d'universalité, de relativité et de fondements, que l'on retrouve ensuite à tous les niveaux d'organisation de l'ordre Symbolique formel; il analyse la forme radicale d'absence de fondements absolus qui caractérise le paradigme symbolique, le distinguant en particulier des approches neuronales (toujours plus ou moins en quête de fondements physicalistes) qui l'ont supplanté dans les sciences de la cognition; implicitement (car cette idée ne sera pas développée ici en tant que telle), il montre comment une approche «disciplinaire» de l'épistémologie peut conduire à des considérations pointues inaccessibles aux approches « généralistes» (qu'elle ne prétend pas récuser pour autant) ; 5°) un fil « sociétal » suggère à travers quelques exemples l'immensité du champ investi par l'informatique symbolique (laissant entrevoir des possibilités d'extension encore plus considérables) ; le gigantisme de certaines réalisations (lexiques, bases de connaissances techniques, bases de connaissances de sens commun, ontologies de «composants métiers» pour la modélisation des organisations et la construction de leurs systèmes d'information, etc) répond ici au gigantisme des besoins sociétaux (qu'on songe par exemple à la recherche et à la synthèse d'informations ou de connaissances sur Internet) ; ce fil passe aussi par l'examen de quelques conséquences sociétales possibles de l'lA; 6°) enfin, un fil « applicatif» se fera surtout remarquer par sa relative minceur (si ce n'est pour les aspects en rapport avec Internet); entrer dans le détail d'applications particulières nous aurait trop éloigné de notre propos général; pour compenser cette absence, il convient donc de rappeler qu'il n'y a pas aujourd'hui un seul domaine de connaissance, pas un seul secteur d'activité, qui échappe aux assauts de l' lA.

24

Première partie

TOILE DE FOND

Rôle d'une toile de fond
Il n'y a pas de Sens absolu, fixe à tout jamais. Le sens est le produit des discours effectivement tenus et tout discours un tant soit peu nouveau modifie l'équilibre des significations antérieures. Le présent est une réécriture permanente du passé, qui en modifie le sens. Le domaine scientifique n'échappe pas à cette fatalité: du simple fait de la continuelle production de « découvertes» nouvelles, toute discipline, même la plus ancienne, même la plus apparemment figée dans ses significations, est en perpétuel renouvellement de sens. La géométrie d'Euclide se trouve mise dans des perspectives différentes non seulement par la géométrie analytique de Descartes ou la géométrie différentielle de Riemann, mais aussi par les liens qu'elle entretient avec la physique ou la relativité générale. Ainsi, tout discours se tient et s'entend de l'intérieur de l'univers mouvant du discours: l'affirmation de Putnam, que «les significations n'ont pas d'essence, même si elles ont une permanence », ne doit pas être limitée aux significations des concepts, elle doit être étendue à tous les niveaux d'organisation du sens; il n'y a pas de métalangage qui permettrait de parler « objectivement» des discours et d'en figer le sens; et il n'y a pas de point de vue neutre, objectif, il n'y a pas de sujet transcendant disposant du pouvoir de décider de la juste interprétation, et moins encore de la « Vérité », des discours. Tout discours, donc, est subjectivement situé. Il se tient et s'entend dans le contexte des discours qui l'ont subjectivement précédé, en particulier plutôt dans 25

celui de leurs interprétations actuelles que dans celui de leur réel point d'origine culturel, temporel ou géographique; il reçoit d'eux la majeure partie de son sens et échappe d'autant à son auteur. Le fait que l'auteur et le lecteur ne puissent jamais partager exactement les mêmes antécédents culturels ne fait qu'aggraver la situation, le soumettant à autant de ré-interprétations que de constellations mentales possibles. De la sorte, aucun discours ne peut être définitif, bien que l'affirmation contraire constitue le fonds de commerce de toutes les idéologies, politiques, religieuses ou scientifiques. Que peut faire l'auteur pour contrôler en partie l'interprétation de son texte, sinon proposer au lecteur une toile de fond dans laquelle il trace les lignes directrices des principaux discours auxquels il se réfère - c'est-à-dire en fait de sa lecture rétrospective et intentionnellement appropriatoire de ces discours (qui ne saurait donc se prétendre introductrice, il est important de le souligner), elle-même sujette à un subtil conditionnement anachronique par le discours dont il tente présentement d'établir l'isotopie ? Encore ne peut-il s'assurer par là que sa toile de fond, elle aussi évidemment soumise à la contrainte de tout discours, ne sera pas récursivement interprétée selon des perspectives fort différentes du lecteur. Du moins aura-t-il par cet effort tenté de cerner ses hypothèses de départ et facilité la remise en cause de son travail, participant consciemment à un processus de recherche qu'il sait sans fin. Dans ce processus, toute régression en appelle automatiquement de nouvelles, qui chacune ouvre la porte à maintes interprétations alternatives. Plus on invoque des idées éloignées dans le temps et l'espace, plus diffèrent les contextes culturels, et plus grandes seront les possibilités d'interprétations divergentes. Plutôt que de remonter à Platon et autre bonne compagnie, comme on le voit parfois faire dans des ouvrages de réflexion sur les sujets qui nous préoccupent ici, mieux vaut donc composer notre toile de fond avec un ensemble restreint d'idées, culturellement aussi proches de nous que possible. Remarquons qu'une toile de fond, c'est la limite extérieure de la scène, l'en dehors immédiat. Elle représente un décor relativement figé qui isole provisoirement du monde extérieur; la scène se déroule devant, pas «dans ». Pourtant, une bonne toile de fond doit avoir un rapport étroit avec ce qui se passe devant; sans participer de l'action et sans trop borner son horizon, elle doit souligner les traits fondamentaux de son contexte immédiat. Posée là avant le début de l'action pour le spectateur, elle ne peut être spécifiée par l'auteur qu'en fonction de ce qui va se dérouler devant. Notre toile de fond a été écrite en partie alors que le reste du livre était bien avancé, la nécessité de regrouper les idées qui y sont développées s'étant imposée au fur et à mesure de l'écriture, pour alléger les autres parties d'interruptions qui pouvaient faire perdre le fil. Le lecteur pressé d'entrer dans le vif du sujet peut la concevoir comme un regroupement de références auxquelles se rapporter au moment opportun. Mais le lecteur plus patient y décèlera peut-être une certaine cohérence épistémologique. 26

Précisons enfin que les sujets abordés ici constituent une toile de fond pour nous, auteur et lecteurs, mais pas pour le développement historique des disciplines étudiées par la suite, qui ont largement ignoré ce que nous exposons. Nous l'avons dit, notre objectif impose de prendre du recul. Il pourra en résulter quelques surprises quand nous rencontrerons, en lA par exemple, des épisodes où son évolution se heurte sans les reconnaître à des questions de modélisation soulevées
IC!.

Composition

de notre toile de fond

Deux hypothèses de travail, avec les séries d'idées sur lesquelles elles reposent, et un triple questionnement, composeront notre toile de fond. Nous qualifions aussi les premières d'axiomes, dans la mesure où nous en explorons quelques facettes, mais n'en discutons pas réellement en détail la validité; plus précisément, nous pensons que la validité absolue ne peut d'aucune manière en être établie. Quant au questionnement, on verra qu'il hante l'épistémologie et la philosophie du XXe siècle.
Notre première hypothèse est que la modélisation est au centre de toute l'activité scientifique. C'est sans doute une affirmation aujourd'hui évidente pour beaucoup, mais il n'en a pas toujours été ainsi, le sens n'en est pas toujours clair, les implications n'en sont pas toujours vraiment comprises et l'acceptation n'en est pas encore partout assurée, en particulier chaque fois que l'on prétend traiter des choses « telles qu'elles sont en elles-mêmes », ignorant la distanciation d'avec son objet inhérente à tout modèle. La conséquence philosophique la plus notable de cette hypothèse est que toute ontologie ne peut être qu'extra scientifique - la modélisation ne peut se développer que sur le rejet hors de la science de la question philosophique de l'Etre (plus précisément: en distinguant clairement les discours de la science et les discours sur son objet).

Dans sa première version, notre deuxième hypothèse est que toute connaissance, pour autant qu'elle participe effectivement d'une culture, est communicable via un mode socialisé de communication, c'est-à-dire formulable dans un système de signes, et soumise en conséquence à un langage ou code de communication (fût-il implicite). La série d'idées qui accompagne cette hypothèse tourne autour de la notion de signe, instrument de toute communication, et de la rupture conceptuelle intervenue à son sujet au début du siècle avec le structuralisme. Dans le structuralisme, nous devrons toutefois commencer par distinguer une méthode scientifique et une constellation d'options philosophiques.

Le structuralisme scientifique peut dès lors être ordonné selon: 10) une
discipline régulatrice, la sémiotique, science générale des systèmes de signes considérés en tant qu'instruments de communication; 2°) des disciplines satellites, qui en sont (dans la mesure où elles adoptent cette approche) des spécialisations ou des applications (comme la linguistique, l'anthropologie ou la psychanalyse
27

version lacanienne). C'est dans la sémiotique structurale version intermédiaire de notre deuxième hypothèse.

que nous puisons

la

Allant bien au-delà de cette version intermédiaire, l'analyse « archéologique» du savoir réalisée par Michel Foucault dévoile une étroite corrélation entre la conception de ce qu'est un signe, la conception de la manière dont certains d'entre eux peuvent s'agencer pour former une langue, et les principes organisateurs du savoir à la même époque, son « épistémè ». D'où la formulation complète de notre deuxième hypothèse de travail: le signe et la langue ne sont pas seulement les instruments de la formulation du savoir (pour sa communication après coup), ils sont à la fois le produit et l'instrument de sa constitution. Nous pourrons dès lors donner enfin quelque relief à notre question initiale, tout en la reformulant plus précisément. Nos deux premières hypothèses sont étroitement liées par le fait que la démarche de modélisation constitue la base méthodologique sur laquelle reposent les conceptions modernes du savoir, du signe et de la langue, traçant les contours d'un épistémè typiquement structuraliste.
Le questionnement est triple, à la fois celui de la relativité, de l'universalité et des fondements - questions d'une actualité brûlante, au cœur des interrogations post-modernistes ou constructivistes. Aussi éloigné puisse-t-il sembler du propos de ce livre, il apparaîtra intimement lié à chacun des thèmes centraux des deuxième et quatrième parties, à la fois au paradigme symbolique de l'intelligence artificielle et à la question du sens.

28

Chapitre 1 : La modélisation

Les notions de modèle et de modélisation sont devenues tellement banales dans la pratique de l'activité scientifique, qu'elle soit fondamentale ou appliquée, et en conséquence pour l'épistémologie des sciences, qu'elles sont généralement considérées comme allant de soi et rarement questionnées. De fait, ce n'est pas l'objet du présent ouvrage que de débattre de la validité de l'affirmation suivante, qui constituera notre première hypothèse de travail: la modélisation est aujourd' hui le paradigme général de la science, au sens où toute activité scientifique s'inscrit, de près ou de loin, dans le cadre d'une activité de modélisation. L'objet de ce chapitre n'est donc pas de justifier l'adoption de cette hypothèse, mais d'analyser ce qu'elle signifie, en étudiant certains aspects de la démarche de modélisation telle qu'elle est effectivement pratiquée dans les sciences, et d'introduire quelques distinctions utiles pour la suite. Tout au plus ferons-nous dans la première section le constat de cette irrésistible montée de la modélisation dans la pratique des sciences et les discours tenus dessus et tenterons-nous d'en entrevoir quelques raisons.
Nous considérons qu'en ce moment de la connaissance scientifique (car nous verrons dans la première section qu'il n'en a pas toujours été ainsi), cette hypothèse cerne au plus près l'activité effective de recherche, dans la mesure où elle ne soustend pas d'options ontologiques sur la « nature» de l'objet d'un modèle, sur la « réalité» à lui accorder, sur les «propriétés» qui lui sont attribuées dans le modèle, et en conséquence sur la « naturalité » du modèle, ou, à l'inverse, sur le caractère de construit social de tout objet, comme le soutiennent les constructivistes. Nous n'avons pas à rejeter de telles options parce qu'elles seraient incompatibles avec l'activité scientifique, mais nous considérons qu'elles restent en elles- mêmes extra scientifiques. Ce qui ne signifie pas, loin de là, qu'elles ne jouent aucun rôle dans le processus de questionnement et de découverte, et ne puissent de ce fait devenir objet d'une autre science, à caractère sociologique, qui s'intéresserait aux conditions de production de la première, et devrait elle-même mettre en œuvre ses propres modèles. Le paradigme de la modélisation consiste à faire précéder, comme Newton, toute assertion scientifique d'un vaste « comme si » : tout se passe comme si les choses étaient telles que le décrit le modèle. Il apparaît ainsi comme ce qui permet à une science de suspendre tout jugement sur « l'essence» ou la « nature propre» de son objet - ce qui la retient en somme de tomber dans le réalisme ontologique 29

sans pour autant devoir adopter les thèses du constructivisme social. Les modèles développés par une discipline constituent par eux-mêmes un objet d'étude distinct de son objet propre; ils permettent d'établir avec elle une distanciation minimale non nulle, qui s'avère (comme cela sera longuement illustré dans le cas de l'intelligence artificielle) suffisante pour la soumettre à un questionnement serré. Bien qu'un modèle n'affirme rien quant à la « réalité» de son objet, cela n'empêche pas qu'il ait lui-même sa propre réalité en tant qu'unité culturelle et qu'il ait de ce seul fait des effets propres, effets socioculturels directs mais aussi effets indirects dans le monde physique. Ce point est crucial pour le propos de ce livre, puisque notre interrogation principale concerne les effets des modèles du savoir véhiculés par l'lA. Nous constaterons d'ailleurs dans la deuxième partie de cet ouvrage, à travers l'étude des évolutions de cette discipline, que le paradigme de la modélisation ne s'y est pas établi sans profondes remises en cause de son objet et de ses méthodes, et le chapitre douze étudiera plus précisément quelques conséquences possibles de l'épistémè interne de l'lA. Contrairement à certains épistémologues, nous considérons qu'il est important d'établir une distinction claire entre modèles et représentations; et la base sur laquelle nous l'établissons est le fait qu'en pratique un modèle a besoin de représentations pour « fonctionner ». Nous verrons au chapitre sept comment, dans le domaine de l'lA, une distinction devenue classique, et qui a joué un rôle capital dans son développement, se ramène à celle-ci. Nous analysons la notion de représentation dans une perspective sémiotique, en ce qu'elle suppose un « code» ou système de représentation sous-jacent, faisant de la relation entre système de représentation et représentation un avatar de la relation sémiotique générale entre code et message. Quant à la notion plus traditionnelle de théorie, nous considérons que, si la modélisation est bien le concept ordonnateur de l'activité scientifique, les théories se constituent comme spécifications formelles de systèmes de modélisation - d'où surgit un second avatar de la relation sémiotique entre code et message. Nous montrons que la relation entre théories et modèles définie par la « théorie des modèles », qui est une méta-théorie logico-mathématique, n'est qu'un cas particulier de cette relation générale. Nous relions également cette conception des théori~s au rôle essentiellement épistémologique qu'elles jouent désormais en physique théorique.

1. Le rôle central de la modélisation dans les sciences
C'est sans doute dans le profond bouleversement qui s'est produit dans la physique au cours du XXe siècle qu'il faut rechercher les origines d'un renouveau du questionnement sur le rôle que jouent théories et modèles dans la recherche scientifique, aboutissant à l'idée que celle-ci est avant tout une activité de modélisation. 30

La physique classique peut être présentée a posteriori sans recourir d'aucune manière à la notion de modèle (cela ne serait évidemment pas le cas si l'on voulait retracer l'histoire de son élaboration; on rappellera pour exemple avec quelles précautions Newton, gêné par l'idée d'une force s'exerçant à distance de manière instantanée, exprimait sa loi de gravitation universelle: « tout se passe comme si les corps s'attiraient en raison inverse du carré de leur distance»). Dans cette présentation, qui est le standard des collèges et lycées, donc de la culture dominante actuelle, l'espace physique est un espace euclidien de dimension trois, le temps est un continuum mono dimensionnel; là-dessus, les Principia Mathematica de Newton sont sans ambiguïté: «l'espace absolu, de par sa nature propre, sans relation avec quoi que ce soit d'extérieur, demeure toujours identique et immuable. Le temps absolu, réel et mathématique, de lui-même et de par sa nature propre, s'écoule paisiblement sans relation avec quoi que ce soit d'extérieur ». De même, les corps existent et occupent des places bien déterminées dans l'espace, la loi de Newton est la loi du comportement de la matière pesante, les lois de Maxwell sont les lois du champ électromagnétique. Les hypothèses que l'on est amené à faire pour traiter d'un système particulier (hypothèse du système isolé, hypothèse du point matériel, etc) ne sont que des hypothèses simplificatrices, qui ne mettent pas en cause la possibilité théorique de faire des calculs plus précis, viendrait-on à avoir une information plus détaillée sur ce système et son environnement. Objecter que l'époque de la physique classique connaît en fait plusieurs modèles d'univers, le modèle euclidien de cette physique et les modèles d'univers sphérique fini de civilisations anciennes, serait donc formuler une interprétation anachronique de cette connaissance. Dans cette approche de la physique classique, il ne peut s'agir de modèles alternatifs d'univers, mais de conceptions cosmologiques erronées et primitives, ou, au mieux, d'approximations de la réalité. L'univers ne peut avoir de modèles alternatifs, puisqu'il n'a pas de modèle du tout, que la notion de modèle n'a pas réellement cours: il est un espace euclidien. On chercherait également en vain du côté des philosophes classiques le moindre germe de l'idée d'interpréter systématiquement la démarche scientifique comme une démarche de modélisation. Il est vrai que la Critique kantienne avait introduit une distinction entre le monde des phénomènes, accessible à nos sens et conditionné par eux dans sa forme, et le monde des noumènes, dont nul ne peut rien dire; mais comme les sens et l'entendement, immuables, déterminaient dans l'absolu le champ du connaissable, c'était pour affirmer presque aussitôt que la distinction n'est que théorique et n'a pas d'intérêt pratique; autrement dit, toute la problématique kantienne de la constitution de l'objectivité pouvait être neutralisée, car rien ne s'opposait en pratique à ce que l'on fas-secomme si les objets du monde relevaient d'une ontologie naturelle. Non seulement Kant excluait ainsi toute application concrète de sa distinction dans les sciences, mais en faisant en outre de l'espace et du temps des formes a priori de notre sensibilité, plutôt que d'ouvrir à cette idée une possibilité de déboucher sur celle de modélisation, il figeait au

31

contraire la forme de l'espace: peu importe en fin de compte qu'il ne soit qu'une forme de notre sensibilité, l'espace est définitivement euclidien.

1.1 La physique et la « réalité physique

»

La promotion de facto de la modélisation dans la pratique et en arrière-plan des réflexions sur la science au cours du XXe siècle répond d'une part à la découverte que le statut de la « réalité physique» n'est pas aussi limpide que la science classique l'avait toujours pensé et d'autre part à une certaine balkanisation des sciences, corrélative de leur développement exponentiel tout au long de ce siècle et de la place prééminente qu'ont fini par prendre les « techno sciences». La relativité générale (1916) constitue une profonde remise en cause de l'idée d'espace physique, de trois manières complémentaires: 1°) l'espace physique n'est plus une scène inerte où se dérouleraient des processus physiques qui le laisseraient inchangé, il interagit avec la matière qu'il contient; 2°) la forme de l'espace physique, définie par toutes ses courbures locales, n'est plus déterminée a priori; elle peut, et doit, faire l'objet d'une vérification expérimentale; et 3°) les principes de base et les équations d'Einstein fixent le cadre général de tout espace physique compatible avec la théorie, mais ils ne permettent pas de déterminer un espace précis; la forme de l'espace dépend de la répartition de l'énergie et, comme il n'est évidemment pas concevable de connaître dans le détailla distribution de la matière dans l'univers, il est impossible de déterminer sa forme exacte (sans même mentionner son curieux mélange avec le temps). Aussi ne peut-on espérer obtenir au mieux que des « modèles» d'univers, dépendant d'hypothèses particulières sur cette répartition, le plus simple (mis à part le modèle euclidien classique, qui correspond à un espace vide) la supposant homogène et isotrope à grande échelle; même ainsi, on ne peut affirmer avec certitude s'il est en expansion illimitée ou s'il finira par se re-contracter: cela dépend de la densité moyenne de matière (qui ellemême dépend de la quantité de matière « noire », invisible, dont la nature précise reste encore assez énigmatique). Aujourd'hui encore, bien que la relativité générale ait été confirmée de multiples manières avec une précision extrême, aucun modèle cosmologique n'a fait la preuve de sa validité, et la recherche travaille avec plusieurs modèles alternatifs. Cependant, dans la relativité, l'idée qu'il y a un univers réel bien déterminé, dont toutes les propriétés sont connaissables en principe, sinon en pratique, demeure; en outre, localement, la structure de l'espace-temps, identique à celle de la relativité restreinte, reste assez classique (malgré quelques « bizarreries» concernant les changements de repère). Avec la mécanique quantique apparaissent des idées beaucoup plus troublantes: les objets microscopiques perdent certains des attributs classiques de la matière (position et vitesse non déterminables simultanément de manière précise, indiscernabilité des corpuscules de même nature, pseudo interactions à distance instantanées, non-localité des objets, influence de possibilités contrefactuelles sur les résultats d'expériences réelles, etc), ils ne peuvent être étudiés qu'à l'aide de concepts très abstraits, ce qui amène certains physiciens à parler d'un « réel voilé»
32

([ESP 79], [ESP 85]), apportant ainsi à la distinction kantienne un regain d'attention et un soutien inattendus. Ce n'est pas tant d'ailleurs que nous voulions accorder trop d'importance intrinsèque à ces évolutions de la physique et aux diverses « interprétations» de la mécanique quantique; que la compréhension de nouveaux secteurs de la réalité nécessite de nouveaux concepts et de nouvelles mathématiques n'a rien de nouveau: en leur temps, la notion de champ électromagnétique et les équations de Maxwell, ou bien même la notion de gravitation et les équations de Newton, devaient paraître aussi abstraites qu'aujourd'hui encore la notion de fonction d'onde et l'équation de Schrodinger à beaucoup. Que nous ne disposions pas encore des outils mathématiques complètement adéquats pour ce nouveau secteur de la réalité devrait inciter à beaucoup de retenue quant aux conséquences épistémologiques qu'on prétend tirer de la mécanique quantique actuelle. Passons sur les interprétations mystiques de la dualité onde-corpuscule et du principe de complémentarité, sur le malheureux chat de Schrodinger enfermé dans sa boîte dans un état supposé de mélange entre vie et mort, et sur les multiples «paradoxes» de cette physique déjà plus si nouvelle, pour mentionner la question plus cruciale de la mesure, qui semblait encore récemment séparer deux échelles de phénomènes régies par des physiques incompatibles: on sait aujourd'hui que la notion de décohérence peut, sous certaines conditions, expliquer l'apparition d'un univers classique à partir d'un univers quantique et dissoudre en partie une coupure qui semblait auparavant incompréhensible ([OMN 94], [GlU 96]). La relativité générale et la mécanique quantique, toutes deux confirmées par l'expérience avec une précision inouïe dans leurs domaines de validité respectifs, sont profondément incompatibles. Leur incompatibilité se révèle à des échelles d'énergie tellement élevées qu'elles ne concernent que les trous noirs et une fraction inimaginablement petite du premier milliardième de milliardième de seconde de l'univers (le temps de Planck, soit 10-43secondes), quand son rayon était de l'ordre de la longueur de Planck (10-33cm), selon le modèle cosmologique « standard» et la théorie du Big Bang initial. C'est pourtant là que se joue aujourd'hui l'avenir de la physique théorique. Pour l'instant, cette incompatibilité interdit à quiconque de prétendre que la physique actuelle est la théorie ultime de l'univers physique, et en particulier qu'elle offre une ontologie définitive. Les théories les plus prometteuses pour l'unification de la physique, recherchée depuis près d'un siècle, comme les diverses théories de cordes ou de supercordes, vont jusqu'à supposer des dimensions cachées de l'espace, qui n'en aurait plus trois, mais neuf, voire vingt-cinq, les dimensions supplémentaires, enroulées sur elles-mêmes, étant imperceptibles en raison de leur extrême petitesse. Dans ces théories (ou dans leur généralisation, la théorie M en dix dimensions d'espace), tous les paramètres fondamentaux des particules élémentaires (masses, charges d'interaction), qui devaient jusqu'à présent être injectés dans les théories physiques comme résultats de mesures expérimentales, sont en principe (mais pas encore en pratique, car personne ne sait faire les calculs) déterminés par les différents modes de vibration de cordes monodimensionnelles minuscules,
33

diversement enroulées autour des « trous» (au sens topologique du terme) de ces espaces, ces modes étant eux-mêmes déterminés par la géométrie des dimensions supplémentaires. La physique serait ainsi entièrement unifiée, les particules élémentaires et les quatre interactions fondamentales entièrement réduites à de la

géométrie. Le prix à payer est cependant doublement élevé: 10) une nouvelle

remise en cause de notre conception de l'espace, cette fois dans son aspect le plus profondément ancré dans notre perception, sa dimension; la notion d'espace perdrait même son sens en dessous de la longueur de Planck, aucune expérience ne permettant de discerner des points plus proches; 2°) une remise en cause de la notion de matière, dont les « briques» élémentaires ne seraient plus « matérielles», mais correspondraient aux différents modes de vibration des cordes. Pour l'instant, à supposer d'abord qu'on parvienne à sélectionner l'une des possibilités (parmi les quelques dizaines de milliers de variétés dites de Calabi- Yau susceptibles de décrire les dimensions miniatures du seul point de vue topologique, aspects métriques mis à part), aucune vérification expérimentale directe de ces théories n'est possible, en raison des échelles d'énergie concernées; mais des vérifications indirectes deviennent envisageables. Cependant, aussi élégantes soient-elles, et même si elles devaient être confirmées par l'expérience, ces théories pourraient difficilement prétendre décrire une réalité intrinsèque: on peut montrer en effet qu'il existe une sorte de correspondance entre espaces de Calabi- y au, la « symétrie miroir », qui permet de distinguer ces espaces par leurs propriétés topologiques, mais les rend indiscernables du point de vue de la physique qu'ils sous-tendent ([GRE 00]); autrement dit, il y aura toujours au moins deux descriptions géométriques très différentes de l'univers physique; en outre, rien ne garantit qu'on ne puisse trouver encore d'autres descriptions alternatives, basées sur d'autres approches mathématiques. La théorie des cordes scelle ainsi la fin de la plus forte des « évidences» à la base de la physique classique, l'identité immédiate entre l'espace perçu et l'espace de description scientifique de l'univers physique. Ce dernier apparaît comme hautement dépendant des principes posés à la base de la physique, en l'occurrence les sacro-saints principes de « symétrie», c'est-à-dire d'invariance des lois physiques par certaines transformations « naturelles ».

1.2 La modélisation et le réalisme ontologique
Le point important auquel nous voulions arriver, c'est qu'au-delà des avatars des découvertes scientifiques passées et à venir, il est clair désormais qu'il n'est pas possible d'affirmer, comme dans la vision classique de la science, une réalité physique primordiale intangible qui serait là à attendre qu'on en découvre la structure intrinsèque et constituerait la référence ultime de toute vérité, et que la pratique scientifique ne consiste pas à décrire avec des concepts immuables une réalité déjà là et pré-structurée qu'il suffirait d'observer passivement, mais à élaborer des modèles d'interprétation qui sont simultanément explicatifs et constitutifs des «données» d'observation. Observations et structures d'interprétation co-évoluent et se co-déterminent. 34

Nous renvoyons le lecteur souhaitant approfondir cette question, de l'impossibilité de conserver en physique l'attitude du réalisme ontologique classique, à l'ouvrage de Michel Bitbol ([BIT 98]), «L'aveuglante proximité du réel », qui renferme une analyse critique détaillée des différentes positions possibles, largement inspirée par sa réflexion sur la mécanique quantique. Le cas des mathématiques pourrait être débattu, on pourrait y contester la notion d'observation. Mais, à notre sens, les observations jouent en mathématiques exactement le même rôle que dans n'importe quelle autre science; on les trouve dans les exemples, les cas particuliers, les théories antérieures, les applications et les notions imposées de l'extérieur! Selon Lautman, « les mathématiques se sont constituées comme la physique: les faits à expliquer, ce furent tout au long de l'histoire les paradoxes que les progrès de la réflexion ont rendus intelligibles par un constant renouvellement du sens des notions essentielles. Les nombres irrationnels, l'infiniment petit, les fonctions continues sans dérivées, la transcendance de e et de J't, le transfini ont été admis par une incompréhensible nécessité de fait avant qu'on en eût une théorie déductive» ([LAU 77], p. 25). Beaucoup de débats sur la « réalité» des objets mathématiques, ou sur la question de savoir s'il existe un monde mathématique «archaïque» (Connes) ou « platonique» (Salanskis), seraient évités si l'on voulait bien considérer qu'elles n'ont de ce point de vue aucun statut privilégié. L'argument généralement utilisé, concernant la « résistance» de la « réalité» mathématique, pourrait tout aussi bien être affirmé de la résistance des personnages imaginaires d'un roman: une fois posés certains caractères de départ et certaines situations, l'écrivain se heurte tout autant à la « résistance» de ses personnages que le mathématicien à la résistance des nombres entiers; dès lors, quelle réalité faut-il accorder à ses personnages? Du côté des sciences «humaines », le chapitre deux montrera que la caractéristique du structuralisme est justement d'avoir débarrassé la notion de signe de toutes ses adhérences psychologiques et philosophiques antérieures pour en faire un objet de modélisation, qu'une structure au sens du structuralisme n'est rien d'autre qu'un modèle (ayant un type d'objet très particulier, un système de signes), que l'adoption d'une démarche classique de modélisation est l'apport méthodologique fondamental du structuralisme, et que c'est précisément le franchissement de ce pas qui a permis à un certain nombre de disciplines d'accéder au statut de sciences. En outre, nous montrerons, en suivant les analyses d'Umberto Eco, qu'il est impossible d'accorder aux structures mises à jour par la recherche structurale une quelconque réalité ontologique.

1.3 La mutation de la science et ses conséquences
Ainsi, le centrage du discours de la science, au cours du XXe siècle, sur la notion de modèle (ou de structure) est-il selon nous la marque d'une profonde mutation, que l'on peut aborder selon deux versants indissociables, qui ont pour point commun de déplacer le rôle accordé aux théories vers des aspects essentiellement épistémologiques:
35

10) sous l'angle de la pratique scientifique: d'un rôle de description formalisée
d'une réalité pré-structurée qu'elles ne feraient que mettre à jour, que « découvrir », elles passent au rôle régulateur de formuler les conditions générales que doivent satisfaire les divers modèles qui déterminent les cadres d'interprétation des observations réalisées dans le champ de la science en question, c'est-à-dire elles deviennent des spécifications de systèmes de modélisation; 2°) sous l'angle méta-théorique concernant la compréhension de leur relation à la « réalité» : entre les théories et la « réalité» s'interposent nécessairement des modèles et l'on doit suspendre tout jugement sur la « réalité ultime» de ce qui fait l'objet de ces modèles, c'est-à-dire repousser la question ontologique. Cette mutation porte en germe d'importantes conséquences culturelles et sociétales. Depuis l'explosion scientifique et philosophique des Lumières, la science s'était progressivement substituée à la religion comme garante d'un certain ordre du monde. En prenant désormais ses distances avec l'ontologie, la science, d'un côté, laisse le champ libre aux sectes, religieuses ou politiques, qui ne cherchent qu'à s'emparer d'esprits déboussolés en y plaquant leurs interprétations arbitraires et figées. De l'autre, d'une manière plus respectueuse d'un « establishment» intellectuel qui conserve en grande majorité la vision matérialiste de la physique classique, elle laisse neutraliser sa neutralité ontologique par un discours vulgarisateur qui ne s'embarrasse pas de nuances lorsqu'il procède à sa place à la réification à laquelle elle se refuse des modèles par elle élaborés. Sa position de repli ontologique place ainsi la science en arrière plan de deux attitudes antagonistes qu'elle n'a vocation ni à justifier ni à récuser, et qui peuvent ainsi proliférer tranquillement en se référant à elle comme alibi.

2. La démarche de modélisation modèle

et la notion de

Dans l'esprit de ce qui précède, nous proposons ici une analyse de la notion de modèle, non telle qu'on pourrait essayer de la définir à partir de positions philosophiques a priori, mais telle qu'elle émerge de la pratique actuelle des sciences. Bien entendu, cela ne signifie pas que nous échappions ainsi à tout préjugé philosophique - seulement que nous essayons d'adopter une conception minimale, qui, nous semble-t-il, serait largement acceptée par les scientifiques, quelles que soient leurs orientations philosophiques personnelles, et, mieux encore, sans qu'ils soient contraints d'en adopter (sinon celles inconscientes que véhicule toute culture, même scientifique).

2.1 La modélisation et l'intentionnalité
L'activité de modélisation a pour objectif de rassembler en un discours cohérent un certain ensemble d'expériences ou observations considérées comme 36

liées entre elles d'une manière qui reste à éclaircir ou à déterminer au cours du processus même de modélisation. Elle présuppose qu'il y a une bonne raison de considérer ensemble ces expériences et observations, que l'intérêt envers leur regroupement est sous-tendu par une certaine objectivité commune à découvrir, c'est-à-dire qu'elles se rapportent à un objet commun. Evidemment, l'objet dont il s'agit initialement n'est qu'un objet posé a priori comme unificateur de l'activité, et nous ne pouvons faire aucune hypothèse sur le fait qu'il soit plus ou moins «connu» ou «défini» temporellement avant le modèle (ni sur ce que ces adjectifs pourraient signifier de manière générale dans ce contexte), sur son «existence», sa «réalité», son « essence» ou sa « nature propre ». L'objet visé par la modélisation doit donc être conçu dans son sens abstrait le plus général. Ce peut être un objet matériel au sens courant du terme, un système, un processus, un phénomène, une organisation, une situation, une activité, une notion ou un ensemble de notions corrélées ; il peut être physique ou mental, statique ou dynamique, concret ou abstrait, naturel ou artificiel, réel ou imaginaire, etc. Ainsi, dans la modélisation, ni l'ensemble des expériences ou observations pertinentes ni l'objet auquel elles se rapportent ne sont donnés ou précis d'emblée; ils se constituent conjointement avec le modèle dans l'acte même de visée modélisatrice, que nous devons donc considérer comme premier: l'activité de modélisation vise quelque chose; en tant que ce quelque chose est visé par cette activité, nous l'appelons objet du modèle. Nous dirons que, dans l'activité de modélisation, le modèle (en cours de construction) vise un objet (en cours de définition) supposé commun à un ensemble (en cours d'affinement) de certains types d'expériences ou observations. De ce qui précède résulte que l'objet de la modélisation ne peut être statutairement qu'un objet intentionnel - c'est-à-dire un objet constitué en objet par le fait même d'une visée d'objet. Bien que devant admettre cette notion d'objet intentionnel, nous n'adoptons aucune philosophie particulière de l'intentionnalité (en particulier en ce qui concerne la question de savoir si un objet intentionnel est toujours une représentation mentale d'objet plutôt qu'un objet externe), pour la raison très simple que nous n'en avons pas besoin - de même qu'un physicien n'a pas besoin de définir ce qu'est la réalité pour tenir dessus un discours de physicien qui se réfère à la réalité. Donc, un modèle vise un objet intentionnel. Subordonner ainsi la notion de modèle à celle de visée et d'objet intentionnels devrait suffire à écarter toute prétention à en faire un concept «fondamental» dans l'absolu, plutôt qu'un concept dont nous ne faisons que constater qu'il est incontournable en pratique, dans la constellation mentale et la pratique d'un scientifique contemporain: l'intentionnalité est en effet l'un des problèmes actuels majeurs de la philosophie, et en particulier l'obstacle principal rencontré par toute tentative réductionniste (Sur ce sujet, voir l'excellent et difficile livre d'Elisabeth Pacherie, [PAC 93]). Autour d'elle se joue d'ailleurs la majeure partie de la question ontologique quand on prétend aborder celle-ci par le biais de la science. Nous devons donc préciser 37

qu'il n'y a aucune raison de concevoir ici ce mot au sens spécifique que lui a donné la phénoménologie, qui en a fait l'un de ses concepts ordonnateurs. Nous concevons plutôt l'intentionnalité de la visée modélisatrice comme co-définie par le champ évolutif des pratiques scientifiques, par les « conditions de production» de la science.

2.2 Caractérisation de la visée intentionnelle modélisatrice
Cela étant, il nous reste à clarifier ce qui distingue la visée intentionnelle modélisatrice d'une pure visée intentionnelle d'objet. La visée intentionnelle qui caractérise la modélisation a un objectif de connaissance de l'objet et est par définition partielle et formalisatrice. Contrairement à la pure visée intentionnelle d'objet, qui concerne par essence l'objet dans sa totalité et ne fait que le repérer, désigner, nommer, la visée modélisatrice a un objectif de connaissance plus intime de l'objet. Un modèle est construit dans un objectif déterminé. Il exprime sur son objet un point de vue particulier qui, ne serait-ce que par simple souci économique, ne prétend pas épuiser tous les aspects possibles de cet objet, mais est dirigé exclusivement sur les aspects nécessaires pour satisfaire l'objectif poursuivi. D'ailleurs, à supposer que quoi que ce soit puisse être connu « en totalité », vouloir saisir tous les aspects potentiels de l'objet ne serait-il pas en général aussi absurde et inutile que de prétendre établir une carte de tout ce qu'il y a dans un pays? Evidemment, cela n'aurait aucun sens de qualifier de partiel l'objet lui-même d'une visée intentionnelle; ce qui est partiel, c'est la visée modélisatrice, c'est le souci de connaissance de l' objet. Avec quelques présupposés philosophiques que nous n'expliciterons pas, on pourrait affirmer que le caractère partiel de la visée modélisatrice est une conséquence de sa visée cognitive; mais cela n'est pas utile pour la suite. Un modèle est une formalisation des aspects choisis de son objet. La dimension formelle est inhérente à la notion de modèle. Pour reprendre l'exemple de la carte, une échelle et un type de projection (Mercator, Mollweide, équirectangulaire, etc) seront choisis, de sorte que les mesures du territoire qui nous intéressent (angles si l'on veut faire de la navigation, surfaces si l'on s'intéresse aux pourcentages de zones forestières et agricoles d'un continent, valeurs de la longitude et de la latitude dans d'autres cas, etc) correspondent de manière précise à des mesures sur la carte; le relief sera représenté par des couleurs conventionnelles ou des lignes de niveau ou une combinaison des deux; pour les objets surfaciques (forêts, lacs), linéiques (rivières, routes) ou ponctuels (phares, sommets, cairns), une symbologie précise sera adoptée, qui, pour certains, déconnectera la taille sur la carte de celle sur le terrain et qui, simultanément, sélectionnera les types d'objets « intéressants» pour le modèle, laissant à l'écart tous les autres. En ce sens, il faudrait distinguer de telles cartes « professionnelles », qui sont de véritables modèles du territoire, de certaines cartes « touristiques» qui ne sont bien souvent que des représentations d'éléments dont

38

on ne connaît pas les principes de sélection sur un fond de carte dont l'échelle n'est pas toujours donnée ni même constante. Ici encore, avec quelques présupposés philosophiques, on pourrait considérer que le caractère formalisateur de la modélisation est une conséquence de son objectif cognitif; cela non plus n'est pas utile pour la suite. Modéliser, c'est donc d'abord poser les termes et les structures à travers lesquels on interprétera les observations sur l'objet, sans lesquels la notion même d'observation n'a pas de sens; pour employer un vocabulaire à la mode, on dirait aujourd'hui que modéliser c'est surimposer à l'objet une « grille de lecture », une « grille d'interprétation », ou encore un « filtre cognitif ».

2.3 Conséquences

sur l'objet

Modéliser, c'est corrélativement introduire l'objet dans un champ de discours qui en définit le statut global dans la culture, ou le modifie quand l'objet visé préexistait plus ou moins vaguement au modèle, avec toutes les conséquences pragmatiques et sociales qui en résultent. Entre l'atome de Leucippe ou Démocrite, vague notion non opérationnelle d'un constituant ultime de la matière, et l'atome des chimistes de la fin du XIXe siècle, le modèle de la liaison chimique a complètement modifié l'objet « atome» ; il a par ailleurs scellé le passage de l'alchimie à la chimie. Ce modèle concerne à la fois la structure « interne» de l'atome, avec les notions d'élément chimique et de valence, et ses participations « externes» aux molécules, avec toutes les équations d'échange et règles de conservation auxquelles il se prête. Le modèle de Bohr, sur lequel nous reviendrons, a complété le modèle « interne », tout en ouvrant la voie à la mécanique quantique et à toute la technologie électronique et informatique qui nous est devenue aussi indispensable que l'eau et le pain. Quant à ce qu'il advient, du fait de sa modélisation, à un objet préexistant au modèle, il est clair que, dans de nombreux cas, l'existence du modèle est source de modifications dans la conception qu'on se fait de l'objet et dans l'objet lui-même; en le rendant plus accessible, la carte modifie indirectement le territoire: la piste devient sentier, le sentier route, les indiens esclaves, le paradis tropical clapier à touristes; de la même manière, un modèle physique qui «marche », comme la mécanique classique, peut concentrer sur lui des siècles de réflexion, bloquant toute recherche de modèles alternatifs et orientant le développement technologique dans des directions privilégiées, modifiant donc le monde physique, avec toutes les conséquences en retour que l'on imagine sur la manière de concevoir celui-ci ainsi que sur la philosophie. Ces remarques ne visent pas seulement à souligner en passant à quel point l'activité de modélisation, même pratiquée avec les plus pures intentions scientifiques, est loin d'être un acte socioculturellement neutre: elles touchent au cœur de la préoccupation générale de ce livre, qui est d'expliciter les différents modèles d'un objet tout à fait particulier, la notion de savoir sous-jacente aux
39

technologies informatiques du traitement impact sur le savoir lui-même.

de la connaissance,

et d'analyser

leur

2.4 Les instruments de la modélisation et de l'observation
Un construit formel quelconque n'est pas un modèle en soi, il l'est en tant qu'il vise un objet, qu'il prétend le modéliser; à défaut, il n'est qu'un construit formel sans relation avec un quelconque objet. Néanmoins, certaines disciplines ont une potentialité importante comme pourvoyeurs de modèles, comme instruments de modélisation; peut-être même est-ce là le rôle principal des mathématiques: être la science générale des modèles du monde - rôle beaucoup trop souvent minimisé, voire totalement ignoré, dans l'enseignement et les livres de mathématiques, au profit du cycle sempiternel : définition-théorème-démonstration-exemples. Tout modèle est-il pour autant mathématique? Uniquement dans la mesure où l'on admettrait que tout système formel est mathématique - ce qui serait certainement une conception beaucoup trop large des mathématiques (même si nous y incluons évidemment la logique). Il serait en effet bien difficile de considérer comme mathématique l'arbre généalogique de l'auteur, voire plus généralement l'ensemble des relations logiques reliant les concepts exprimant les différents degrés de parenté dans une culture donnée. Néanmoins, puisqu'il pose les termes et les règles formels qui serviront à parler de son objet, sans être luimême totalement mathématique, un modèle a toujours un substrat mathématique. Nous reviendrons sur ce point lors de l'étude des rapports entre modèles et théories. Revenons un instant sur les «conditions de production» de la science. L'activité de modélisation est relative à des ensembles d'expériences et d'observations, elles-mêmes dépendantes des instruments d'expérimentation et d'observation. Mais ceux-ci doivent d'abord être compris dans leur fonctionnement, et donc avoir fait l'objet de modèles, pour que les données brutes qu'ils produisent puissent être admises comme observations valides: souvenonsnous de la lunette de Galilée et de sa difficulté à faire admettre la « réalité» de ce qu'elle montrait. Parce qu'ils sont modélisés, les instruments produisent des observations et pas seulement des données brutes; celles-ci permettent l'élaboration de nouveaux modèles pour ces observations, qui suggèrent le développement de nouveaux modèles d'instruments, qui, une fois construits, produisent de nouvelles observations, etc. Dans ce processus en boucle, instruments d'observation et instruments de modélisation co-évoluent. Les premiers déterminant ce qui peut être observé de la « réalité» et les seconds ce qui peut en être formulé (disons, à travers des modèles mathématiques), le principe de cette co-évolution du «visible» et du «dicible» ôte une part de mystère à la question des rapports des mathématiques au réel, à « l'incroyable efficacité des mathématiques dans le réel », si l'on veut dramatiser la problématique.

40

2.5 Domaine de validité d'un modèle
Proposant un point de vue particulier sur son objet, un modèle est indissolublement associé à un domaine de validité, dont il est important de reconnaître les frontières pour ne pas appliquer inconsidérément le modèle au-delà. Aussi les erreurs suivantes constituent-elles les trois « péchés capitaux» de la modélisation, qui sont à la source de nombreux malentendus: confondre un modèle et son objet, choisir un modèle inadapté au point de vue que l'on veut privilégier, outrepasser sans discernement les limites du domaine de validité d'un modèle. Les sciences humaines et sociales sont particulièrement sensibles au premier péché, sans en avoir l'exclusive: ainsi prend-on trop souvent un modèle économique pour l'économie. En outre, tous ces «péchés» intellectuels peuvent aisément se combiner avec des objectifs malsains et dériver vers de pernicieuses exploitations idéologiques. La difficulté provient souvent de ce que le domaine de validité d'un modèle peut s'avérer de fait plus large que celui résultant de la fonction qu'il était initialement destiné à remplir, ou de la situation à l'origine de l'acte de modélisation. En outre, un modèle est rarement construit sous la seule contrainte de satisfaire un objectif donné. S'y ajoutent des contraintes épistémologiques et méthodologiques générales, telles que la simplicité (voire la beauté), la généralité (et son corollaire la réutilisabilité), le pouvoir explicatif, l' exploitabilité, etc. Peut s'y ajouter également tout un cadre théorique général dans lequel s'inscrit le modèle: ainsi le modèle « standard» de l'univers s'inscrit-il dans le cadre de la relativité générale, hors duquel il n'a pas de sens. Parfois, le domaine de validité peut recouvrir tellement d'aspects connus de l'objet que l'on a tendance à en oublier d'autres aspects possibles, simplement parce qu'ils n'entrent pas dans le modèle. Parfois aussi, il peut arriver qu'un modèle soit tellement prévalent culturellement qu'il devienne difficile de distinguer le modèle de son objet. Parfois encore, l'objet est tellement complexe que les seuls modèles accessibles au raisonnement font par nécessité des hypothèses outrancièrement simplificatrices. Certaines notions vagues du langage courant, comme, par exemple, la plupart des termes généraux utilisés en intelligence artificielle (<< intelligence »,
« connaissances», mais aussi « signe», « symbole», etc) n'acquièrent quelque précision qu'au travers de modèles permettant de les penser; nous étudierons en détail ce que sont les conceptions effectives de ces termes en lA. Mais il ne faudrait pas interpréter cette remarque comme une acceptation des modèles de I'lA en tant que modèles mentaux valables en dehors du domaine particulier de l'lA. Le fait qu'une notion vague acquière un sens précis dans un contexte particulier ne confère aucun droit a priori à étendre ce sens en dehors du contexte en question. Ce cas est néanmoins typique du troisième «péché capital» : faute d'une définition générale précise de la notion, on se satisfait de la définition particulière, sans réaliser qu'elle est totalement inadaptée.

41

2.6 Modèle et« réalité »
Le lien de dépendance entre un modèle et son objet peut être en quelque sorte inversé, par rapport à une conception courante qui voudrait que le «monde» préexiste avec des découpages qu'il n'y aurait qu'à dévoiler: l'objet peut ne pas être culturellement distingué avant (au sens historique) le modèle, ne devenir pensable qu'avec l'apparition d'un modèle. Un exemple saisissant est celui de certaines particules élémentaires, comme les quarks, dont l'apparition dans le champ de la pensée des physiciens résulte de la découverte d'un modèle mathématique de calcul (lui-même s'insérant dans une théorie plus vaste) ayant de bonnes propriétés de symétrie. Cela ne signifie pas pour autant que la «part de réalité» que le modèle a permis d'isoler soit épuisée par le modèle, ou que le modèle « crée» cette réalité, comme pourraient le soutenir certains constructivistes, ce qu'exprime d'ailleurs le langage courant de la science: le modèle a permis de découvrir, et non d'inventer, les quarks. La notion de quark ainsi dégagée comme objet du modèle a permis d'imaginer et de réaliser de nombreuses expériences ultérieures pour tester leur manifestation dans des contextes dépassant celui du modèle initial. Cet exemple illustre à quel point il est crucial de considérer comme partielle la visée intentionnelle de la modélisation, et de savoir reconnaître en arrière plan une visée intentionnelle globale d'objet. Il illustre également la différence qui peut exister entre l'attitude générale de la science dans sa démarche modélisatrice, qui consiste à suspendre tout jugement sur la nature ultime du réel, et le solipsisme, qui nie l'existence d'un réel extérieur à notre pensée. La démarche de modélisation est un instrument universel de la pensée et de la méthode scientifiques. Un modèle est l'équivalent dans le domaine de la pensée scientifique de ce qu'est un référentiel en physique. Un événement physique ne peut être décrit précisément que par rapport à un certain référentiel (système de coordonnées), et les lois physiques générales, qui sont des lois d'invariance par changement de référentiel, ne trouvent leur expression concrète que dans chaque référentiel particulier. De même, un modèle constitue un référentiel nécessaire de la pensée. Et, de même qu'il peut ne pas exister de référentiel unique couvrant l'ensemble de l'univers (en relativité générale), ou de carte couvrant l'ensemble du territoire (s'il n'est pas « aplatissable »), il peut ne pas exister de modèle couvrant tous les aspects connus de son objet. Plusieurs modèles peuvent s'appliquer à un « même» objet. Dans ce cas, dire que l'objet est « le même », c'est-à-dire que les visées intentionnelles des deux modèles ont le même objet, peut constituer une affirmation très forte sur l' « existence» d'un « objet» commun à ces modèles - tout comme le principe de relativité, générale ou galiléenne, constitue une affirmation forte d'existence d'une réalité physique objective, les lois d'invariance par changement de référentiel étant considérées comme expression mathématique de l'indépendance de cette réalité par rapport à l'observateur. Reconnaître dans deux modèles un même objet peut s'avérer une source importante de progrès scientifique. La valeur effective d'une telle identification dépend évidemment des «zones de recouvrement» et des 42

correspondances que l'on peut établir entre ces modèles; à défaut, elle risque de rester purement idéologique.

2.7 Exploitation d'un modèle
Un modèle est constitutif et descriptif de son objet, mais ne porte pas nécessairement en soi (sauf à titre virtuel) tous les modes opératoires susceptibles de l'exploiter de manière effective ou efficace, même d'ailleurs s'il est de nature rigoureusement mathématique. Ce caractère non totalement opératoire peut avoir au moins deux causes, que nous ne ferons qu'illustrer par un exemple issu de l'univers de la modélisation mathématique classique. Considérons un modèle constitué par un système d'équations différentielles et/ou aux dérivées partielles, et supposons que l'on puisse prouver théoriquement que le système a une solution et une seule. Nous sommes donc dans la meilleure situation théorique possible, et le modèle s'avère déjà être ainsi un « bon» modèle et apporter une contribution fondamentale à l'étude de son objet. Néanmoins: 1°) une preuve théorique ne constitue pas nécessairement une méthode constructive, algorithmique, de calcul (songer aux démonstrations par l'absurde) ; 2°) même si une telle méthode existe en théorie, elle peut être inutilisable en pratique (par exemple, à cause de problèmes d'instabilité due aux erreurs d'arrondi, ou à cause de temps de calculs trop longs). Imposer à la modélisation un caractère opératoire immédiat exclurait des modèles du type de l'exemple ci-dessus. Une telle contrainte serait arbitraire et inutilement restrictive. Même s'il est vrai qu'avec l'essor de l'informatique et des mathématiques constructives, la tendance est forte de rechercher des modèles calculables, le caractère non calculable a priori d'un modèle n'exclut pas qu'on trouve ultérieurement une version équivalente calculable, ou des approximations calculables. Le critère fondamental d'évaluation d'un modèle devrait donc rester son adéquation stricte aux objectifs de la modélisation.

3. Modèles et représentations
3.1 Représentations d'un modèle

Partons d'une conception courante, conforme aux deux interprétations classiques de la notion de représentation, théâtrale et diplomatique: représenter X par Y, c'est considérer la présence de Y comme substitut valable à la présence de X, relativement à une certaine situation. Dès lors, la question qui se pose est: d'où un modèle peut-il être absent, pour qu'une représentation puisse s'y substituer en ce lieu? Nous venons de voir qu'un modèle est en partie absent du champ 43

opératoire. C'est donc dans ce champ qu'il est heuristiquement raisonnable d'exprimer en quoi une représentation peut s'y substituer. Nous définirons une représentation d'un modèle comme une expression de ce modèle (une manière de l'exprimer, peut-être partiellement) qui introduit des éléments supplémentaires dépourvus de sens du strict point de vue de la modélisation, mais qui supportent des modes opératoires effectifs, compatibles avec le modèle (relativement au domaine de validité du modèle et aux objectifs de la modélisation), et destinés à faciliter le traitement pragmatique des questions qui ont conduit à construire le modèle. Cette définition s'accorde avec l'usage du terme en intelligence artificielle dans l'expression « représentation des connaissances» (voir le chapitre sept), ou en algèbre dans l'expression « représentation linéaire d'un groupe» (où un groupe abstrait est représenté comme un groupe plus « concret» d'isomorphismes d'un espace vectoriel, et éventuellement de matrices inversibles). Les exemples de la section 3.2 montrent qu'elle s'accorde aussi avec le sens commun. C'est dans la mesure où ces éléments étrangers au modèle et ces modes opératoires ne sont pas impliqués de manière nécessaire par le modèle qu'un modèle n'est pas, statutairement (ou pas seulement), une représentation quelconque. S'il faut noter que l'introduction de ces éléments et modes opératoires ajoute quelque chose au modèle, il faut aussi remarquer qu'une représentation ne garantit pas non plus que tout le modèle soit exprimé fidèlement. Sur la nécessité d'admettre ce dernier point, à savoir l'incomplétude d'une représentation par rapport au modèle qu'elle représente, nous revenons ci-après, dans la discussion à propos des exemples des sections 3.2.1 et 3.2.3. Dans cet écart entre un modèle et ses représentations, qui laisse s'introduire des éléments extérieurs au modèle, on peut, par facilité de langage (ce qui est un cas particulier de mode opératoire surimposé au modèle), faire comme si certains de ces éléments avaient une réalité objective, ouvrant ainsi une porte d'entrée à l'ontologie. C'est pourquoi l'approche modélisatrice, souvent complétée par des représentations plus ou moins inconscientes, n'apparaît pas toujours sous une forme pure, aussi neutre ontologiquement que nous l'avons laissé entendre au début.

En anticipant sur l'axiome fondateur de la sémiotique structurale, exposée au chapitre deux, puisque les représentations qui nous intéressent doivent être communicables, elles sont soumises à des systèmes socialisés de communication: dans toute représentation est sous-entendu un système de représentation, comme dans tout message est sous-entendu le code auquel il se réfère - code dont il peut éventuellement être le créateur. Reconnaître dans la relation entre système de représentation et représentation un avatar de la relation dialectique entre code et message permet d'éviter le délicat problème philosophique de la représentation en général. Nous excluons donc simultanément de nos propos l'étude d'une quelconque relation «directe» qui pourrait exister entre un «objet» et une
44

« représentation» isolée. De manière positive, nous rapportons la question de la représentation à celle des systèmes socialisés de représentation. Notre définition, évidemment très restrictive par rapport à une éventuelle et problématique notion philosophique générale de représentation, autorise cependant un modèle à avoir des représentations extrêmement variées, basées sur des modes opératoires, c'est-à-dire des systèmes de représentation, très différents, comme le montrent certains des exemples de la section 3.2. Certaines représentations peuvent même être dérivées les unes des autres par affinement des modes opératoires. Tout comme un modèle peut apparaître antérieurement à son objet, une représentation peut apparaître avant l'explicitation d'un modèle qu'elle représenterait, et avant même l'élucidation détaillée d'un système de représentation auquel elle se rapporterait, l'intentionnalité première étant moins précise que dans le cas de la modélisation et le modèle émergeant alors dans un second temps comme une abstraction de la représentation et du système sous-jacent. Mais, une représentation ou un système de représentation étant donnés, il y a en général ambiguïté sur un possible modèle sous-jacent, en particulier sur ce qui doit être considéré comme significatif. Aussi le «péché capital» en la matière est-il d'utiliser des représentations sans avoir clairement spécifié le modèle qu'on entend ainsi représenter. Chacun sait l'impact de ce problème en intelligence artificielle sur les réflexions épistémologiques des spécialistes de la représentation des connaissances. Les livres et articles fondamentaux sur le sujet datent de la deuxième moitié des années 70 ([Woo 75], [Bab 75], [Fin 79], [Bra 79]) et peuvent être lus après coup comme autant de tentatives pour élucider ce qui fait système dans les « systèmes de représentation» de l'époque, et comme la quête de modèles génériques sousjacents. Nous reviendrons sur cette question au chapitre sept.

On pourrait tenter la classification suivante des visées intentionnelles: 1°) désigner, nommer: visée intentionnelle globale, 2°) modéliser: visée intentionnelle partielle à vocation cognitive formalisatrice, 3°) représenter: visée intentionnelle partielle à vocation opératoire.

3.2 Exemples de modèles et de représentations possibles
Nous donnons quelques exemples de modèles tellement courants qu'on a tendance à les prendre pour la réalité et qu'on les emploie comme modèles sans même y penser. Pour illustrer la différence entre modèle et représentation, et pour montrer que des représentations d'un même modèle peuvent être de natures fort diverses, nous donnons simultanément des représentations possibles de ces modèles; là aussi peut exister une forte tendance à confondre les niveaux, en prenant une représentation pour le modèle. Dans tous ces exemples, les systèmes de représentation sous-jacents sont évidents et nous ne les explicitons pas en détail.

45

Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.