//img.uscri.be/pth/b5a75f92bd285cc42177dbfc0e0ac940b69bcd57
Cette publication ne fait pas partie de la bibliothèque YouScribe
Elle est disponible uniquement à l'achat (la librairie de YouScribe)
Achetez pour : 21,00 € Lire un extrait

Lecture en ligne (cet ouvrage ne se télécharge pas)

L'expérience dynamique

De
270 pages
L'ouvrage retrace la genèse des études sur les systèmes dynamiques auto-organisateurs (Ashby, Von Foerster, Prigogine, von Bertalanffy) et leurs applications en neurosciences et sciences cognitives. L'auteur s'inspire de concepts et de principes issus de travaux de physiciens et mathématiciens russes et américains, anciens et récents, pour proposer un modèle précis de ce que pourrait être une nouvelle théorie esthétique.
Voir plus Voir moins

L’expérience dynamiquePoïesis
CollectiondirigéeparLouis-JoséLestocart
Le but de Poïesis est de questionner le rapport
Art/Science via la Complexité et d’ancrer que la
Connaissance participe d’une vision et d’une approche
transdisciplinaires, et forcément réflexives ; « poïesis »
désignant l'action de créer, de fabriquer en train de se
faire. Dans cette optique, les œuvres, « objets
complexes », qu’elles soient artistiques (y compris
films, films expérimentaux, animations, etc.) ou
littéraires, sont considérées à l’aune des
neurosciences, de la philosophie et de l’épistémologie.
Poïesis prolonge ce décloisonnement de savoirs, en
accueillant des essais de sciences humaines et sociales
et des écrits littéraires.
Précédentsouvrages
Louis-José Lestocart, Essai sur les figures de l’esprit,
2010.Louis-José Lestocart
L’expériencedynamique
Complexité, neurodynamique et esthétique
POSTFACEDE SIMON DINER
L’HARMATTANImage p. 3 : L.-J. Lestocart, Turbulences 2
©L'HARMATTAN,2012
5-7,ruedel'École-Polytechnique;75005Paris
http://www.librairieharmattan.com
diffusion.harmattan@wanadoo.fr
harmattan1@wanadoo.fr
ISBN: 978-2-296-96272-9
EAN :9782296962729Prologue
Il y a un bien un rêve ou une absurdité dans cette idée que l’Homme et
son cerveau contrôle tout. Qu’il est animal doué de raison, apte à tous les
calculs. Et générateur naturel de toutes les grandes catégories de pensée.
Vérité,Beauté,Bien.OuencoreSubstance,Moi,Idée,Volonté.Que sais-je ?
Unhommedeboutsuruntracédeperspectives,HommedelaRenaissance,
dépositaire de tous les savoirs, d’une juste appréciation et mesure de toutes
choses de ce monde ? Qu’en est-il vraiment ? Déjà dans Matière et mémoire
(1896), L’évolution créatrice (1907), et surtout La pensée et le mouvant
(1934), le philosophe Henri Bergson (1859-1941), à travers son étude de la
perception de l’espace, de la durée et du champ du réel, affirme que devant
1ce « jaillissement ininterrompu de nouveauté », réservoir à images en
puissance, pour chacun inépuisable, dont les choses sont tirées, notre
2
perception et donc notre entendement demeurent partiels .Nourris au sens
commun, perception et entendement se sont confortablement installés dans
un monde intermédiaire où le devenir n’est fait que d’états (une succession
d’états distincts, en fait de simples instantanés « photographiques »,
concaténations de stéréotypes) et la durée que d’instants. On se trompe
inévitablement quand on spécule sur le réel. «Comment donner la vision
totale du monde et de l'homme quand on est condamné à la fragmentation et
quand l'illusion du regard omniscient et de l'impératif psychologique s'est
consumée ? » «Perception pure », le Réel est un Tout, une même et unique
matière, cuvant son engourdissement, dans le bloc de sa permanence,
fondamentalement de l’ordre de la durée. Durée, jaillissement, création
continue, l’essence de ce Réel est de «passer ». Espace homogène
infiniment divisible, décomposable, recomposable à volonté, c’est un
ensemble infini d’images, de mouvements ne cessant de varier.
Mouvements, ébranlements de tous ordres (oscillations, vibrations,
ondulations, etc) infiniment répétés, qui sont autant de mouvements de
translation, de changements mêlant déplacement sur le plan, déplacement
dans l’espace (mobile), passage d’un point à un autre, transition. Des
transitions de phase ou des changements qui sont bien une autre forme de
Substance!
Pour nous, dans cette conscience vague de spectateur, installé dans un
monde intermédiaire de perception, le devenir n’est donc fait que d’états et
la durée que d’instants. Et ce faisant par effet purement mécanique, brutal,
morne et évident, radical et par là même redoutable, « notre perception [...]
découpe, dans la continuité de l'étendue, des corps choisis précisément de
telle manière qu'ils puissent être traités comme invariables pendant qu'on
3les considère ». Le choix devient en effet très limité quand on pratique
ainsi, par l’attention, une sorte de coupe instantanée (découpure d’une
certaine forme) dans le devenir, le Tout, comme avec un instrument de
5précision, un peu rouillé, pour en faire un présent pourvu de côtés (objet,
idée, image, concept, tableau ou représentation). « Un extrait fixé, desséché,
4vidé, un système d'idées générales abstraites ».Ce qu’oncroit être une idée
«claire et distincte » à la Descartes n’est alors que rétréci, ratatiné, bloqué.
Car parcette «clarté » etcette « distinction », on pense fixece qui est en fait
mouvement, flux, progression continue. Le sentiment donné par cette stasis,
esthétique de l’immobilisation s'apparente à la katharsis aristotélicienne. On
s’y projette, on y est, elle est nous. Fragment, indice, effet de réel ? On
donne même parfois à cette découpe des contours dignes de dessins des
grands maîtres avec des vocables savants se rapportant à la forme, à
l’esthétique. À la philosophie aussi. Représentation. Pourtant dans cette
représentation intellectuelle on ne voit au mieux qu’une série de positions.
On exerce notre sagacité sur des points fixes «c'est donc la fixité que notre
intelligence recherche ; elle se demande où le mobile est, où le mobile sera,
5où le mobile passe. ». Plus que s’attacher à la représentation donnée par le
cerveau de l’Homme, à l’Intelligence de celui-ci, sa capacité à former des
concepts et à s’occuper de l’être, il importe en effet à celui-ci de tomber
alors du piédestal sur lequel lui-même s’est placé, de descendre de sous-
classes en sous-classes, pour s’en remettre à la vie de l’individu, à sa façon
de percevoir, de se développer et d’agir dans son environnement.
L'intelligence est étroitement liéeà l'adaptivité.Culturedunon-linéaire
Cognition située,distribuéeet incarnée
COGNITIONSITUÉE
Problème de la «circularité fondamentale »
Notre cerveau est un organe vivant relié à un corps (lui aussi vivant) et
6
plongé dans un environnement sur lequel il agit et qui agit également sur
lui. Une telle position incarnée se retrouve déjà dans les idées du biologiste
et philosophe allemand d'origine estonienne Jakob J. von Uexküll (1864-
1944) – avec la notion de boucle sensori-motrice (ou cercle fonctionnel)
élaborée dans son ouvrage Theoretische Biologie (Biologie théorique, 1920-
1928). L’apprentissage et le développement d’un individu (animal en
l’occurrence), selon lui, s’effectuent par boucles sensori-motrices
7multimodales (feedbac k) mettant en jeu l’environnement etcet individu.Par
là, von Uexküll introduit aux concepts neuroscientifiques de la cognition
incarnée (embodied) et située (situated) dans le monde. Laquelle se montre à
la fois indissociable du vivant et de l’histoire du sujet pensant. Ce principe
on l’appelle «circularité fondamentale » (problème de la réflexivité). Cette
circularité est organisatrice. En partie biologique, elle ouvre un espace entre
soi et le monde, entre l'intérieur et l'extérieur. Toute séparation à la
Descartes entre corps et esprit et corps et monde, est dès lors récusée. Dans
les années 1970-1980, une ligne de recherche hors de l’optique cartésienne
et réductionniste, va ainsi se dessiner dans les sciences cognitives. Ligne qui
s’appuiera sur la corporéité (incarnation) de l'expérience et de la cognition.
Corporéité qui englobe à la fois le corps en tant que structure vécue,
expérientielle, et le corps élargi dans son rapport au contexte ou milieu
(Umwelt ou « monde propre » pour Uexküll), là où se déroulent des
mécanismescognitifs.
L'expression cognition située (situated cognition) est imputable à
l'anthropologue et sociologue britannique d'origine américaine Lucy A.
Suchman, professeur d'anthropologie des sciences et de Science and
Technology Studies au département de sociologie (Université de Lancaster)
qui expose cette théorie dans son ouvrage Plans and Situated Actions: The
Problem of Human-machine Communication(1987). Le programme de
recherche de l’ «action située », promu par Suchman, vise à réintroduire
dans l’étude des procédures cognitives l’importance de l’environnement où
s’opère une activité. «Il met l’accent sur la réactivité des systèmes face aux
changements de l’environnement et sur l’auto-organisation émergente de
l’activité : dans la théorie de l’approche située, c’est l’action « située » qui
7génère les plans, et non la planification qui détermine l’action.L’individu,
8ici, agit directement en fonction de ce qu’il perçoit. »Suchman considère
ainsi que « toute activité, si 'analytique' soit-elle, est inévitablement
concrète, incarnée et construite au gré de circonstances particulières
9essentielles à sa détermination », et que donc l’action ne peut être
interprétée qu’en réintroduisant l'environnement de l'activité en son
acceptionà la fois matérielle et sociale.Situation et incarnation sont déjà des
concepts importants en science cognitive à la fin des années 1980,
s’intéressant aux ensembles formés par un individu au travail et son
10environnement technique ou humain . Suchman montre de fait que, dans la
pratique, on se sert souvent des moyens improvisés, désordonnés et
pragmatiques pour atteindre les objectifs fixés. « Les gens agissent par
11improvisation, guidée par des opportunités locales et ad hoc ». Ces
opportunités ne passent aucunement par une planification (génération de
plans d'actions). L'action est antérieure à la planification ou, du moins, se
12mène en parallèle avec celle-ci . La notion de tâche elle-même s'avère en
quelque sorte problématique. Dans la pratique, des activités se répandent
pêle-mêle, et interagissent entre elles. Elles présentent un éventail de
possibilités, en une succession continue d'éléments qui ne se ramènent pas
seulement à des ensembles ramifiés de tâches abstraites et de sous-tâches
13plus ou moins vagues .
Cette position s'affirme en réaction face à la vision «désincarnée » du
cognitivisme alors dominant où le cerveau humain est comparable à un
ordinateur. Position véhiculée par le paradigme computo-
représentationnaliste de l'Intelligence Artificielle (IA) des années 1960-
141970 .
L'Intelligence Artificielle (IA)
L'IA, née en 1956, à l'occasion d’un Congrès au Dartmouth College
(Hanover, New Hampshire), se fonde sur une théorie à la fois
15représentationnelle (Physical Hypothesis) et computationnelle . Les tenants
les plus notables en sont Herbert A. Simon (1916-2001) spécialiste des
organisations, professeur de science informatique et de psychologie à la
Carnegie Mellon University et le mathématicien Alan Newell (1927-1992).
Sans compter les théoriciens cognitivistes tel le philosophe du langage et
psychologue enseignant au M.I.T. (Massachussetts Institute of Technology)
et rompu aux thèses représentationalistes et computationnalistes, Jerry A.
Fodor (1935-) pour qui les seuls modèles psychologiques plausibles des
16processus cognitifs résident en de tels processus computationnels . Fodor
soutient ainsi l’hypothèse d’un « langage de la pensée » (language of
thought) qui serait, d’une manière ou d’une autre, implémenté dans le
cerveau. La pensée est donc au cerveau ce que le logiciel est à l’ordinateur.
Comme la cognition ne considère que le niveau symbolique sans tenir
compte du biologique, elle va consister, dès lors, en un traitement
8informatique de données ne consistant qu’en des représentations
symboliques. Et pour les computationnalistes, ces représentations mentales
reflètent directement la réalité. Objectives, elles dérivent d’une pensée
17logique et transcendante, indépendante du corps et du cerveau. Il faut
ajouter dans cet orbe, les travaux linguistiques, depuis 1955, du linguiste et
philosophe, Noam A. Chomsky (1928-), père de la théorie générative du
18langage (Grammaire générative ). Par sa linguistique formelle, ses travaux
en psycholinguistique, sa grammaire générative transformationnelle et sa
Cartesian Linguistics (1965), Chomsky est un des théoriciens les plus
influentsdececognitivismecomputationnel.
Selon la croyance de l'IA, les tâches sont remplies via des procédures
analytiques effectuées par des logiciels individuellement
« intelligents » ;des systèmes experts comme le GPS (General Problem
Solver)deNewell,JohnC.Shawet Simon (1958) ; programme informatique
dont l’ambition est de résoudre toute une classe de problèmes du même
19type . Cette computation n’est, au reste, qu’un calcul où les symboles ont
simplement pris la place des nombres (par exemple le symbole «7 »
20représente le nombre 7), maisaussides objetsdu monde .
Dans la conception computationnaliste, le rapport au monde n’est qu’un
21rapport de représentation . Cette «croyance » visant théoriquement à la
conception d’un être artificiel (qu’il soit joueur d’échec ou contrôleur de
navigation aérienne), répond au paradigme de l'homme vu en tant que
« système symbolique de traitement de l'information ». Selon Newell et
Simon, en particulier, cet être est conçu comme une machine à jeu
d'instructions capable de posséder ou d’exhiber capacités et caractéristiques
propres à un cerveau humain.Pour eux, très adeptes de cette métaphore
cerveau-ordinateur, le cerveau est une machine déductive, un calculateur
22logique nefaisant que traiterde l’information.Opérations de traitement qui
s’opèrent de manière séquentielle et linéaire sur la base physique de
symboles ; sans qu’on y cherche une quelconque signification. Dans ce
paradigme (auquel on doit ajouter celui de l'interaction homme-machine,
IHM) où l’intelligence humaine fonctionne comme un ordinateur, on
argumente ainsi que cette dernière est un système symbolique physique
qu’on plonge dans un processus informatique formel caractérisé par : 1) la
manipulation formelle de symboles par des règles préétablies (programme),
2) l’extraction d’inférences de grandes bases de données en langage
machine, 3) des recherches heuristiques de structures de données, 4) des
opérations dans des structures représentées, et 5) une activité planifiée et
téléologique. Cela dans la grande tradition de la logique occidentale reliant
le symbole à l’objet symbolisé (Grammaire et Logique de Port-Royal au
XVIIeme siècle).
Néanmoins on s’est peu à peu aperçu que cette simulation informatique
des computationnalistes n'était pas un «bon test du naturel» (Franciso
Varela). Et, en outre, que la manipulation de symboles n’était pas suffisante
9pour expliquer la cognition – notion à laquelle on doit ajouter conscience,
perception, et imagination. Car cette manipulation n’était qu’un monde fictif
et, qui plus est, construit sans inattendu, sans vie. Un monde seulement
défini par une liste de propriétés où symbolisme et représentationalisme –
soit les représentations symboliques internes (Physical Symbols System
Hypothesis) du monde – , restent centraux pour le « paradigme cognitiviste
». Un monde qui se pense et se joue toujours en dehors du contexte corporel
etenvironnemental.
Plus précisément, ce qui s’est passé dans l’IA, à partir d’un certain
moment dans les années 1970, c’est qu’il devenait impossible de savoir
modéliser un raisonnement par un ordinateur afin de faire effectuer des
tâches à ce dernier. De là l’idée même d’un «cerveau central » dans la
machine à même de comprendre et de résoudre tous les problèmes pouvant
se poserà l’humaindevenaitcaduque.
CONTROVERSESSURl’IA ETCOGNITIONDISTRIBUÉE
Le cognitivisme classique, en se basant sur une théorie particulière du
raisonnement (computationnalisme) et sur une théorie particulière des états
mentaux – la théorie représentationnelle – , pense que le système
informatique seul suffit à prouver la réalité physique et mécanique de
l’intelligence. Il existe néanmoins dans cet énoncé un présupposé
dommageable sur les relations entre syntaxe et sémantique qui donne assez
vite une limite aux théories purement syntaxiques dues en particulier au
linguiste Chomsky. Si l’hypothèse est que l’ordinateur et son programme
expert est à même de fournir un modèle mécanique de la pensée, ou encore
que la penséeconsisteencomputations physiqueset symboliques, on ne peut
que remarquer que dans le cas du langage proprement humain, il est difficile
de concevoir que toutes les explications scientifiques du comportement d’un
humain puissent seulement correspondre à une structure syntaxique. La
pensée, tout comme la langue, sont certes formées à partir de symboles
signifiants (les mots) combinés par des règles syntaxiques pour former des
symboles signifiants de niveau supérieur (les phrases). Mais à chacun de ces
symboles supérieurs correspond une forme plus large que celle résultant de
la sommedes significationsdes symbolesélémentaires.
La«ChambreChinoise»(Searle)
Le nouvel axe de la cognition situé e s'érigeant contre le paradigme de
l’IA traditionnelle va se nourrir également des controverses menées par John
R. Searle (1932-), philosophe et linguiste américain, professeur à l’Institut
de philosophie de Berkeley. Searle affirme dans The Rediscovery of the
Mind (1992) l'irréductibilité ontologique de la conscience. Et prouve avec
l'argument de la « Chambre Chinoise » (The Chinese Room Argument,
101980), que les dogmes prônés par l’IA ne reproduisent pas la
pensée ; réfutant ainsi l’amalgame abusif entre simulation et réalité. Car si
un programme sait manipuler les symboles, il ne les comprendpas. De toute
façon, on n’a absolument aucune idée de la provenance du sens des
expressions syntaxiques dont le cognitivisme computationnalo-analytique
suppose le cerveau habité.
Searle demande d'imaginer une chambre dans laquelle se trouve un
homme qui n'a pas la moindre connaissance du chinois. Cette chambre est
équipée d'une immense « bibliothèque » constituée d'énormes piles de
documents sur lesquels on a consigné des règles du type «SI vous recevez tel
type de caractère chinois (ou chaîne de caractères) ALORS répondez par tel
ou tel autre caractère chinois (ou chaîne de caractères). » La chambre
comporte une ouverture par laquelle on peut échanger des questions et des
réponses. À l'extérieur, un « interrogateur » chinois écrit des questions
(uniquement en chinois) et les introduit dans la chambre. À l'intérieur,
l'homme prend chaque question (dont il ignore au reste complètement la
signification) et commence à chercher une réponse parmi les piles de règles à
sa disposition. Puisqu'il ne lit pas le chinois, il est obligé de comparer la
forme de chaque caractère de la question aux caractères présents dans les
piles de feuilles. Il passe ainsi de règle en règle jusqu'à ce qu'il parvienne à
produire une suite de caractères pouvant constituer une réponse, dont il
ignore en fait totalement le contenu. Cependant, il la transmet, parfaitement
rédigée en chinois, à l'interrogateur qui la lit. Si les règles ont été
correctement définies, les réponses doivent être bien écrites, raisonnables et,
23ainsi,cache r l'ignorance totale du chinois de leur auteur. »
Par cette allégorie teintée d’ironie, Searle veut dire que, si le cerveau
humain est bien un « mécanisme » (et donc, dans une certaine mesure, une
« machine »), il est un mécanisme causal qui « a la propriété extraordinaire
de produire de la conscience », tandis que l’ordinateur « ne produit rien du
tout, sinon l’état suivant de l’exécution du programme ». Comme il
l’écrit : « L’argument de la chambre chinoise montre que la sémantique du
contenu mental n’est pas intrinsèque à la syntaxe du programme
informatique, lequel est défini syntaxiquement par une suite de zéros et de
uns. A l’époque j’admettais que la machine possédait une syntaxe. En fait, si
l’on pose la question de savoir si cette série de zéros et de uns est un
processus intrinsèque à la machine, on est obligé d’en convenir que ce n’est
24pas lecas.»
TheMind-MindProblem (Jackendoff)
Il apparaît en fait de plus en plus, contrairement à ce que disent les
tenants de l’IA, que la conscience ne joue aucun rôle fondamental dans la
cognition – elle ne « sert à rien » – , et que le cerveau ne fonctionne pas
25comme un ordinateur . La question relevant de celle de l'unité et de la
continuité du moi psychique et physico-psychique a été illustrée en
particulier par le Mind-Mind Problem du psychologue, philosophe et
11linguiste, à l’origine musicologue, Ray S. Jackendoff (1945-), auteur de
Consciousness and the Computational Mind (1987). Ce Mind-Mind Problem
Jackendoff l’appelle le problème de l’esprit computationnel et du corps ; ou
26bien encore « problème de l’esprit et de l’esprit ». Celui-ci introduit
plusieurs niveaux de représentation où mind (l’esprit) peut être entendu de
deux façons. Ainsi se pose la question du Mind Mind Problem. Soit il
évoque l’esprit phénoménologique, celui qui correspond à notre monde de
perception et d’expérience réflexive, soit il décrit l’esprit computationnel,
qui est le processus par lequel perceptions, pensées et ressentis sont produits.
Autrement dit, au-delà de la dualité des relations corps/esprit, si l'on
introduit la distinction entre le niveau computationnel et le niveau
phénoménologique, on se retrouve avec un problème de relation esprit/esprit
où, de plus, le soi (la conscience) n’existe pas en tant que tel. Le Soi est
introuvable (DanielDennett).
«Vous entrez dans le cerveau par l'œil, vous remontez le nerf optique,
vous tournez autour du cortex en regardant derrière chaque neurone et,
avant même de vous en rendre compte, vous vous retrouvez dans la lumière
du jour sur la crête d'une impulsion nerveuse motrice, vous grattant la tête et
27vousdemandant où se trouve le soi. »
Comme dans la cognition située, l’expérience de vie reste la base. Toute
connaissance se fonde sur des perceptions sensorielles et aussi sur la
capacité à communiquer celles-ci à autrui. La limitation de ces capacités
sensorielles se reflète dans nos représentations mentales, domaine de
recherche de la psychologie cognitive (dont la perception, l’attention,
l’émotion et la mémoire) et des sciences cognitives en général. De telles
analyses vont contribuer de plus en plus à battre en brèche l’approche
séquentielle de l’IA tendant à être remplacée par une approche « mentale »,
« philosophique », totalementdistribuée.
Contre le « Théâtre Cartésien » de la conscience (Dennett)
Dans cette révision des dogmes de l’IA, il faut également évoquer le
philosophe de l'esprit Daniel C. Dennett (1942-) du Center for Cognitive
Studies de la Tufts University (Medford, Massachusetts). Dennett dénonce,
en particulier, l’idée fallacieuse du modèle classique cognitiviste qu'il
appelle «Théâtre Cartésien » (Cartesian Theatre) de la conscience, théâtre
centré en permanence sur un unique contenu bien individué (Yves-Marie
Visetti). Arrêtons nous plus longtemps sur cette notion phare du courant
28réductionniste . Le mathématicien et physicien français René Descartes
(1596-1650) décide dans les Méditations métaphysiques (1641) que le
cerveau a un centre. Cette idée d'un locus centré dans le cerveau – vision
moderne de la glande pinéale ou épiphyse en laquelle Descartes voit le lieu
de la jonction entre la matière et l'esprit – , c'est ce que Dennett désigne, par
le vocable « Théâtre cartésien ». Métaphoriquement, celui-ci instille l'idée
12qu'il existerait une sorte d'« écran » ou encore de « stade » dans le cerveau
où les expériences vécues se présenteraient à l’individu instantanément –
commeà l'œilde son «esprit ».Ce que l’onappelleaussi «conscience ».
Le problème difficile de la conscience, The Hard Problem suivant la
dénomination du philosophe australien spécialisé en philosophie de l'esprit
DavidChalmers (1966-)directeurduCentreforConsciousnessà l'Australian
29National University , consiste à savoir pourquoi, en plus du traitement de
l'information exercé par le cerveau, il doit y avoir un sentiment de ce qu’est
la conscience, en une sorte de réflexivité qui serait directement associée au
30traitement neural . Chalmers affirme par exemple dans The Conscious Mind
(1996) que la conscience phénoménale n'est pas naturalisableet donc non
31théorisable . Si elle relève bien des sciences de la Nature, elle est
irréductible à leurs notions fondamentales actuelles telles que celles de
masse, de force, d’espace, de temps, etc. En clair, nous n'avons pas de
langage phénoménal pour décrire une expérience consciente ; celle-ci revêt
en quelque sorte uncaractère ineffable.
Plus encore. Selon Dennett, la conscience phénoménale n’existe pas. Elle
ne fait que répondre à cette croyance qui veut que les idées soient examinées
« à la lumière de la raison ». Cette foi assure que la plupart des expériences
humaines,dotéesenfaitdece « petit » intellect (petite raison), lequel ne vise
qu'à se confondre avec la (une) conscience donnée, ayant la caractéristique
structurale invariable d’ « une ligne d'arrivée cruciale ou une frontière
quelque part dans le cerveau, qui marque un endroit où l'ordre d'arrivée est
identique à l'ordre de présentationdans le cerveau dans l'expérience ; parce
32ce qui se passe là est ce dont vous êtes conscient ». Bien sûr cette « ligne
d’arrivée » n’est qu’illusion trompeuse.
Espace de travail global (Changeux, Baars)
Cette métaphore d’une « ligne d’arrivée cruciale » en tant qu’elle recèle
le point crucial du réductionnisme, se traduit aussi dans le langage des
neurosciences encore contemporaines, par le décret de l’existence dans le
cerveau d’un «Espace de travail global ». Espace où différents sous-
systèmes mettent en commun certains résultats de leurs opérations pour un
«affichage » interne. C’est encore par exemple le credo du neurobiologiste
français, spécialisé dans l'étude du cerveau, Jean-Pierre Changeux (1936-) –
jadis directeur du laboratoire CNRS (Centre National de la Recherche
Scientifique) de neurobiologie moléculaire à l'Institut Pasteur, professeur au
Collège de France et membre de l’Institut (Académie des Sciences). Position
du « tout contrôlé, tout expliqué »qui fait florès encore aujourd’hui,
particulièrement en France. Dans sa conception d'un « espace de travail
global neuronal » (Global Neuronal Workspace, GNW), Changeux dont la
recherche est surtout axée sur les relations entre l’organisation biologique du
cerveau humain et les fonctions cognitives, s’appuie sur l’observation que le
13cerveau comprend plusieurs systèmes spécialisés reliés à la perception, à
l’attention, au langage, etc., qui accomplissent alors chacun leur tâche à un
33niveau n’atteignant pas le seuilde laconscience .
Il s’inspire en cela directement de la théorie cognitive de la conscience et
de laGlobalWorkspaceTheory (GWT, théoriede l'espacede travail global),
sorte de « tableau d'affichage », formulé dans A Cognitive Theory of
34Consciousness (1988) et dans de nombreuses publications ultérieures, par
le psychologue Bernard J. Baars (1946-) de la State University of New York
qui sera ensuite neurobiologiste théoricien au Neurosciences Institute de La
Jolla.
La théorie du Global Workspace est une architecture simple cognitive,
inventée par Baars en 1988 et ensuite étendue par lui dans In the Theater of
35
Consciousness (1997) . Architecture créée pour décrire qualitativement un
grand nombre de processus, à la fois conscients et inconscients et marchant
ensemble par paires, qui s'accomplissent dans le cerveau. Comme, selon lui,
ces paires contrastives peuvent ressortir de phénomènes psychologiques ou
neuraux, Baars se demande comment un phénomène comme la conscience –
propriété fondamentale du fonctionnement psychique où tout se déroule en
série avec un seul objet conscient à la fois – , peut émerger d’un système
nerveux essentiellement constitué, dans sa vision, d’innombrables circuits
spécialisés fonctionnant en parallèle et de manière inconsciente (unconscious
specialized processors). Et de répondre incontinent : la conscience doit être
perçue comme l’activité d’« une collection distribuée de spécialistes, équipée
d’une mémoire de travail, société nommée espace de travail global dont le
contenu peut être transmis à l’ensemble du systèm e ».Laconscienceestdonc
associée à un espace de travail global dans le cerveau. Ce dernier consistant
en une collection de réseaux spécialisés distribués (processeurs ou
36spécialistes) . Comme en informatique où l'on utilise des processeurs
massivement parallèles, le cerveau fonctionne alors de manière massivement
parallèle.
Cette idéed'un processus généraldecontrôle s'accompagne naturellement
de celle d’un cerveau fonctionnant en vase clos. Elle est historiquement
ancrée dans une longue tradition neuropsychologique. Laquelle remonte à
Hughlings Jackson (1835-1911), neurologue britannique, qui décrit le
fonctionnement neurologique et cérébral sous une forme hiérarchiquede
contrôle groupant niveaux inférieurs et niveaux supérieurs. Ce thème du
contrôle se perpétue, entre autres, via des théoriciens comme Alan D.
Baddeley (University of York, Angleterre) inventant pour le cerveau, en
1986, les modèles de « central executive » (administrateur central) et
d’« executive control » (contrôle « exécutif » ou «directorial ») pour
justifier le contrôle et la régulation de différents processus cognitifs de haut
37niveau, notamment par attention sélective . Le concept d’un système
gestionnaire des ressources mentales (« mémoire de travail ») n’ayant pas
38seulement une fonction de stockage, mais gérant des processus de contrôle ,
provient chez Baddeley également du Système de contrôle attentionnel
14proposé en 1986 par Tim Shallice de l'Institute of Cognitive Neuroscience à
l'University College London (Londres) et DonaldA.Norman (1935-),expert
en science cognitive et co-fondateur, fin des années 1970, de l'Institute for
Cognitive Sciences (University of California, San Diego). Ce concept
suggère une organisation hiérarchique du contrôle cognitif où les actions
sont supervisées de deux manières. Il y a d'abord de multiples systèmes
esclaves (de l’administrateur central) chargés de stocker les informations
pendant une durée limitée (le temps nécessaire à leur traitement). Ainsi ce
qu'on peut traduire par les comportements habituels humains, routiniers sont
contrôlés automatiquement par une série de processus bien appris qui
permettent de répondre de façon appropriée à l'environnement. Puis, lorsque
de telles procédures ne sont pas adéquates à la situation, intervient alors un
deuxième système, l’administrateur central ou le système de surveillance
attentionnelle (SupervisoryAttentive System) qui trie parmi les proliférations
des informations, sélectionne, coordonne et contrôle les opérations de
traitement ; soit parmi les hypothèses justifiables, celle qui est apte à être
testée par l'expérience. Cet administrateur s’avérant capable d'utiliser les
connaissancesà long termeafinde mettreen placedes solutions possibles,et
d'y réfléchiravantdechoisir le meilleur parti.
Le « contrôle exécutif », hiérarchiquement supérieur aux processeurs
automatiques (« routine des comportements complexes»), est donc chargé
du contrôle et de l'inhibition des multiples systèmes esclaves. Soit, mais on
peut légitimement se demander si cette idée de contrôle ne comporte pas en
elle une spirale de la régression à l'infini des instances interprétantes. Car,
enfin, qui contrôle l’exécutif ? Ou même, cet exécutif contient-il son propre
contrôle ? Cette idée d'exécutif central décrit ensuite par Baddeley lui-même
comme un «fourre-tout conceptuel », ne revient-il pas à la notion
d'homonculus (homoncule) présent dans les théories de l'Intelligence
Artificielle classique ? Personnage ou même «fantôme dans la machine »
(ghost in the machine) dont on postule plus ou moins l'existence et qui siège
soi-disant en haut de l'esprit, et agit en interprète suprême des signaux et des
39symboles .
Ces théories faisant appel au concept d’espace de travail global sorte de
«grand raisonneur » ou de « grand décideur »tel le Supervisory Attentive
System de Shallice s’inspire également des modèles computationnels de
résolutionde problèmes issusde l’IA.En particulierdu modèleSOAR (State,
40
Operator And Result) ébauché par Alan Newell et Herbert Simon en 1972
lors de simulations informatiques de résolution de problèmes développant le
General Problem Solver (GPS, Newell, Shaw & Simon, 1957-1958) et
réellement mis au point par Newell avec ses étudiants John E. Laird et Paul
41
S. Rosenbloom en 1987. Ce modèle décrit ensuite par Shallice en 1995,
programmé sur ordinateur par le Production System Language, dérivant donc
du GPS, est un dispositif sophistiqué d’apprentissage de nouvelles
connaissances. SOAR, architecture cognitive IA de calculs parallèles, se veut
42
fondement d'une « théorie unifiée de la cognition ». Comme il peut arbitrer
15les conflits en créant un nouvel espace de travail pour les résoudre et, en
conséquence, augmenter sa capacité déductive, il vise rien moins qu'à rendre
compte du comportement humain. Comportement plausible et non plausible
observé en un grand nombre de paradigmes psychologiques (reconnaissance
d’items, temps de réponse lors de la prise de décision, apprentissage verbal,
43
tâches de raisonnement …) . Axé sur la simulation de résolution de
problèmes, il s'agit donc pour ce qu’on voit comme synthèse des expériences
et des échecs (modélisation du niveau cognitif) d'expliquer le comportement
intelligent en proposant l’architecture de base de tout système intelligent.
SOAR montreainsi l’utilitéd’une théoriede l'espacede travail globalau sein
d'un système complexe constitué de circuits (sources cognitives)
44
spécialisés . La mise en commun de l’information traitée par chacun de ces
circuits permettant de résoudre par la coopération des problèmes qu’aucun
circuit n’aurait pu solutionner seul.
Multiple Drafts Model, Modèle des Versions Multiples (Dennett)
« Cet espace global c'est la métaphore du « théâtre », celle de l'écran de
la conscience, du tableau noir ou du studio d'une chaîne télévisée, incluant
la conscience d'une seule chose à la fois : à chaque instant, des événements
se déroulent en coulisse, contrôlant ce qui est présenté à notre subjectivité »
45(Bernard Baars) . Il y a donc cette sorte de déclinaison du cogito, que
Dennett appelle « Théâtre cartésien ». Là les expériences seraient comme
« sélectionnées » devant nous, produisant donc la conscience. Comme le
rappelle Baars dans A Cognitive Theory of Consciousness, cette métaphore
d’un « théâtre mental » au centre du cerveau est due au philosophe et
historien Hippolyte Taine (1828-1893) : « Le cerveau humain est alors un
théâtre où se jouent à la fois plusieurs pièces différentes, sur plusieurs plans
dont un seul est en lumière. Rien de plus digne d'étude que cette pluralité
foncière du moi : elle va bien plus loin qu'on ne l'imagine.» (Hippolyte
46Taine, De l’intelligence, 1870,XXXV) .Mais, pour Dennett, il n’existe pas
de « courant de conscience » unique, définitif et constitutif. Pas plus qu’il
n’y a d' «allée centrale », de Siège de la conscience, que sais-je, de point
unique, de lieu ad hoc et rêvé de traitement des informations dans le
cerveau, telle la glande pinéale ou épiphyse du Matérialisme Cartésien.
D’ailleurs, si l’on se penche sur les ordinateurs de l’IA, il est là aussi bien
difficile de se rapprocher d’un tel modèle. Tant ceux-ci possèdent
indubitablement un mécanisme très différent du cerveau humain, et
fonctionnent de manière séquentielle tout en disposant d’un processeur
47central (CPU) . Qui plus est, au sein de la variété mal unifiée des processus
parallèles du cerveau humain, selon Dennett, il n’y a aucunement une telle
unité centrale de traitement. Pas de lieu, ni de moment ineffable où tout soit
mis ensemble, où « tout se réunisse » et où les discriminations dans toutes
les modalités soient enregistrées et « présentées » en quelque sorte à un
48jugement subjectif .Pasde locus particulierdans lequel toutes, ou la plupart
des commandes soient exécutées au sein d’un «soi », là, mis tout exprès
16pour recevoir totalement perception ou pensée consciente. Une telle
conception supposerait derechef qu'il existe dans la neuroanatomie
fonctionnelle du cerveau, un centre spécial, un Central Signifiant (Central
Meane r) ou un Quartier Général opérationnel auquel tous les modules
inconscients enverraient leurs résultats à l'appréciation consciente in fine,
d’un Public (pour rester dans l'image du théâtre) «en une représentation
multi-modale ou un affichage qui serait de l'ordre du contenu définitif de
l'expérience consciente ». Et Dennett d’insister encore. Il n’existe pas «de
scène unique sur laquelle chaque information devrait se présenter pour
49devenir consciente ». D’ailleurs il n’y a aucune certitude que ces effets
d'audition/appréciation par un soi-disant « public », soient réellement des
« moments de conscience ». De plus il n'y a vraiment pas de public qui ait
d'«expérience », tant le point de vue soi-disant tout puissant de cet
Observateur/contrôleur général et ultime et… imaginaire est surtout…
spatialementbrouillé...
Exit le Théâtre cartésien. Au lieu d'un tel flux unique, flux de la
consciencedans lecerveau semblantêtre très liéavecce que l’on est,d'après
cette thèse porteuse d'«extravagances scientifiques et métaphysique s »,
Dennett dans Consciousness Explained(La conscience expliquée, 1991)
préfère opter pour un flux parallèle de contenus contradictoires, au sein
d'une multitude d'événements, un processus délocalisé de traitement de
l'information en parallèle, de révision permanente. Il propose la notion de
drafts (ébauches, brouillons) multiples (Multiple Drafts Model, Modèle des
Versions Multiples). Là tels des projets fragmentaires de « narration »
nécessaires avant de parvenir à telle ou telle idée ou résolution de
50problèmes . À tout instant, des milliers d’objets mentaux se forment et se
défont dans l’ensemble du cerveau, entrant en compétition darwinienne les
uns avec les autres. Ce qu’on appelle le « soi » pourrait alors être considéré
comme ce qui émerge de ce conflit. La conscience d’origine réside en ces
51« versions multiples » depuis les premières décharges des neurones
récepteurs dans les organes sensoriels jusqu’aux dernières décharges dans
les nerfs quicontrôlent les muscles (BrunoLeclercq).
« La conscience n’est pas un lieu (un théâtre, une télévision) ; elle est
encore moins un centre spécial du cerveau. Elle est plutôt une propriété de
certains états mentaux résultant de processus locaux traitant des données
52sensorielles. »
À la métaphore du flux de conscience, Dennett oppose donc celle de
l'édition où le cerveau se montre lieu d'activité intense animé par une foule
d'agents. « (...) Toutes les variétés de la pensée et de l'activité mentale sont
accomplies dans le cerveau en parallèle, résultant des nombreux processus
d'interprétation et d'élaboration des entrées sensorielles. L'information
entrant dans le système nerveux se trouve soumise à une 'révision éditoriale'
continue. » À la scène perceptive (primitive) unique, se substitue une
narrationconstruite parbribes (processusd'interprétationetd'élaborationdes
17entrées sensorielles), pas nécessairement dans l'ordre des « contenus »
représentés, à l'intérieur d'un atelier cérébral où s'activent des équipes
concurrentes de rédacteurs (‘révision éditoriale’ continue). Cette évocation
où il n'y a plus « ni version originale, ni version finale du fil de l'expérience
53» (Yves-MarieVisetti) ressemble plusauPandemonium (1956) d'OliverG.
Selfridge (1926-2008) – pionnier de l'IA connexionniste – qu'à un atelier
bien ordonné » avec son bureau central exécutif. Ce pandémonium, système
décentralisé d’«automates opportunistes » ne trouve d’ailleurs sa
« régulation que de manière externe, c’est-à-dire du fait des contraintes
relativement stables que fait peser l’environnement sur le système ».
En l’atelier cérébral sont produits de manière incessante des « brouillons
d'activité » dont un petit nombre seulement est « édité » par la conscience
sans que cette dernière soit jamais l'instance juridictionnelle ultime. Comme
dit Dennett, il n’y a pas non plus de QG dans le QG – même si certains
neurones ou groupes de neurones interviennent davantage dans certaines
tâches que dans d’autres – , la conscience est distribuée sur le système
nerveux dans sa totalité. Lequel est parcouru de processus parallèles et non
nécessairement convergents de transmission d’informations (Bruno
Leclercq).
Laconscience ne pouvantêtre localisée nulle partetàchaque instant, il y
aurait donc plusieurs états conscients possibles. Mais seulement une de ces
« versions multiples »connaîtra son « heurede gloire »etdeviendra célèbre,
(autrement dit consciente), l’espace d’un instant. Cette position se révèle en
même temps intrinsèque à la notion d’une conscience humaine plurielle. Le
point final, la ligned’arrivée,demeure indicible.Il ne peut que se vivre dans
la propriété émergente d’un dispositif tout entier (dont les systèmes
sensoriels et moteurs) et surtout de l’interaction de ce dispositif avec un
54environnement (BrunoLeclercq) .
18THE EMBODIMENT HYPOTHESIS (L'HYPOTHÈSE DE
L'INCARNATION)
« Dire que la cognition s'incarne signifie qu'elle naît
d'interactions du corps avec le monde. De ce point de vue, la
cognition dépend des types d'expériences qui viennent du fait
d'avoir un corps ayant notamment des capacités perceptuelles
et motrices lesquelles sont indissolublement liés et ensemble,
forment la matrice dans laquelle la mémoire, l'émotion, la
langue, et tous les autres aspects de la vie sont tressés. La
notion contemporaine de la cognition est en contraste à la
position dominante cognitiviste qui voit l'esprit comme un
dispositif permettant de manipuler des symboles et porte donc
sur les règles formelles et de processus par lequel les symboles
représentent adéquatement le monde.»
EstherThelen
La cognition située s'inscrit aussi dans le courant de pensée dite
incarnée – au sens où l’homme a un corps dans le monde physique – et
s’appuie sur la théorie de l' «enaction » ou théorie des « systèmes vivants ».
Ce néologisme enaction forgé sur le verbe anglais to enact (susciter, faire
émerger ou faire advenir) pour décrire au mieux une «action incarnée », est
dûaubiologiste, neurologueet philosophechilienFranciscoJ.Varela (1946-
2001). Varela prône l'ancrage de la cognition dans le vivant, dans le
caractère incarné de l’activité – ce qu’il nomme « inscription corporelle de
l'esprit ». Dans ce modèle de l’enaction substitué au modèle
représentationnel du cognitivisme computionnaliste, « l’objet perçu est
compris comme impliqué de façon inhérente dans, et co-défini par le corps
55en mouvement de celui qui perçoit ». Ce monde perçu est donc conçu de
façon intersubjective. A l’enaction s'ajoute la théorie de l’autopoïèse
(autopoïesis) selon laquelle la caractéristique essentielle des organismes
vivants réside dans la «circularité de leur organisation ». La découverte de
cette notion modélisant les systèmes vivants par la régénération permanente
de leur organisation (organisation circulaire) qui en fait des unité s à part
entière, est réalisée en 1972 par le neurobiologiste chilien Humberto R.
Maturana (1928-) en collaboration avec Varela, son étudiant à l’origine, puis
son collègue à l’Universidad de Chile (Santiago), lequel y apporte sa propre
56vision .
« Un système autopoïétique est organisé comme un réseau de processus
de production de composants qui (a) régénèrent continuellement par leurs
transformations et leurs interactions le réseau qui les a produits, et qui (b)
constituent le système en tant qu'unité concrète dans l'espace où il existe, en
spécifiant le domaine topologique où il se réalise comme réseau. Il s'ensuit
qu'une machine autopoïétique engendre et spécifie continuellement sa propre
19organisation. Elle accomplit ce processus incessant de remplacement de ses
composants, parce qu'elle est continuellement soumise à des perturbations
externes, et constamment forcée de compenser ces perturbations. Ainsi, une
machine autopoïétique est un système... à relations stables dont l'invariant
fondamental est sa propre organisation (le réseau de relations qui la
57
définit). »
L’autopoïèse répond à un phénomène non linéaire. Elle décrit une
dynamique des éléments composant un système qui se trouve alors en
équilibre instable, et aboutit à une autoorganisation (états organisés) de la
structure du système animal/environnement par un ajustement aux
conditions locales. L’autopoïèse est en outre une notion qui nécessite une
fermeture systémique. Une fermeture organisationnelle que Varela appelle
ensuite clôture opérationnelle (operationnal closure). Cette clôture recouvre
l’ensemble des interactions possibles qui permettent le maintien de l’être
58vivant . Sachant qu’ils se produisent eux-mêmes, les systèmes
autopoiétiques sont également thermodynamiquement ouverts, mais fermés
organisationnellement, en regard de la dynamique des relations qui les ont
générés.
Phénoménologie
Tout comme les positions de Varela, la cognition située de Lucy
Suchman montre explicitement des racines phénoménologiques. Lesquelles
rejettent l'existence d'un monde extérieur objectif, préférant la priorité
métaphysique de l'expérience. Le terme « incarnation » revient alors à
décrire et à restituer un « sentiment de présence phénoménologique ». La
Phénoménologie représentant déjà historiquement un effort considérable
pour arracher la philosophie (et aussi la psychologie philosophique), à la
notion de « représentation » également chère au cognitivisme traditionnel,
cette nouvelle cognition, construite, s'appuie donc aussi sur un renouveau de
l'approche phénoménologique dans la tradition de la philosophie
ontologique. Celle du psychologue Franz Brentano (1838-1917), du
philosophe, logicien et mathématicien allemand Edmund Husserl (1859-
1938), du philosophe allemand Martin Heidegger (1889-1976) auteur d’Être
et Temps (1927) et du philosophe français Maurice Merleau-Ponty (1908-
1961). Merleau-Ponty s’intéressant au corps vécuphénoménologiquement
(La structureducomportement, 1942).
Ce retour de la phénoménologie a été instauré par le philosophe Hubert
L.Dreyfus (1929-)avec son ouvragede 1972 What Computers can't do; The
59Limits of Artificial Intelligence . Dreyfus, dressé contre le
comptationnalisme, comprend assez vite l’impossibilité qu’une machine
fonctionnant seulement à travers l'implémentation de règles explicites pour
manipuler des représentations sous forme symbolique, puisse reproduire
complètement l’intelligence humaine ainsi que l’idée de son développement.
Il reprocheà l’IA l’utilisationde laconceptioncartésiennede la pensée selon
20laquelle toute compréhension découle de la formation de représentations
60symboliques et de leur usage approprié . En effet dans les valeurs suprêmes
de ce cognitivisme traditionnel, catégorisé par des types et des inférences
logiques, le fonctionnement du cerveau repose sur l’exécution de calculs
discrets (basée sur la forme des règles algorithmiques) effectués à partir de
représentations discrètes (symboles). Dreyfus condamne donc cette
dimension «computationnelle » qui se voudrait soi-disant commune à
61l’hommeetà l’ordinateur .
Dans le sillage de ce revival phénoménologique, la notion
d'intentionnalité, comme propriété initiale du fonctionnement
neurobiologique, est cruciale. L’intentionnalité – tous les actes mentaux
(perception, mémoire, etc.) ont lieu pour quelque chose – est de fait activité
vécue. Quant à la conscience, elle est surtout toujours 'conscience de
62quelque chose' », donc conscience intentionnelle . Ainsi sujet et objet
intentionnel sont-ils liés indissolublement. La phénoménologie en tant que
philosophie première de l'expérience, apparaît donc comme interprétation,
c'est-à-dire construction (construction culturelle de significations).
Construction qui va se décliner en une nouvelle conception des relations
entre action et perception. Ces deux termes étant considérées comme
indissociables selon la théorie dynamique du couplage structurel
63(perception/action)et la théoriede l'enactiondeMaturanaetVarela .
Chercheur neurologique, Maturana a, pour sa part, développé une
compréhension approfondie du rôle de l'observateur. A la fois dans la
détermination du résultat de la recherche scientifique et dans
l'interdépendance des processus de contrôle et de communication, en
particulier dans la cognition. Cette approche, comme celles vues
précédemment, renvoie à celle de l'Umwelt (monde propre) du zoologiste
von Uexküll. Au départ, existe cette question simple: «Comment unanimal
voit-il le monde ?». Dans Umwelt und Innenwelt der Tiere (Monde ambiant
et monde intérieur des animau x, 1909-1921), von Uexküll répond que
l’animal voit grâce à des relations étroites entre perception et action et selon
des cercles fonctionnels (Funktionskreise) ancêtres du feedbac k
(rétroaction). L'Umwelt est dès lors un (le) monde de significations (monde
des impressions sensorielles et des effets), créé, construit par un animal pour
ses propres besoins. Dans sa visée enactive, Varela témoigne à son tour,
après Dreyfus, d’une relecture de la philosophie et de la psychologie
phénoménologiques d’Husserl, de Heidegger, de Merleau-Ponty (ces deux
derniers étant influencés par von Uexküll). Merleau-Ponty écrit d’ailleurs
64lui-même le moténactiondansLa structure du comportement .
L'humain s'inscrit dans un monde propre ; l'Umwelt selon von Uexküll
est le monde extérieur à un sujet en tant qu'il est pour lui un milieu. Il y est
enacté à travers l'évolution de l'espèce selon le processus d'un coavènement
de lui-même et de son environnement relatif via un processus temporel plus
ou moins long. Au sein de ce milieu (Umwelt), les propriétés des objets
21perçus et les intentions du sujet, non seulement se mélangent mais elles
constituent un tout nouveau (émergence) et s'inscrivent dans un contexte
biologique, psychologique et culturel plus large. Selon Varela : « Par le mot
incarnée, nous voulons souligner deux points : tout d'abord, la cognition
dépend des types d'expériences qui découlent du fait d'avoir un corps doté
de diverses capacités sensori-motrices ; en second lieu, ces capacités
individuelles sensori-motrices s'inscrivent elles-mêmes dans un contexte
65biologique, psychologique et culturel plus larg e ». Cela signifie que
l’individu ne peut être défini isolément par des propriétés qui lui seraient
exclusivement caractéristiques, de même que l’environnement qu’il perçoit
comme objectif, dépend fortement de sa propre nature. Or, dit Varela, pour
le cognitivisme traditionnel (comme d'ailleurs pour le connexionnisme que
nous verrons tout à l’heure, c'est pourquoi entre ces deux approches, Varela
cherche une troisième voie), le critère d'évaluation de la cognition est
toujours la « représentation adéquate d'un monde extérieur prédétermin é ».
Ce critère s’obtient ou bien par des éléments d'information correspondant à
des propriétés du monde (formes et couleurs), ou bien par des résolutions de
problèmes bien définis impliquant l’idée d’un « monde arrêt é ». Cette
représentation,ajouteVarela,est par trop incomplèteet ne peutcorrespondre
à toute situation possible rencontrée dans la vie et dans l’action de l’activité
cognitive quotidienne. Au contraire, l’organisme humain auto-produisant
son individualité (phénomène d'« autoorganisation émergent e ») se trouve
en interactionconstanteavec lescontingencesenvironnementales par lebiais
de capteurs et d’effecteurs ou de récepteurs et effecteur s (von Uexküll). En
définitive, nos perceptions s'ordonnent au sein de notre vécu, de notre
environnement tel que nous le vivons, dans notre monde propre, notre
Umwelt.
Ainsi dit Merleau-Ponty dans l'introduction à la Phénoménologie de la
perception (1945) : « J'ai commencé de réfléchir, ma réflexion est réflexion
sur un irréfléchi, elle ne peut s'ignorer elle-même comme événement, dès lors
elle apparaît comme véritable création, comme un changement de structure
de la conscience, et il lui appartient de reconnaître en deçà de ses propres
opérations le monde qui est donné au sujet parce que le sujet est donné à lui-
même (...) La perception n'est pas une science du monde, ce n'est même pas
un acte, une prise de position délibérée, elle est le fond sur lequel tous les
actes se détachent et elle est présupposée par eux. Le monde n'est pas un
objet dont je possède par devers moi la constitution, il est le milieu naturel et
66
le champ de toutes mes pensées et de toutes mes perceptions explicites. »
Chez von Uexküll, le sujet (l’animal en l’occurrence)découvre le monde
extérieur par ses sens (sensori-) et ses actions (moteur). Cette action est
construite sur le moment, de manière contextuelle, et non prédéterminée.
Ainsi le concept d’enaction permet de renouveler la description/explication
de phénomènes tels que les relations entre perception et action. Le système
et l’environnement forment ce couplage qui, s’il est stable, définit une unité
22autopoïétique de niveau supérieur capable d’autoreproduction (Francisco
Varela). Déjà von Uexküll dit que perception et action sont deux mondes qui
constituent pour le sujet une seule unité. Pour lui, mondes d’action et de
perception forment ensemble une totalité close, l’Umwelt. Par l’enaction, il
s’opère donc un processus cognitif particulier, un « couplage structurel »
(perception/action) qui fait émerger un monde ou une action dans la relation
du sujet avec ce monde extérieur. Il s’agit bien surtout de « faire émerger »,
le « faire » signifiant la présence du sujet et non pas l’émergence d’une
qualité intrinsèque qui apparaîtrait passivement. « La plus importante faculté
de toute cognition vivante est précisément, dans une large mesure, de poser
les questions pertinentes qui surgissent à chaque moment de notre vie. Elles
ne sont pas prédéfinies mais enactées, on les fait émerger sur un arrière-
plan et les critères de pertinence sont dictés par notre sens commun d'une
67manière toujours contextuelle. ». Et c’est précisément cette faculté de
questionnement et de construction d’actions adaptées que Varela nomme
«enaction ». Ce questionnement, selon lui, renvoie à celui du problème
d'une circularité fondamentale évoquée au début et que l’on peut définir
ainsi : nous réfléchissons sur un monde qui n'est pas fait mais trouvé. Notre
structure physiologique, biologique, comportementale nous permet de
réfléchir sur ce monde. Nous nous trouvons donc pris dans un cercle lors de
la réflexion où nous sommes dans un monde qui semble avoir été là avant
que la réflexion ne commence, mais en même temps ce monde n'est pas
68séparé de nous . A travers ce concept, Varela remet en avant, un certain
sens commun dont il dénonce l’absence complète dans la cognition soit
computationnelle, soit connexionniste. Un sens qui se veut à la rencontre du
monde intérieur et du contexte. Dans ce cadre-là, c’est bien le concept
69d’action quiestcentralet nonceluide représentation .
MODÈLESCONNEXIONNISTES-DYNAMIQUES
Dans cette même acception anti-IA, on peut également signaler les
recherches entre neurosciences et sciences de l'information de Dana H.
Ballard, enseignant la science informatique à l'University of Texas (Austin),
et créateur en 1982 du terme «connexionnisme » ou (néo)connexionnisme
avec l’informaticien Jerome A. Feldman (University of California,
Berkeley). Recherches qui interviennent après celles de Paul Smolensky
(1955-), professeur de sciences cognitives à la Johns-Hopkins University
(Baltimore), l’un des premiers à s'être opposé de façon radicale au
paradigme symbolique (hypothèse du système physique de symboles) de
70l'Intelligence Artificielle traditionnelle . Ce courant s’inspire aussi des
travaux psychophysiologiques fondateurs du psychologue et
neuropsychologue canadien Donald O. Hebb (1904-1985) sur les réseaux de
71neurones artificiels .
23Loi de Hebb . Hebb énonce que si deux neurones sont actifs en même
temps, les synapses (connexions) entre ces neurones seront
renforcées: «Cells that fire together wire togethe r » («Les cellules qui
déchargent ensemble se lient ensemble »). Il faut là comprendre « lorsque les
neurones déchargent simultanément, leur capacité à s'activer mutuellement
augmente ». Une assemblée stable de neurones peut ainsi se former lors de
l'interaction avec le monde extérieur si une condition portant sur les
efficacités des synapses établies entre neurones se trouve remplie. « Cette
condition, appelée depuis règle de Hebb, postule que deux neurones en
contact 's'associent'entreeux si leursdéchargescoïncidentdans le temps.La
concomitance d'activité pré- et post-synaptique entraîne le renforcement de
la connexion inter-neuronale. La règle permet aux neurones qui sont actifs
72ensemble, ou quicoopèrentdéjà,de mieuxcoopérerencore.» À traversdes
milliers de milliards de connexions entre les neurones (synapses) qui
73envoient et reçoivent les signaux électro-chimiques , les impulsions
nerveuses voyagent de cellule en cellule et servent alors de support au
74développement des compétences et à la capacité d’apprentissage . Les
groupes neuronaux alors se spécialisent, s'interconnectent, et auto-génèrent
leur propre comportement lors de la circulation de l'influx, jusqu'à un état
stable qui est la sortie du système. Cette circulation de l'influx entre groupes
dépend du poids des connexions, qui est variable et particulièrement
déterminé par l'apprentissage.
Précurseurs
Ces modèles de réseaux de neurones artificiels sont des réseaux
fortement connectés de processeurs élémentaires fonctionnant en parallèle
75(Parallel Distributed Processing) , et répondant à un principe
d’autoorganisation. Chaque processeur élémentaire (neurone artificiel)
calcule une sortie unique sur la base des informations qu’il reçoit (Manuel
Clergue). L’inspiration naturelle reste l’analogie avec le cerveau afin de
comprendre et simuler son fonctionnement. Les théories de Hebb font suite
76à celles du neurologue Warren S. McCulloch (1898-1969) et du
psychologue Walter H. Pitts assimilant eux le cerveau dans sa structure
même, c'est-à-dire le cerveau naturel, biologique, à une machine universelle
de Turing donc à un (proto-)ordinateur.McCullochet Pitts affirmenten effet
dans A Logical Calculus of the Ideas Immanent in Nervous Activity (Un
calcul logique des idées immanentes dans l’activité nerveuse, 1943), et c'est
ce quiest le plus important, que les loisde la logique sont simulables pardes
77neuronesartificiels .
Le neurone formel du modèle McCulloch/Pitts est conçu comme l’unité
élémentaire d’un réseau de neurones artificiels. Ce neurone formel se
compose de deux parties : 1) évaluation de la stimulation reçue
(fonction E) ; 2) évaluation de son activation (fonction f). Il est caractérisé
par son état X (binaire, discret, continu), par le niveau d’activation reçu en
78
entrée U (continu)et par le poidsdesconnexionsenentrée .
24Par là, McCulloch et Pitts ont réussi à démontrer que leur modèle de
neurone formel peut simuler le fonctionnement de n’importe quelle fonction
logique par la connexion avec d’autres neurones. Ce qui a permis de réaliser
que les neurones artificiels autorisent de vraies opérations logiques. Aussi
bien Pitts et McCulloch sont-ils des précurseurs de l’IA. On peut ajouter à
cela, l’informaticien Frank Rosenblatt (1928-1971), auteur du Perceptron
(Perceptron Convergence Procedure), mettant au point, en 1957, au Cornell
Aeronautical Laboratory (Cornell University) le premier modèle de
reconnaissance de formes et algorithme d’apprentissage inspiré du système
79visuel .
Connexionnismedynamique
La résurgence du connexionnisme survenant durant les années 1980, est
due aux interrogations sur le traitement parallèle des informations et des
processus d’apprentissage. Aspects dont le cognitivisme classique ne rend
qu'imparfaitement compte.
Selon le connexionnisme fondé sur la métaphore neuronale, les états
mentaux sont descriptibles en termes des propriétés émergentes totales du
système cognitif. On y distingue trois idées-force : 1) l'esprit humain est
modélisé par un système connexionniste ; 2) ce système est composé de
réseaux d’entités simples ; 3) ces entités conçues à un niveau de
microstructure (« processeurs », « neurones », concept de «nœuds »,
d'activation, de connexions entre les nœuds, etc.), ensemble, encodent
mathématiquement les informations. L'intelligence du système ressort de la
structure (pattern) d'interconnexions entre les nœuds, tandis que la
connaissance et la signification se trouvent distribuées parmi les nœuds du
système. Enfin ce dernier est conçu pour se modifier spontanément
(apprendre) avec l'expérience. Ce niveau«plus bas » (bas niveau) que celui
des macrostructures/modèles logico-symboliques de l’IA (se reposant sur des
frames, des scénarios, des phénomènes cognitifs de haut niveau) est critiqué
par les connexionnistes pour sa rigidité. «Les approches de haut niveau sont
en effet fondées sur les grammaires formelles et le raisonnement logique.
Elles voient l’esprit (mind) comme une machine manipulant, à l’aide de
règles formelles, des ensembles complexes de symboles. Mais à l’opposé, ce
que nous savons du fonctionnement cérébral nous conduit à nier l’existence
de règles formelles et de symboles au profit de la dynamique quantitative du
réseau des interconnexions neurales d’où émergent qualitativement des états
80représentationnels. » L’analyse des microstructures de la cognition paraît
dès lors fondamentalement plus adaptée aux problèmes (et aux méthodes) des
neurosciences, notamment aux phénomènes perceptifs de bas niveaux (Jean
Petitot). La stratégie connexionniste dynamique rejette donc complètement
l’approche linéaire du cognitivisme du « classique » symbolique et
computionnel fondé sur des systèmes partiels telles les procédures
spécifiqueset le modularismedeFodor.
2581DansAnimate vision (1991) ,Ballardcomplète le modèle traditionnel du
cerveau-machine à représentations et computations internes en lui associant
des mécanismes de « pointeurs déictiques » (deictic codes) ou de stratégie
déictique (déictique signifiant « qui pointe » ou « qui montre ») censés
82rendre compte du caractère incarné et situé de la perception visuelle . Le
but de sa philosophie de la perceptionest de décrire le fonctionnement
cognitif du cerveau (théories de calcul du cerveau) en une approche
dynamique des mécanismes perceptifs qui prenne en compte les interactions
avec le corps comme avec l'environnement, suivant la théorie de
l'embodiment (incarnation) notamment dans l'idée d’une vision dynamique
active. La vision active apparaît comme une tentative de simulation du
système visuel animal et humain visant à approcher leurs facultés
d’adaptation.
Cette approche dynamique s’inscrit dans le courant porté par les Sciences
de la Complexité, qui regroupent un ensemble de sciences (synergétique,
structuresdissipatives, homocinétique …)ayantencommunde s’intéresserà
l’émergence de phénomènes dynamiques dans les systèmes complexes quels
qu’ils soient (économique, biologique, physique, chimique, etc.). Dans ses
recherches de traitements et d'interprétation d'images, Ballard met l'accent
sur la vision humaine en travaillant notamment sur le contrôle des fixations
oculaireset l'attentionfocale visuelle.Dès 1985,avecChristopherM.Brown
du Department of Computer Science (University of Rochester, Rochester,
New York), il a conçu et construit un système binoculaire monté sur un bras
robotique et comportant une caméra de contrôle, capable de simuler les
mouvements de l'œil humain (oculomotricité). Système qui a conduit à une
compréhension accrue du rôle du comportement et du corps dans la vision,
et souligne le rôle de l’action dans la genèse perceptive. Cette idée va par la
suite se développer «tant et si bien qu’actuellement la perception ne peut
plus être considérée comme un calcul passif effectué sur les sensations à
savoir les stimuli entrants ». Les aspects théoriques en sont dégagés dans
83Animate vision . Cette recherche se poursuit à présent dans des
environnementsdeRéalitéVirtuelle.
Mentionnons aussi les travaux de la philosophe américano-canadienne
non réductionniste enseignant à l'University of California (San Diego)
Patricia S. Churchland (1943-). Churchland, critiquant la psychologie, les
positions fonctionnalistes et les principes défendus dans les conceptions
modularistes du fonctionnement cognitif de Jerry Fodor, en particulier dans
84The Language of Thought (1975) , et qui, après avoir étudié la
85
neurobiologie, se consacre à la neurophilosophie . Prônant un
« matérialismeéliminativiste », Churchland est auteur, en collaboration avec
le neurobiologiste Terrence J. Sejnowski et le neuroscientifique Vilayanur S.
86Ramachandran, deACritique ofPureVision (1994) qui rend toute sa place
87
au corps dans la perception et par là traite des différentes modalités
88
sensorielles humaines .Systèmes dynamiques et autoorganisation
Un système dynamique se conçoit 1) en termes de structure ou de
dispositif : volume V géométriquement défini et de dimension
macroscopique, masse m, éléments constitutifs, relations/interactions,
«frontière » (surface mathématique qui sépare du monde extérieur),
89stocks ; 2) en termes de fonction (flux, rétroaction, homéostasie, décision) .
Il est régi par les lois de la Thermodynamique. La masse et le volume sont
des propriétés extensives. La pression p et la température T sont des valeurs
bien définies en chaque point du système: ce sont des propriétés intensives.
Intervient ensuite une distinction entre le système ouvert (de type
biologique: un organisme vivant par exemple), le système ferm é et le
90système clos .
Un système clos ou système (absolument) isolé est un système qui
n'interagit pas avec son environnement. Il n’échange ni énergie, ni matière
avec l’extérieur et n’en reçoit pas. Obéissant à un certain nombre de lois de
conservation faisant que son énergie totale et sa masse restent constantes, il
ne peut échanger de chaleur, de travail, ou de matière avec l'environnement.
Le système ferm é ayant des échanges avec l’environnement permet à
l’énergie de pénétrer ses limites mais pas à la masse (matière).
Historiquement, via les domaines physiques et physico-chimiques, la
thermodynamique (en particulier la deuxième loi de la
91thermodynamique: l’entropie, la dissipation ) s’est surtout appliquée aux
systèmes fermés. Ceux-ci étant marqués par la conservation de leur masse et
surtout par la conservation de l’énergie (première loi de la
thermodynamique). Puis elle s’est étendue, à la lumière des développements
en physique et biologie survenus dans les années 1950, aux systèmes
ouverts. Extension élaborée par les travaux sur la «Thermodynamique des
phénomènes irréversibles» du physicien et chimiste belge d’origine russe
92 93Ilya Prigogine (1917-2003) . Recherches menées avec Jean-Marie Wiame
notamment en 1946, au moment où les scientifiques se concentrant sur la
notion d’équilibre accordent peu ou même pas d’attention aux phénomènes
irréversibles, alors considérés comme essentiellement transitoires et qui ont
aboutiaux résultats importants que l’on sait.
Les systèmes ouverts, interagissant en permanence avec l’environnement,
tendent à évoluer vers un équilibre (état stationnaire, steady state) : l'énergie
est répartie de manière homogène dans tout l'espace du système.Outre le fait
que les organismes et d’autres systèmes vivants soient des systèmes non pas
fermés, mais ouverts ce qui leur permet d'importer de l'énergie (dont
l'énergie calorifique) et de la masse à travers leurs «frontières »
(‘conversation’ avec l’environnement) pour assurer leur maintien en état de
vie, ceux-ci sont aussi caractérisés par une conservation de la masse. Mais
27