17 pages
Français

Du bruit comme principe d'auto-organisation - article ; n°1 ; vol.18, pg 21-36

-

Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

Communications - Année 1972 - Volume 18 - Numéro 1 - Pages 21-36
16 pages
Source : Persée ; Ministère de la jeunesse, de l’éducation nationale et de la recherche, Direction de l’enseignement supérieur, Sous-direction des bibliothèques et de la documentation.

Sujets

Informations

Publié par
Publié le 01 janvier 1972
Nombre de lectures 25
Langue Français
Poids de l'ouvrage 1 Mo

Henri Atlan
Du bruit comme principe d'auto-organisation
In: Communications, 18, 1972. pp. 21-36.
Citer ce document / Cite this document :
Atlan Henri. Du bruit comme principe d'auto-organisation. In: Communications, 18, 1972. pp. 21-36.
doi : 10.3406/comm.1972.1256
http://www.persee.fr/web/revues/home/prescript/article/comm_0588-8018_1972_num_18_1_1256I. L'INTÉGRATION DE L'ÉVÉNEMENT :
L'ÉVÉNEMENT TRANSFORMATEUR
ET ORGANISATEUR
Henri Allan
Du bruit comme principe
d'auto-organisation 1
moi vers avec « ... au eux 40-41 parce hasard; au . hasard... qu'ils moi se » aussi Lévitique, sont je conduits me chap, conduirai xxvi, avec
« Je fais bouillir dans ma marmite tout
ce qui est hasard. Et ce n'est que lorsque
le hasard est cuit à point que je lui souhaite
la bienvenue pour en faire ma nourriture.
Et en vérité, maint hasard s'est approché
de moi en maître : mais ma volonté lui
parle d'une façon plus impérieuse encore,
— et aussitôt il se mettait à genoux devant
moi en suppliant — me suppliant de lui
donner asile et accueil cordial, et me par
lant d'une manière flatteuse : « Vois donc,
Zarathoustra, il n'y a qu'un ami pour venir
ainsi chez un ami! » F. Nietzsche, Ainsi
parlait Zarathoustra, III, 5-3.
Machines naturelles et artificielles
Depuis les origines de la cybernétique, qu'on s'accorde en général à reconnaître
dans l'œuvre de N. Wiener (1) en 1948, une sorte de néomécanicisme s'est pro
gressivement imposée en biologie, qui consiste à considérer les organismes vivants
comme des machines d'un type particulier, dites machines naturelles, par réfé
rence aux artificielles conçues et fabriquées par des hommes. Pourtant,
on aurait tort de considérer cette attitude comme une suite du mécanicisme du
1. Dans cet article, le bruit est pris avec son sens dérivé de l'étude des communicat
ions : il s'agit de tous phénomènes aléatoires parasites, qui perturbent la transmission
correcte des messages et qu'on cherche d'habitude à éliminer au maximum. Comme nous
le verrons, il est des cas où, malgré un paradoxe qui n'est qu'apparent, un rôle « béné
fique » peut lui être reconnu.
21 Henri Atlan
xixe siècle et du début du xxe. Tant par ses conséquences dans l'ordre des
connaissances biologiques que par ses implications méthodologiques, elle s'en
distingue fondamentalement, à cause de la nature même, radicalement nouvelle
de ces machines artificielles, références par rapport auxquelles sont observées et
analysées non seulement les similitudes mais aussi et surtout les différences.
Ces machines, bien que produites par des hommes, ne sont plus des systèmes
physiques simples et transparents, tels que les différences observées sur des orga
nismes sont trop grossières et évidentes pour enseigner quoi que ce soit. Comme
le disait W. R. Ashby (2) en 1962, « jusqu'à une époque récente nous n'avions pas
d'expérience de systèmes à complexité moyenne; il s'agissait de systèmes tels
que, soit la montre et le pendule, et nous trouvions leurs propriétés limitées et
évidentes, soit le chien et l'être humain et nous trouvions leurs propriétés si
riches et remarquables que nous les pensions surnaturelles. Ce n'est que dansles
quelques dernières années que nous avons été gratifiés avec les ordinateurs uni
versels de systèmes suffisamment riches pour être intéressants, et cependant
suffisamment simples pour être compréhensibles... L'ordinateur est un cadeau
du ciel... car il permet de jeter un pont sur l'énorme gouffre conceptuel qui sépare
le simple et compréhensible du complexe et intéressant ».
De plus, la science de ces machines artificielles elles-mêmes est loin d'être
close, de sorte que ce néomécanicisme ne consiste pas en un placage pur et
simple de schémas mécaniques sur des organismes vivants, mais plutôt en un
va et vient de cette science à la science biologique et vice-versa, avec interpéné
tration et fécondation réciproques, dont les conséquences se font sentir sur
l'évolution et les progrès des deux sciences. C'est parce que les modèles cyberné
tiques sont tirés d'une science elle-même en développement où de nouveaux
concepts sont encore à découvrir, que leur application à la biologie peut ne pas
aboutir à une réduction à un mécanicisme élémentaire du type de celui du siècle
dernier.
C'est pourquoi l'identification des écarts et différences par rapport au modèle
est alors tellement importante.
C'est ainsi, en particulier, que les concepts de système auto-organisateur,
et d'automate autoreproducteur, sont apparus comme autant de façons de dési
gner les organismes vivants sous la forme de machines cybernétiques à propriétés
particulières. Or, il est clair que les seuls systèmes auto-organisateurs et les seuls
automates autoreproducteurs connus jusqu'à présent sont les machines natur
elles que constituent les organismes vivants, dont justement on ne connaît
pas de façon précise la « logique ». Dans ces conditions, on peut s'interroger sur
l'utilité de cette terminologie qui consiste à remplacer le terme « organisme »
par celui de « système auto-organisateur » ou « automate autoreproducteur »,
sans qu'on sache pour autant comment ces performances sont réalisées.
En fait, cette utilité est certaine : lorsqu'on se sert de cette terminologie, on
veut dire implicitement que les performances les plus extraordinaires des orga
nismes vivants sont le résultat de principes cybernétiques particuliers qu'il s'agit
de découvrir et de préciser. En tant que principes particuliers, ils doivent rendre
compte du caractère propre aux organismes vivants que présentent ces perfor
mances. Mais en tant que principes cybernétiques, ils sont postulés en continuité
avec les autres domaines de la cybernétique, les mieux connus, ceux qui s'appl
iquent aux automates artificiels. Les conséquences de ce postulat sont doubles :
a) la spécificité des organismes vivants est rattachée à des principes d'organisa
tion plutôt qu'à des propriétés vitales irréductibles; b) ces une fois
22 Du bruit comme principe d'auto-organisation
découverts, rien ne devrait empêcher de les appliquer à des automates artificiels
dont les performances deviendraient alors égales à celles des organismes vivants.
C'est dans cette perspective que les recherches formelles sur la logique de sys
tèmes auto-organisateurs, qui sont à la fois hypothétiques, en ce sens que personne
n'en a jamais, réalisé, et pourtant bien réels, en ce sens que la nature en fournit
abondamment, ont présenté et peuvent encore présenter quelque intérêt.
La fiabilité des organismes
Avant même d'envisager les problèmes d'auto-organisation et d'autorepro-
duction, une des différences les plus importantes reconnues entre machines arti
ficielles et machines naturelles était l'aptitude de ces dernières à intégrer le bruit.
Depuis longtemps la fiabilité des organismes (3) était apparue comme une perfo
rmance sans commune mesure avec celle des ordinateurs. Une fiabilité comme celle
du cerveau, capable de fonctionner avec continuité alors que des cellules meurent
tous les jours sans être remplacées, avec des changements inopinés de débit
d'irrigation sanguine, des fluctuations de volume et de pression, sans parler
d'amputations de parties importantes qui ne perturbent que de façon très limitée
les performances de l'ensemble, n'a évidemment pas d'égale dans quelque auto
mate artificiel que ce soit. Ce fait avait déjà frappé J. Von Neumann (4, 5)
qui cherchait à améliorer la fiabilité des ordinateurs et qui ne pouvait concevoir
une telle différence de réaction aux facteurs d'agressions aléatoires de l'enviro
nnement constituant le « bruit », que comme une conséquence d'une différence
fondamentale dans la logique de l'organisation du système. Les organismes, dans
leur faculté d' « avaler » le bruit, ne pouvaient pas être conçus comme des machines
seulement un peu plus fiables que les machines artificielles connues, mais comme
des systèmes dont seuls des principes d'organisation qualitativement différent
pouvaient expliquer la fiabilité. D'où tout un champ de recherche, inauguré
par Von Neumann (4), et poursuivi par bien d'autres dont notamment Wino-
grad et Cowan (3, 6), dans le but de découvrir des principes de construction
d'automates dont la fiabilité serait plus grande que celle de leurs composants!
Ces recherches ont abouti à la définition de conditions nécessaires (et suffisantes)
pour la réalisation de tels automates. La plupart de ces conditions (redondance
des composants, redondance des fonctions, complexité des composants, déloca
lisation des fonctions) (6, 7), aboutissent à une espèce de compromis entre déte
rminisme et indéterminisme dans la construction de l'automate, comme si une
certaine quantité d'indétermination était nécessaire, à partir d'un certain degré
de complexité, pour permettre au système de s'adapter à un certain niveau de
bruit. Ceci n'est évidemment pas sans rappeler un résultat analogue obtenu dans
la théorie des jeux par le même Von Neumann (8).
Le principe d'ordre à partir de bruit
Un pas de plus dans cette direction était réalisé, lors de recherches formelles
sur la logique de systèmes auto-organisateurs, en attribuant aux organismes
la propriété non seulement de résister au bruit de façon efficace, mais encore de
l'utiliser jusqu'à le transformer en facteur d'organisation! H. Von Foerster (9)
le premier, à notre connaissance, a exprimé la nécessité d'un « principe d'ordre à
partir de bruit » pour rendre compte des propriétés les plus singulières des orga
nismes vivants en tant que systèmes auto-organisateurs, notamment de leur
23 Henri Allan
adaptabilité. Le « principe d'ordre à partir d'ordre », implicite dans les théories
thermodynamiques modernes de la matière vivante inaugurées par l'essai de
Schrôdinger (10) What is Life? en 1945, ne lui semblait pas suffisant. « Les sys
tèmes auto-organisateurs ne se nourrissent pas seulement d'ordre, ils trouvent
aussi du bruit à leur menu... Il n'est pas mauvais d'avoir du bruit dans le sys
tème. Si un système se fige dans un état particulier il est inadaptable, et cet état
final peut tout aussi bien être mauvais. Il sera incapable de s'ajuster à quelque
chose qui serait une situation inadéquate » (9).
Une série de travaux de W. R. Ashby (11, 2) conduisent dans la même direction
même si l'accent n'y est pas mis explicitement sur cette idée d'un rôle organi-
sationnel du bruit. Cet auteur a d'abord établi rigoureusement une loi des sys
tèmes de régulation, qu'il a appelée « loi de la variété indispensable (11) ». Cette
loi est importante pour la compréhension des conditions minimum de structure
nécessaires à la survie de tout système exposé à un environnement, source d'agres
sions et de perturbations aléatoires.
Soit un système exposé à un certain nombre de perturbations différentes
possibles. Il a à sa disposition un de réponses. Chaque succession
perturbation-réponse met le système dans un certain état. Parmi tous les états
possibles, seuls certains sont « acceptables » du point de vue de la finalité (au
moins apparente) du système, qui peut être sa simple survie ou l'accompliss
ement d'une fonction. La régulation consiste à choisir parmi les réponses possibles,
celles qui mettront le système dans un état acceptable. La loi de Ashby établit
une relation entre la variété * des perturbations, celle des réponses et celle des
états acceptables. La des réponses disponibles doit être d'autant plus
grande que celle des perturbations est grande et que celle des états acceptables est
petite. Autrement dit, une grande variété dans les réponses disponibles est
indispensable pour assurer une régulation d'un système visant à le maintenir
dans un nombre très limité d'états alors qu'il est soumis à une grande variété
d'agressions. Autrement dit, dans un environnement source d'agressions diverses
imprévisibles, une variété dans la structure et les fonctions du système est un
facteur indispensable d'autonomie.
Mais on sait, d'autre part, qu'une des méthodes efficaces pour lutter contre le
bruit, c'est-à-dire détecter et corriger des erreurs éventuelles dans la transmis
sion de messages, consiste au contraire à introduire une certaine redondance,
c'est-à-dire une répétition des symboles dans le message. On voit donc déjà
comment dans des systèmes complexes, le degré d'organisation ne pourra être
réduit ni à sa variété (ou à sa quantité d'information *), ni à sa redondance, mais
consistera en un compromis optimum entre ces deux propriétés opposées. Nous
reviendrons assez longuement sur ce point.
Le même auteur, étudiant par ailleurs (2) la signification logique du concept
d'auto-organisation, arrive à la conclusion de l'impossibilité d'une auto
organisation dans un système fermé, c'est-à-dire sans interaction avec son envi-
1. La variété est définie comme le nombre d'éléments différents d'un ensemble. La
quantité d'information, dont nous parlerons plus loin, lui est reliée en ce qu'elle consi
dère le logarithme de ce nombre et qu'elle pondère de plus chaque élément différent par
sa probabilité d'apparition dans un ensemble d'ensembles statistiquement homogènes
à celui qui est considéré. La quantité d'information définie par Shannon est une façon
plus élaborée et plus riche en applications d'exprimer la variété d'un message ou d'un
système telle que l'avait définie Ashby.
24 Du bruit comme principe d 'auto-organisation
ronnement. En effet, une machine peut être formellement définie de la façon la
plus générale possible par un ensemble E d'états internes et un ensemble I d'en
trées (inputs). Le fonctionnement de la machine est la façon dont les entrées et
les états internes à un instant donné déterminent les états internes à l'instant
suivant. Dans la terminologie de la théorie des ensembles, il peut donc être décrit
par une fonction /, qui est la projection de l'ensemble produit I X E sur E;
l'organisation fonctionnelle de la machine peut ainsi être identifiée par /. On par
lera d'auto-organisation au sens strict si la machine est capable de changer elle-
même la fonction /, sans aucune intervention de l'environnement, de telle sorte
qu'elle soit toujours mieux adaptée à ce qu'elle fait. Si c'était possible, cela vou
drait dire que / se change elle-même comme conséquence de E tout seul. Mais ceci
est absurde, car si on pouvait définir un tel changement de / comme conséquence
de E, ce changement lui-même ne serait qu'une partie d'une autre loi de projec
tion /'. Cela voudrait dire que l'organisation de la machine est régie par une autre
fonction /' qui, elle, serait constante. Pour avoir une projection / qui change
vraiment on doit définir une fonction £ (t) du temps qui détermine ces changements
à partir de l'extérieur de E.
Autrement dit, les seuls changements qui puissent concerner l'organisation
elle-même, — et ne pas être seulement des changements d'états du système qui
feraient partie d'une organisation constante, — doivent être produits d'en dehors
du système. Mais ceci est possible de deux façons différentes : ou bien un pr
ogramme précis, injecté dans le système par un programmeur, détermine les chan
gements successifs de /; ou bien ceux-ci sont déterminés encore de l'extérieur,
mais par des facteurs aléatoires dans lesquels aucune loi préfigurant une organi
sation ne peut être établie, aucun « pattern » permettant de discerner un programme.
C'est alors qu'on pourra parler d'auto-organisation, même si ce n'est pas au sens
strict.
Ceci est donc une autre façon de suggérer un principe d'ordre à partir de bruit
dans la logique de systèmes auto-organisateurs.
On peut en trouver encore d'autres, notamment dans l'analyse du rôle de
l'aléatoire dans l'organisation structurale (c'est-à-dire les connexions) de réseaux
neuronaux complexes qu'on doit en particulier à R. L. Beurle (13), et que le
même W. R. Ashby (12) a reprise plus tard.
Dans le cadre de travaux antérieurs (14, 15, 7) nous avons tenté de donner
au principe d'ordre à partir de bruit une formulation plus précise, à l'aide du
formalisme de la théorie de l'information, et nous nous proposons maintenant
d'en exposer succinctement les principales étapes.
Rappels sur la théorie de Vinformation appliquée à Vanalyse des systèmes
On sait qu'un des principaux théorèmes de cette théorie, due à C. E. Shannon
(16), établit que la quantité d'information d'un message transmis dans une voie
de communication perturbée par du bruit, ne peut que décroître d'une quantité
égale à l'ambiguïté introduite par ce bruit entre l'entrée et la sortie de la voie.
Des codes correcteurs d'erreurs, introduisant une certaine redondance dans le
message, peuvent diminuer cette ambiguïté de telle sorte qu'à la limite la quantité
d'information transmise sera égale à la quantité émise; mais en aucun cas elle
ne pourra être supérieure. Si, comme beaucoup d'auteurs l'ont proposé on utilise
la quantité d'information d'un système assimilé à un message transmis à un
observateur, comme une mesure de sa complexité ou de son degré d'organisa-
25 Henri Atlan
tion, ce théorème semble donc exclure toute possibilité d'un rôle positif, organi-
sationnel du bruit. Nous avons pu montrer qu'il n'en est rien (14, 15), précis
ément à cause des postulats implicites à l'aide desquels la théorie de l'information
est appliquée à l'analyse de systèmes organisés, alors que son champ d'applica
tion, sous sa forme primitive, semblait limité aux problèmes de transmission
de messages dans des voies de communications.
La quantité d'information totale d'un message est une grandeur qui mesure,
sur un grand nombre de messages écrits dans la même langue avec le même alpha
bet, la probabilité moyenne d'apparition des lettres ou symboles de l'alphabet,
multipliée par le nombre de lettres ou symboles du message. La quantité d'info
rmation moyenne par lettre est souvent désignée sous le nom de ou entropie du message, à cause de l'analogie entre la formule de Shannon,
qui l'exprime à partir des probabilités des lettres, et la de Boltzmann
qui exprime l'entropie d'un système physique à l'aide des probabilités des diffé
rents « états » dans lesquels le système peut se trouver. Cette analogie a été
l'objet de nombreux travaux et discussions, et elle est, entre autres, à l'origine
du débordement rapide de la théorie de l'information du cadre des problèmes
de communications dans le domaine de l'analyse de la complexité des systèmes.
La quantité d'information d'un système, composé de parties, est alors définie à
partir des probabilités que l'on peut affecter à chaque sorte de ses composants,
sur un ensemble de systèmes supposés statistiquement homogènes les uns aux
autres; ou encore à partir de l'ensemble des combinaisons qu'il est possible
de réaliser avec ses composants, qui constitue l'ensemble des états possibles du
système (17). Dans tous les cas, la quantité d'information d'un système mesure
le degré d'improbabilité que l'assemblage des différents composants soit le résultat
du hasard. Plus un système est composé d'un grand nombre d'éléments diffé
rents plus sa quantité d'information est grande car plus grande est l'improbab
ilité de le constituer tel qu'il est en assemblant au hasard ses constituants. C'est
pourquoi cette grandeur a pu être proposée comme une mesure de la complexité
d'un système, en ce qu'elle est une mesure du degré de variété des éléments qui le
constituent. Un théorème de la théorie dit que la quantité d'information en uni
tés « bit » d'un message écrit dans un alphabet quelconque représente le nombre
minimum moyen de symboles binaires par lettre de cet alphabet, nécessaires
pour traduire le message de son alphabet d'origine en langage binaire. Transposé
à l'analyse d'un système, ceci veut dire que plus la quantité d'information est
élevée, plus le nombre de symboles nécessaires pour le décrire dans un langage
binaire (ou autre) est élevé; d'où encore, l'idée qu'il s'agit là d'un moyen de mesur
er la complexité. Signalons tout de suite les réserves avec lesquelles il convient
de recevoir cette conclusion, en raison notamment du caractère statique et un
iquement structural de la complexité dont il s'agit, à l'exclusion d'une complexité
fonctionnelle et dynamique, liée non pas à l'assemblage des éléments d'un sys
tème mais aux interactions fonctionnelles entre ces éléments (18). Le problème
de la définition précise de la notion de complexité comme concept scientifique
fondamental (analogue à ceux d'énergie, d'entropie, etc.) reste donc encore posé.
Pourtant, ainsi que Von Neumann (19) le notait alors qu'il posait ce problème
et en soulignait l'importance, « ce concept appartient de toute évidence au
domaine de l'information ».
26 Du bruit comme principe d'auto-organisation
Ambiguïté-autonomie et ambiguïté destructrice
Quoi qu'il en soit, l'application de la théorie de l'information à l'analyse des
systèmes implique un glissement de la notion d'information transmise dans une
voie de communications à celle d'information contenue dans un système organisé.
Le formalisme de la théorie de l'information ne s'applique qu'à la première de ces
notions, et ce glissement, dont la légitimité a été contestée, ne peut se justifier
qu'en assimilant, au moins implicitement, la structure du système à un message
transmis dans une voie qui part du système et aboutit à l'observateur. Ceci
n'implique pas nécessairement l'introduction de caractères subjectifs ni de valeur,
qui sont par définition exclus du domaine de la théorie, si on considère cet
observateur comme le physicien idéal habituel, n'intervenant que par des opé
rations de mesure, mais intervenant quand même par ces opérations.
Dans ces conditions, il est possible de montrer que l'ambiguïté introduite
par des facteurs de bruit dans une voie de communications située à l'intérieur
d'un système a une signification différente (son signe algébrique est différent),
suivant qu'on envisage l'information transmise dans la voie elle-même ou la
quantité d'information contenue dans le système (où la voie est une parmi un
grand nombre de relations entre nombreux sous-systèmes). Ce n'est que dans le
premier cas, que l'ambiguïté est exprimée par une quantité d'information affectée
d'un signe moins, en accord avec le théorème de la voie avec bruit dont nous
avons parlé. Dans le deuxième cas au contraire, la quantité qu'elle
mesure n'a plus du tout la signification d'une information perdue mais au con
traire d'une augmentation de variété dans l'ensemble du système, ou, comme
on dit, diminution de redondance.
En effet, soit une voie de communications entre deux sous-systèmes A et B,
à l'intérieur d'un système S (fig. 1). Si la transmission de -A à B s'effectue sans
Figure 1.
aucune erreur (ambiguïté nulle), B est une copie exacte de A, et la quantité
d'information de l'ensemble A et B n'est égale qu'à celle de A. Si la transmission
s'effectue avec un nombre d'erreurs tel que l'ambiguïté devient égale à la quant
ité de A, celle-ci est totalement perdue lors de la transmission;
en fait, il n'y a plus du tout de transmission d'information de A à B. Ceci veut
dire que la structure de B est totalement indépendante de celle de A, de sorte
que la quantité d'information de l'ensemble A et B est égale à celle de A plus
celle de B. Pourtant, dans la mesure où l'existence même du système S dépend
de celle de voies de communications entre les sous-systèmes, une indépendance
totale entre ceux-ci signifie en fait une destruction de S en tant que système.
C'est pourquoi, du point de vue de la quantité d'information de ce système,
un optimum est réalisé lorsqu'il existe une transmission non nulle
entre A et B, mais avec une certaine quantité d'erreurs, produisant une ambiguïté
elle aussi non nulle.
27 Henri Allan
Dans ces conditions, alors que la quantité d'information transmise de A à B
est égale à celle de B diminuée de l'ambiguïté, la quantité d'information de
l'ensemble A et B est égale à celle de B augmentée de cette ambiguïté. En effet,
la grandeur qui mesure l'ambiguïté n'est pas autre chose que la quantité d'info
rmation de B en tant que B est indépendant de A : il est donc normal que cette
quantité soit considérée comme perdue du point de vue de la transmission de
A à B, et au contraire un supplément du point de vue de la quantité
d'information totale (c'est-à-dire de la variété) de l'ensemble du système.
On voit ainsi comment un rôle positif, « organisational » du bruit peut être
conçu dans le cadre de la théorie de l'information, sans contredire pour autant
le théorème de la voie avec bruit : en diminuant la transmission d'information
dans les voies de communications à l'intérieur du système, les facteurs de bruit
diminuent la redondance du système en général, et par là même augmentent sa
quantité d'information. Il est bien évident pourtant, que le fonctionnement du
système est lié à la transmission d'information dans les voies d'un sous-système
à un autre, et qu'à côté de ce rôle « positif » du bruit, facteur de complexification,
le rôle destructeur classique ne peut pas être ignoré.
Nous avons donc affaire à deux sortes d'effets de l'ambiguïté produite par le
bruit sur l'organisation générale d'un système, que nous avons appelées ambi
guïté-destructrice et ambiguïté-autonomie, la première devant être comptée
négativement, la deuxième positivement. Une condition nécessaire pour que les
deux coexistent nous semble être que le système soit ce que Von Neumann appelle
un « système extrêmement hautement compliqué (5) ». Même si le concept de
complexité ou complication n'est pas encore clairement et précisément défini,
l'idée vague et intuitive que nous en avons nous fait percevoir les automates
naturels comme des systèmes d'une complication extrême en ce que le nombre
de leurs composants peut être extrêmement élevé (10 milliards de neurones
pour un cerveau humain), et que les relations entre ces composants peuvent être
extrêmement entrelacées, chacun d'eux pouvant, en principe, être relié dire
ctement ou indirectement à tous les autres. Ce n'est que dans de tels systèmes
qu'un rôle positif du bruit, par l'intermédiaire d'une ambiguïté-autonomie,
peut coexister avec son rôle destructeur. En effet, si on considère un système
limité à une seule voie de communications entre A et B, l'autonomie de B par
rapport à A ne peut signifier qu'un mauvais fonctionnement du système et sa
destruction : dans ce cas une quantité d'information de B en tant que B est indé
pendant de A n'a aucune signification du point de vue du système, puisque celui-
ci se réduit à cette voie. Pour qu'elle ait quelque signification, il faut imaginer
A et B reliés non seulement l'un à l'autre par cette voie, mais chacun à un grand
nombre d'autres sous-systèmes par un grand nombre d'autres voies, de telle
sorte qu'une indépendance même totale de B par rapport à A ne se traduise pas
par une disparition du système. Celui-ci, du fait de ses nombreuses interconnexions,
et pourvu que sa redondance initiale soit suffisamment grande, sera encore capa
ble de fonctionner et sa quantité d'information totale aura augmenté. Cette
augmentation peut être alors utilisée pour la réalisation de performances plus
grandes, notamment en ce qui concerne les possibilités d'adaptation à des situa
tions nouvelles, grâce à une plus grande variété des réponses possibles à des
stimuli diversifiés et aléatoires de l'environnement1.
1. Voir plus haut, loi de la variété indispensable de Ashby.
28 Du bruit comme principe d'auto-organisation
En exprimant ces idées de façon plus quantitative que nous ne pouvons le
faire ici, nous avons pu montrer (14, 15) que, dans le cadre de certaines hypo
thèses simplificatrices, une condition suffisante pour que l'ambiguïté-autonomie
soit capable de surcompenser les effets de l'ambiguïté destructrice est l'existence
d'un changement d'alphabet avec une augmentation du nombre de lettres,
quand on passe d'un type de sous-système à un autre avec une voie de com
munication entre les deux. Ce résultat peut être compris comme une explication
possible du changement d'alphabet effectivement observé dans tous les orga
nismes vivants quand on passe des acides nucléiques, écrits un « langage »
à quatre symboles (les quatre bases azotées), aux protéines écrites dans le lan
gage à 20 des acides aminés.
AutO'Organisation par diminution de redondance (7)
De façon plus générale on peut concevoir l'évolution de systèmes organisés,
ou le phénomène d'auto-organisation, comme un processus d'augmentation de
complexité à la fois structurale et fonctionnelle résultant d'une succession de
désorganisations rattrapées suivies chaque fois de rétablissement à un niveau
de variété plus grande et de redondance plus faible. Ceci peut s'exprimer assez
simplement à l'aide de la définition précise de la redondance dans le cadre de la
théorie de l'information.
Si H représente la quantité d'information d'un message contenant un certain
degré de redondance R, et si Hmax représente la quantité d'information max
imum que contiendrait ce message si aucun de ses symboles n'était redondant,
la redondance R est définie comme :
II TT TT r> "-max "■ * "■ IT ■"• II "■ max "-max
de sorte que la quantité d'information H du message peut s'écrire :
TT TT IÂ __ p\
Nous définissons un processus d'organisation par une variation de H dans le
temps sous l'effet de facteurs aléatoires de l'environnement. Cette variation
est représentée par la quantité -77 = / (t). En différenciant l'équation précédente
on obtient une expression pour / (t) :
~=— H — -Ml — R) Straps /^v
dt dt dt
. dR Le taux de variation de quantité d'information -7- est ainsi la somme de deux
termes qui correspondent, schématiquement, aux deux effets opposés du bruit ou
aux deux sortes d'ambiguïté. Le premier terme exprime la variation de la redon
dance. Si celle-ci est initialement assez élevée, elle diminuera sous l'effet de
l'ambiguïté-autonomie, de sorte que —7- sera négatif et que le premier terme
I — Rmax~~fr) sera positif, contribuant ainsi à un accroissement de la quantité
d'information H du système. Le deuxième terme exprime la variation de Hmax,
c'est-à-dire à chaque instant la déviation par rapport à l'état de complexité
29