//img.uscri.be/pth/6fd3bffe0585ec835478ab750e724202d9ad2b05
Cette publication ne fait pas partie de la bibliothèque YouScribe
Elle est disponible uniquement à l'achat (la librairie de YouScribe)
Achetez pour : 10,99 € Lire un extrait

Téléchargement

Format(s) : EPUB

avec DRM

Chaos et déterminisme

De

Sous la direction d'A. Dahan Dalmedico, J.-L. Chabert, K. Chemla.





Il est peu de domaines scientifiques qui n'aient succombé à la mode du chaos. De la biologie à la physique et à la cosmologie, les exemples sont multiples de systèmes dynamiques régis par des lois simples et déterministes - mais dont le comportement, dans certaines conditions, devient totalement imprédictible.





Ce paradoxe apparent, signalé dès la fin du XIXe siècle par Henri Poincaré, fixe à la fois des limites au calcul et ouvre la voie à l'analyse du désordre, du hasard et de la complexité.





Loin des exégèses spectaculaires et des spéculations superficielles, ce livre tente, en donnant la parole aux meilleurs spécialistes du domaine, de remonter aux racines du chaos déterministe. Grâce à une approche physique et mathématique, mais aussi historique et philosophique, il éclaire de manière originale un concept clé de la science contemporaine.


Voir plus Voir moins
couverture

Introduction


Chaos, indéterminisme, hasard, désordre, liberté… Un flot de publications et de discussions a envahi depuis quelques années librairies, ondes et écrans : les derniers acquis scientifiques auraient-ils radicalement modifié la nature de ces questions ? Constatant la passion qui anime souvent ces réflexions, les déformations qu’y subissent parfois les concepts ou les résultats, il ne nous a pas semblé inutile de mettre en circulation un livre de plus sur le sujet. L’enjeu n’est certes pas de clore les débats ; au contraire, nous avons voulu fournir un outil qui permette de mieux y participer. Le lecteur trouvera, dans les deux premières parties de l’ouvrage, une présentation critique des travaux mathématiques et physiques en cause, tandis que la troisième partie vise à les replacer dans un contexte historique ou à en dégager la pertinence pour des questions philosophiques.

La diversité des compétences qu’il nous a paru nécessaire de conjuguer pour traiter de façon cohérente ce sujet nous a amenés à choisir la forme d’un recueil d’articles. Le lecteur pourra à sa guise consulter l’ensemble ou l’un quelconque de ces textes, puisque chacun constitue aussi un tout autonome.

L’article d’Adrien Douady qui ouvre le recueil pose, à l’aide d’un exemple mathématique élémentaire, le problème dans toute son ampleur : il est des systèmes dynamiques qui, pour avoir des avenirs parfaitement déterminés, n’en sont pas moins imprédictibles. En d’autres termes, il suffit d’une légère imprécision sur leur état pour que leur comportement échappe à la prédiction. C’est la désormais célèbre « sensibilité aux conditions initiales ». Bien plus, l’observation d’une trajectoire sur un temps donné ne permet pas de dire si celle-ci résulte d’une dynamique déterministe ou d’un processus aléatoire.

Est-ce que pour autant on ne peut rien dire ? Ce livre montre comment, tant en mathématiques qu’en physique, de tels systèmes sont apparus sur les pages ou les écrans d’ordinateurs des uns, dans les expériences des autres, et comment de nouveaux modes de description permettent de les appréhender.

A l’heure actuelle, on distingue, en mathématiques, deux manières d’aborder ces phénomènes. L’approche topologique, décrite par Jean-Christophe Yoccoz, tente de dégager les comportements dynamiques élémentaires, qui sont significatifs en ce sens qu’ils rendent compte de presque tous les systèmes possibles. L’approche ergodique, présentée par Pierre Arnoux et Karine Chemla, met à profit l’outil probabiliste pour élaborer des critères de description. Lorsque ces deux approches s’appliquent aux mêmes systèmes, elles peuvent fournir des informations différentes et s’avèrent donc complémentaires.

Si les probabilités ont prise sur l’étude de certains systèmes dynamiques, est-ce à dire que ceux-ci seraient nécessairement aléatoires ? Yakov Sinaï argumente la thèse selon laquelle c’est dans le caractère instable manifesté par des systèmes déterministes qu’il faut trouver la raison de l’efficacité des instruments probabilistes. Il analyse ce lien entre instabilité et statistique, et présente plusieurs exemples physiques1. Ces systèmes échappant aux descriptions classiques en termes de trajectoires, Jean-Pierre Eckmann introduit, de manière critique, les concepts et les méthodes qui ont été élaborés pour les remplacer. Pierre Bergé et Monique Dubois montrent comment ce sont ces méthodes mêmes qui médiatisent la mise en évidence expérimentale de semblables phénomènes.

Deux domaines de la physique, la mécanique céleste et la turbulence, ont historiquement entretenu des rapports privilégiés avec l’émergence d’une théorie des systèmes dynamiques. En décrivant l’histoire du problème de la stabilité du système solaire, de Laplace à nos jours, Jacques Laskar souligne la modification progressive dans la manière de le poser, jusqu’à l’établissement de son caractère chaotique. Marie Farge, quant à elle, analyse la description classique du phénomène de la turbulence développée, en termes statistiques, et explore les nouvelles voies, plus géométriques, qui pourraient être mises à l’œuvre. Dans le traitement de tous ces cas, on notera le rôle prépondérant joué par les possibilités de calculs numériques ou de visualisations graphiques, désormais disponibles grâce aux ordinateurs.

 

Mais revenons sur nos pas. Dès qu’un domaine scientifique se constitue, la question se pose d’en comprendre la genèse. Des résultats, qui jusqu’alors relevaient de l’histoire de disciplines différentes, sont relus comme les signes avant-coureurs de l’émergence de nouveaux concepts et apparaissent sous un nouveau jour qui révèle leur affinité. Il en va ainsi aujourd’hui de la théorie des systèmes dynamiques. La branche de l’histoire des sciences qui les prend pour objet est en cours de constitution, et nous en présentons ici non pas un récit abouti mais quelques jalons. Le lecteur pourra ainsi suivre l’élaboration des idées fondamentales qu’il aura rencontrées tout au long des deux premières parties de cet ouvrage dans les travaux de deux précurseurs : Henri Poincaré et Jacques Hadamard. Les articles que Jean-Luc Chabert et Amy Dahan leur consacrent permettent, en suivant la genèse des concepts, de les appréhender plus aisément. Pour des époques plus modernes, il nous a paru regrettable que l’historiographie contemporaine accorde l’essentiel de son attention aux travaux américains, en méconnaissant le rôle essentiel joué par les travaux soviétiques. L’article de Simon Diner devrait combler cette lacune, en soulignant ce qui fait l’originalité de l’école russe. Encadrant ces chapitres historiques, deux contributions examinent ce qu’il en est des rencontres, hier et aujourd’hui, entre les développements scientifiques et la problématique du déterminisme. Giorgio Israël étudie divers moments de l’histoire des sciences où de nouveaux acquis ont semblé ébranler le principe du déterminisme : on reconnaîtra dans ces discussions des arguments analogues à ceux qui s’échangent aujourd’hui. Laplace exposait hier une conception de la science que l’on a associée au « dogme » du déterminisme. Amy Dahan, après en avoir précisé la teneur, reprend les divers résultats du livre et montre les aménagements qu’il convient d’apporter à l’idée de déterminisme, qui conserve une place prééminente parmi les principes moteurs de la science.

Telle est la conception d’ensemble qui a présidé à la constitution de ce livre. Deux colloques, l’un organisé à Paris dans le cadre de l’Association Henri Poincaré en octobre 1990, l’autre à Caen dans le cadre du congrès de la Société française de physique, en septembre 1991, ont été l’occasion de soumettre à la discussion plusieurs des articles publiés ici. Espérons que, pour connaître la fixité de l’écrit, ils n’en resteront pas moins matière vivante dans les débats.

A. D. D., J.-L. C., K. C.


1.

Nous remercions ici la Fondation Louis de Broglie de nous avoir aimablement autorisés à reproduire la traduction de cet article, parue dans ses Annales.

I

APPROCHES MATHÉMATIQUES



1

Déterminisme et indéterminisme dans un modèle mathématique1


Adrien Douady

Le problème du déterminisme peut s’énoncer ainsi : l’état d’un système à un instant donné t détermine-t-il son état à tout instant t’ ultérieur ? Cette question est en fait théorique. Si on entend par là, « est-il effectivement possible de calculer l’état d’un système ou de faire des prévisions à partir de l’état présent ? », la réponse est clairement non, ne serait-ce qu’en raison des instabilités qui amplifient les erreurs inévitables.

Même dans les situations les plus communes, les instabilités jouent un rôle prépondérant. Un système dans un état instable possède un temps caractéristique, c’est le temps au bout duquel de petites variations de l’état initial autour de l’état donné peuvent être amplifiées par un facteur de e = 2,718… Pour une épingle posée sur la pointe d’une surface très dure (donc en éliminant l’effet d’écrasement « œuf de Christophe Colomb »), ce temps caractéristique est inférieur à un dixième de seconde. Ceci implique qu’il est impossible, même avec une technologie très sophistiquée, de positionner l’épingle de façon que, lâchée, elle tienne plus que 4 secondes. En effet, en moins de 4 secondes, les fluctuations intervenant à l’échelle atomique (et le principe d’incertitude de Heisenberg exclut que l’on puisse contrôler ces fluctuations) sont amplifiées à un tel point qu’elles rompent l’équilibre de façon observable à l’échelon macroscopique.

Le problème du déterminisme ne se pose donc vraiment que dans le modèle. Faut-il donner d’un système physique un modèle régi par des équations différentielles déterministes, ou un modèle probabiliste, comme on le fait souvent en mécanique quantique ? Une découverte mathématique récente est qu’une même réalité peut admettre, avec une grande précision, à la fois des modèles déterministes et des modèles indéterministes. C’est ce qu’exprime le lemme de poursuite que nous allons expliquer ci-dessous.

Le lemme de poursuite s’applique aux situations dites expansives ou hyperboliques. Le modèle expansif le plus simple est celui du doublement des angles que nous allons décrire en détail. Il s’agit d’un modèle à temps discret, dont l’ensemble des états est représenté par un cercle. Un état peut donc être repéré par un nombre x compris entre 0 et 1, les deux valeurs extrêmes 0 et 1 correspondant au même état (on prend pour unité d’angle le tour complet). La loi d’évolution consiste à doubler l’angle :

 

x(t + 1) = 2x(t) modulo 1,

soitx(t + 1) = 2 x(t) si 0 < x(t) ≤ 1/2

(voir figure 1a)

et2 x(t) – 1 si 1/2 < x(t) ≤ 1

(voir figure 1b).

Figure 1a

Figure 1b

Les erreurs sont doublées à chaque pas de temps (voir figure 2). Pour pouvoir faire une prévision même grossière (à 1/2 près) à dix coups, il faut connaître la position initiale à moins de 1/1 000 près : en dix coups, une erreur de 1/1 000 est amplifiée jusqu’à couvrir tout le domaine considéré. Pour faire des prévisions à cinquante coups, il faudrait connaître la position initiale à 10-15 près, ce que pratiquement aucune expérience physique ne permet.

Figure 2

Ce modèle décrit donc un système déterministe, mais qui ne permet pas, en pratique, de prévision à long terme. On peut pousser plus loin l’étude de ce système. Une bonne approche est de représenter x(t) par son développement dyadique (de base 2) : le doublement modulo 1 revient alors à supprimer le premier chiffre après la virgule et à décaler tous les autres d’un cran vers la gauche. A long terme, cela fait remonter vers la région observable les informations enfouies dans les décimales lointaines de la position initiale. Chaque position initiale x0 détermine une orbite, qui est l’ensemble des x(t) = 2tx0 pour des valeurs entières de t, puisque le système est discret.

Pour « presque » toute valeur de x0 (au sens de la théorie de l’intégration), cette orbite est dense, et même « uniformément répartie » : la proportion des x(t), pour t compris entre 0 et n, appartenant à un intervalle J, tend vers la longueur de J lorsque n tend vers l’infini. Ce n’est pas le cas pour toutes les positions initiales : les valeurs rationnelles de x, par exemple, donnent une orbite finie. En fait, les valeurs rationnelles à dénominateur impair donnent des points périodiques, et les rationnels à dénominateur pair donnent des points pré-périodiques, qui tombent au bout d’un certain temps sur un cycle qui ne contient pas la position initiale. Il existe aussi des positions initiales pour lesquelles l’orbite est dense dans un ensemble de Cantor.

Considérons maintenant le même système, mais auquel on a fait subir une perturbation aléatoire infime : x(t + 1) = 2x(t) + ε(t) modulo 1, où ε(t) est tiré à chaque fois au hasard dans un intervalle [– 10– 15, 10– 15]. Ce bruit est une perturbation indécelable, et pourtant le système est devenu totalement indéterministe : en effet, à chaque pas de temps, l’incertitude augmente et, en une cinquantaine de coups, elle remplit tout l’espace.

Dans cette situation, le lemme de poursuite est élémentaire. Il s’énonce de la façon suivante : soit M le modèle initial non perturbé (déterministe) et M’le modèle perturbé (non déterministe). « A chaque trajectoire y(t) du modèle modifié M’, tparcourant toujours l’ensemble des entiers positifs, correspond une position initiale x0 dont la trajectoire x(t) dans M suit à 10– 15 près la trajectoire donnée y(t). »

Autrement dit, si on ne peut pas déceler des erreurs de l’ordre de 10– 15, l’observation des trajectoires ne permet pas de différencier un système régi par un modèle déterministe d’un système non déterministe.

Dans un cas comme dans l’autre, on n’est pas capable de faire des prévisions à long terme. Dans le cas indéterministe, cette impossibilité est inscrite dans le modèle ; dans le cas déterministe, elle résulte de l’impossibilité pratique d’obtenir les informations nécessaires à la prévision (on peut, bien sûr, tricher, attendre que le système, en évoluant, les révèle au niveau macroscopique mais, alors, on ne peut plus parler de prévision).

Générateurs de nombres aléatoires

La réalisation de programmes construisant des suites de nombres « au hasard » présente une ambiguïté tout à fait analogue. A priori, on pourrait penser fabriquer un générateur de bits aléatoires à partir du système :

 

x(t – 1) = 2 x(t) modulo 1.

 

En effet, si on entre un nombre x(0) au hasard, la suite engendrée sera aléatoire. Malheureusement, entrer un nombre au hasard n’a aucun sens : un nombre réel comporte une quantité infinie d’informations. Un nombre effectivement entré dans un ordinateur sera représenté avec un certain nombre fini n de bits, qui en sont les chiffres en base 2, et, si on le double plus de n fois, on trouvera des chiffres qui n’ont pas été entrés, et qui seront en pratique tous nuls.

Il y a une astuce qui permet de tourner cette difficulté, et de faire un générateur de nombres aléatoires très simple et cependant très efficace : l’observation, non de x, mais de u = cos 2 π x. La règle :

 

cos 2x = 2 cos2x – 1

 

implique alors que :

 

u(t + 1) = 2(u(t))2 – 1.

 

Prenons donc un nombre au hasard, par exemple u(0) = 0,147 852 369, et considérons la suite des signes des u(t), t = 1, 2, 3… Il s’avère que la suite de signes obtenus ne semble posséder aucune propriété statistique particulière. Cela est bien étrange : nous observons le même système qu’auparavant, et les résultats s’en écartent de façon essentielle. En outre, nous n’avons introduit dans la machine qu’une quantité finie, et même bien limitée, d’informations, disons 50 bits.

Lorsque nous étudiions x(t + 1) = 2 x(t) mod 1, la machine nous rendait exactement ce qu’elle avait reçu, ce qui est très moral. Cette fois, la machine nous en rend bien plus, et semble être prête à nous en rendre une infinité. Où va-t-elle les chercher ?

Ce phénomène s’explique de la façon suivante : la fonction arc cos transforme un nombre décimal à peu de chiffres en un nombre dont les décimales (ou les chiffres du développement en base 2) apparaissent comme aléatoires, et le procédé ci-dessus est une façon de calculer ces chiffres. Les erreurs d’arrondis qui interviennent modifient le générateur de nombres aléatoires, mais ne semblent pas en affecter les propriétés statistiques.

Une interprétation du lemme de poursuite

Le lemme de poursuite dit donc que les trois générateurs de bits suivants sont indistinguables :

 

  1. 1.le système où on observe les signes des u(t) engendrés par u(t + 1) = 2 (u(t))2 – 1, opérant en arithmétique exacte, avec u(0) donne autant de décimales que d’observations ;

  1. 2.le système où u(t) est engendré par la même loi, mais opérant sur des réels de précision finie, avec des règles d’arrondi ;

  2. 3.le système où u(t) est engendré comme dans (1), avec un bruit non déterministe d’ordre 10– 16 superposé.

 

Suivant le point de vue adopté, il y a plusieurs manières psychologiquement distinctes d’aborder ce système. On peut s’imaginer que l’on découvre de façon de plus en plus précise le nombre u(0), ou on peut essayer de préciser les règles d’arrondi menant à la suite observée, ou encore essayer de découvrir les lois statistiques du bruit.

Comme les données sont compatibles avec les trois manières de penser, aucune d’entre elles n’est plus juste qu’une autre.

Les conclusions décrites plus haut s’appliquent à toute une classe de systèmes dynamiques : les systèmes chaotiques au sens technique de ce terme. Une définition mathématique précise est donnée dans l’encadré p. 17 ; disons ici simplement que les conditions décrites sont faites pour assurer que les petites variations dans l’état initial sont amplifiées. D’ailleurs, les conditions techniques requises ne sont sûrement pas optimales : il existe des systèmes, l’attracteur de Lorenz par exemple, auxquels le lemme de poursuite semble s’appliquer, mais qui ne satisfont pas aux conditions en question.

Une définition mathématique des systèmes chaotiques

L’ensemble des états d’un système est représenté dans un espace X, dit espace des phases. Restreignons-nous, pour simplifier, à des modèles à temps discret. La loi d’évolution d’un système déterministe est définie par une application F de X dans X, qui décrit l’évolution du système par unité de temps : si le système est représenté par le point x0 au temps t = 0, il sera représenté au temps t, pour t entier, par le point xt = Ft(x0) = F(F… F(F(x0))) où la composée est effectuée t fois.

Dégageons quelques propriétés qui peuvent avoir lieu pour la famille (Ft), et qui ont effectivement lieu dans le cas du doublement des angles.

La première est la sensibilité aux conditions initiales. On dit que le système possède cette propriété sur une partie K de X si, à partir de toute position initiale dans K, des fluctuations arbitrairement petites finissent par créer des divergences macroscopiques. En langage mathématique, cette condition s’exprime de la façon (plus précise) suivante :

Il existe un nombre M (distance macroscopique) tel que, pour toute condition initiale x0 de K et pour tout e > 0, il existe une position initiale x’0 différant de x0 de moins de e, et un temps t tels que les points Ft(x0) et Ft(x’0) soient à une distance supérieure à M.

Pour définir le chaos, on prend habituellement les trois propriétés suivantes.

Soit K une partie de X, invariante par (Ft) pour t > 0. On dit que F est chaotique sur K si les trois conditions suivantes sont réalisées :

  1. 1.il y a sensibilité aux conditions initiales ;

  2. 2.il existe une orbite dense ;

  3. 3.les points périodiques sont denses.

Comme on l’a vu, ces trois propriétés sont satisfaites dans le cas du doublement des angles, qui est donc un exemple paradigmatique de situation chaotique.

On rejoint ainsi la différence entre le point de vue de Heisenberg et celui de Schrödinger : l’un considère que le monde est statique et que c’est l’observation qu’on en fait qui évolue ; l’autre, que le monde lui-même change dans le temps. On pourrait dire que l’attitude (1) est inspirée de Heisenberg, et l’attitude (3) de Schrödinger.

On sait depuis longtemps qu’en mécanique quantique ces attitudes sont équivalentes : elles prédisent exactement les mêmes résultats pour toute expérience. Nous retrouvons cette conclusion dans les systèmes chaotiques : le lemme de poursuite dit que quand on prend une décision on peut supposer, avec Schrödinger, que l’on affecte le déroulement de l’histoire, ou, avec Heisenberg, que l’on apprend quelque chose de plus sur l’état de l’Univers au moment du big bang.

Si déterministe qu’on soit, il n’y a aucune autre manière de découvrir l’information en question. Pourquoi ne pas dire qu’on décide, chaque fois qu’on décide quelque chose, l’état de l’Univers au moment du big bang ?


1.

Une première version de cet article, rédigée par A. Douady et J. Hubbard, eSt parue dans Universalia, 1990.

2

Idées géométriques en systèmes dynamiques


Jean-Christophe Yoccoz

La description d’un système dynamique nécessite l’élaboration de concepts appropriés ; nous présentons ici quelques-uns d’entre eux, pertinents dans le contexte géométrique. Cependant une approche particulière, visant un système donné, doit se conjuguer avec une approche plus globale. En effet si l’étude des cas particuliers est importante, elle doit céder le pas à la mise en évidence de phénomènes qui permettent de rendre compte du plus grand nombre possible de dynamiques. Pour remplir cet objectif, il faut partir de l’ensemble des systèmes, et s’efforcer d’y repérer les comportements significatifs, à l’œuvre dans des classes entières. Or, il est possible de cerner cet aspect de manière mathématique. Nous discuterons donc cette notion de « représentativité » avant de décrire quelques systèmes simples possédant des propriétés « significatives ».