Cette publication est accessible gratuitement
Lire

Définition de : DÉTERMINISME, physique

De
5 pages
Article publié par Encyclopaedia Universalis DÉTERMINISME, physique La nature aléatoire de la théorie quantique On a ainsi pu pendant quelques décennies concilier le recours à une physique probabiliste et une représentation déterministe du monde. Mais l'avènement de la théorie quantique a amené un sérieux ébranlement des conceptions classiques. Il est apparu, lors de la mise au point du formalisme quantique, que l'on ne pouvait plus assigner aux objets quantiques des trajectoires décrites suivant des lois déterministes de type newtonien. Questionnés sur leur position ou leur vitesse, les quantons se refusaient à donner une réponse sans ambiguïté ; la mesure répétée de ces grandeurs dans des circonstances pourtant identiques ne fournit pas les mêmes valeurs numériques. On put cependant maîtriser ce flou essentiel en recourant à des notions probabilistes : considérées désormais comme des variables aléatoires et répondant aux lois de la théorie des probabilités, les grandeurs physiques propres aux objets quantiques se laissent domestiquer. Mais ce caractère aléatoire de la théorie quantique est-il consubstantiel au réel, ou bien n'était-il que la marque de notre ignorance provisoire ? La plupart des physiciens se résignèrent à la première position. Certains, toutefois, tentèrent de retrouver sous la théorie quantique probabiliste une description déterministe – à l'instar du rapport entre mécanique statistique et mécanique newtonienne.
Voir plus Voir moins

Vous aimerez aussi

DÉTERMINISME, physique

Les lois newtoniennes de la mécanique ont une caractéristique essentielle, qui a orienté la pensée scientifique pendant plus d'un siècle : elles sont déterministes. À partir de la connaissance de l'état du système considéré à un instant donné, elles fixent sans ambiguïté son évolution, permettant la prédiction de son devenir pour un futur illimité (et tout aussi bien d'ailleurs la rétrodiction de son passé). On ne peut éviter de relire ici l'expression canonique de ce déterminisme proposée par Pierre Simon de Laplace (1749-1827) : « Une intelligence qui pour un instant donné connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d'ailleurs elle était assez vaste pour soumettre ces données à l'analyse, embrasserait dans la même formule les mouvements des plus grands corps de l'Univers et ceux du plus léger atome : rien ne serait incertain pour elle, et l'avenir, comme le passé, serait présent à ses yeux. » Cette vision se heurte au fait que notre intelligence n'est pas celle, omnisciente, qu'imagine Laplace, d'où le conditionnel du texte qui traduit la résignation de l'auteur à une très large ignorance, et justifie le recours à la théorie des probabilités. Tel est d'ailleurs bien le propos de Laplace, puisque ce texte célèbre figure justement dans son Essai sur la théorie des probabilités dont la première édition date de 1814. La fin du xixe siècle donnera une excellente illustration de cette conception, avec la théorie cinétique des gaz, et plus généralement le développement de la mécanique statistique. L'acceptation de la constitution moléculaire de la matière permettait de se représenter un gaz comme un ensemble de petites particules suivant des trajectoires et subissant des collisions (entre elles aussi bien qu'avec les parois du récipient) rigoureusement régies par les inflexibles lois de Newton, et donc parfaitement déterminées et prévisibles. Mais le nombre gigantesque des molécules dans toute masse de gaz à notre échelle empêche de mener de tels calculs. D'où le recours à une théorisation statistique, dans laquelle on s'intéresse non au sort individuel de chaque molécule, mais à leur mouvement moyen. On en déduit ainsi le comportement le plus probable du système.

La nature aléatoire de la théorie quantique

On a ainsi pu pendant quelques décennies concilier le recours à une physique probabiliste et une représentation déterministe du monde. Mais l'avènement de la théorie quantique a amené un sérieux ébranlement des conceptions classiques. Il est apparu, lors de la mise au point du formalisme quantique, que l'on ne pouvait plus assigner aux objets quantiques des trajectoires décrites suivant des lois déterministes de type newtonien. Questionnés sur leur position ou leur vitesse, les quantons se refusaient à donner une réponse sans ambiguïté ; la mesure répétée de ces grandeurs dans des circonstances pourtant identiques ne fournit pas les mêmes valeurs numériques. On put cependant maîtriser ce flou essentiel en recourant à des notions probabilistes : considérées désormais comme des variables aléatoires et répondant aux lois de la théorie des probabilités, les grandeurs physiques propres aux objets quantiques se laissent domestiquer.

Mais ce caractère aléatoire de la théorie quantique est-il consubstantiel au réel, ou bien n'était-il que la marque de notre ignorance provisoire ? La plupart des physiciens se résignèrent à la première position. Certains, toutefois, tentèrent de retrouver sous la théorie quantique probabiliste une description déterministe – à l'instar du rapport entre mécanique statistique et mécanique newtonienne. Plusieurs schèmes ont été proposés, visant à remplacer la théorie quantique par des théories de type classique à « variables cachées » – des propriétés physiques néo-classiques dissimulées sous le niveau quantique. Cette stratégie a pour l'essentiel échoué, et les formalismes qui prétendent remplir ce programme se voient contraints d'attribuer aux objets physiques des propriétés plus étranges encore que celles, probabilistes, dont il s'agit de faire l'économie. On doit à John Bell, dans les années 1960, l'énoncé et la démonstration d'un théorème remarquable, montrant qu'une théorie néo-classique à variables cachées qui voudrait reproduire à l'identique les prédictions expérimentales de la théorie quantique devrait nécessairement incorporer des actions à distance non causales (c'est-à-dire avec propagation supra-luminique). Il est sans doute plus simple d'admettre la théorie quantique elle-même, que d'en revenir à une théorie classique affaiblie et altérée. Le déterminisme classique ne mérite sans doute pas d'être hypostasié au point de lui sacrifier d'autres notions, moins rassurantes peut-être, mais plus stimulantes. C'est donc maintenant le caractère déterministe de la mécanique classique qui apparaît comme secondaire et fondé en dernière analyse sur la nature aléatoire du monde quantique.

Mais la théorie quantique n'est pas si indéterministe qu'on veut bien le dire. Si l'on insiste pour caractériser à toute force l'état d'un système quantique sur le mode classique, même quand ce système ne relève pas de la mécanique newtonienne, alors on ne saurait s'étonner que le déterminisme propre à cette dernière connaisse quelques ratés. Si l'on prend au sérieux le formalisme quantique, il caractérise les objets matériels auxquels il s'applique par des êtres de raison nouveaux, appuyés sur des notions mathématiques bien différentes de celles de la mécanique classique. L'état d'un système est décrit par un vecteur dans un certain espace de Hilbert, qui évolue de façon parfaitement déterministe. C'est l'équation de Schrödinger, pierre angulaire de la théorie, qui régit la dépendance temporelle du vecteur d'état d'un système isolé. Comme l'équation de Newton de la mécanique classique, l'équation de Schrödinger fixe sans ambiguïté aucune l'état du système à un instant ultérieur (ou antérieur) à partir de la connaissance de son état actuel. La seule distinction – de taille, il est vrai – entre Newton et Schrödinger est qu'ils ne recourent pas aux mêmes notions pour caractériser les parcelles du réel qu'ils considèrent et énoncer leurs prédictions. Reste évidemment à comprendre la réputation probabiliste faite à la théorie quantique, et qui, comme la plupart des réputations, ne saurait être totalement infondée. Pourquoi, en d'autres termes, ne nous contentons-nous pas de l'évolution déterministe du vecteur d'état, et persistons-nous à poser à un électron des questions mal venues (pour lui), concernant sa position et sa vitesse, en insistant sur des réponses numériques qu'il ne peut nous fournir, nous obligeant pour contourner l'inadéquation de notre interrogatoire à utiliser un langage probabiliste ? C'est que nos concepts sont formés par notre expérience du domaine macroscopique où le caractère quantique des choses est masqué. Notre pensée n'habite pas d'emblée le monde quantique, et le questionne d'abord en des termes qui ne relèvent pas de la nature intrinsèque de ses objets. Le langage probabiliste est ainsi une sorte de sabir commode pour interpréter dans une certaine aire conceptuelle des projections venant d'une autre, radicalement étrangère. Ce n'est donc pas la théorie quantique en elle-même qui est probabiliste ; mais la nécessité de lui trouver une interface avec la théorie classique contraint à recourir à l'aléatoire. La situation, finalement, n'est pas fondamentalement différente de celle qui prévaut en mécanique statistique où la formalisation probabiliste a pour rôle de permettre l'articulation entre des niveaux conceptuels différents, en l'espèce celui de la mécanique microscopique des molécules et celui de la thermodynamique macroscopique.

Enfin, si la théorie quantique est finalement moins (ou autrement) indéterministe et probabiliste qu'on ne l'a dit longtemps, la mécanique classique est beaucoup moins déterministe qu'on ne l'a dit très longtemps. Son déterminisme ne vaut absolument que si la connaissance de l'état initial est parfaite, ce qui est évidemment impossible. Cependant, sur la base de l'expérience acquise avec les modèles mécaniques les plus simples, il semblait raisonnable de croire que l'incertitude sur le devenir futur d'un système restait comparable à celle de son état initial. C'est bien le cas pour un pendule ou un mobile en chute libre, tout au moins si les conditions extérieures sont considérées comme parfaitement stables. Mais, comme Poincaré et d'autres l'avaient déjà compris voici un siècle, ce n'est pas le cas général. Dès que l'on a affaire à des systèmes tant soit peu élaborés, l'incertitude sur l'état du système croît exponentiellement avec le temps, de façon que toute possibilité de prévision sur son comportement, même qualitative, disparaît rapidement. Cette « sensibilité aux conditions initiales » est désormais bien connue. La mécanique classique est donc à la fois déterministe et imprévisible. C'est ce que tente de traduire la terminologie de « chaos déterministe ».

Auteur: Jean-Marc LÉVY-LEBLOND
Un pour Un
Permettre à tous d'accéder à la lecture
Pour chaque accès à la bibliothèque, YouScribe donne un accès à une personne dans le besoin