Rappels de mécanique statistique

Rappels de mécanique statistique

-

Documents
6 pages
Lire
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

1. Rappels de mécanique statistique

1.1 Etats et observables

La physique moderne associe à tout système physique deux types d’objets différents : les
observables qui caractérisent les quantités physiques mesurables et les états, dont la
connaissance permet de prédire les résultats des expériences. Du point de vue
microscopique, chaque réalisation d’un système avec N degrés de liberté est caractérisé par un
état pur ou micro-état i.e. une fonction d’onde Ψ en mécanique quantique ou un point dans
l’espace de phase à 2N dimensions s = (q ,…,q ;p p ) en mécanique classique, où q et p 1 N 1,…, N i i
sont les positions et les impulsions de chaque degré de liberté.
Si le système est suffisamment complexe, l’état exact est en général impossible à définir et
(n) chaque réalisation correspond à un micro-état (n) avec une probabilité p . Dans ce cas, il est
plus adapté de parler d’états de mélange (ou macro-états) décrits par la densité

r r r(n) (n) (n) (n) (n)ˆ ˆD = ψ p ψ ou D(s) = p δ (s − s ) ∑ ∑
n n

Les observables sont des opérateurs définis sur l’espace d’Hilbert ou classiquement des
fonctions réelles de 2N variables réelles. L’information qui peut être associée au système est
l’ensemble des moyennes des observables A , i.e. l’ensemble des observations l
(n) (n) (n)=Σ p A où A est le résultat de la mesure sur la réalisation (n). Dans le cas l n l l
quantique

(n) (n) (n)ˆ ˆ ˆ ˆA = p ψ A ψ = Tr(DA ) l ∑ l l
n

Si l’information est complète à ...

Sujets

Informations

Publié par
Nombre de visites sur la page 70
Langue Français
Signaler un problème
1. Rappels de mécanique statistique
1.1 Etats et observables La physique moderne associe à tout système physique deux types dobjets différents : les observablesqui caractérisent les quantités physiques mesurables et lesétats, dont la connaissance permet de prédire les résultats des expériences. Du point de vue microscopique, chaque réalisation dun système avecNdegrés de liberté est caractérisé par un état pur oumicro-étati.e. une fonction dondeΨen mécanique quantique ou un point dans lespace de phase à2Nemsnidoisns= (q1,,qN;p1,,pN)en mécanique classique, où qiet pisont les positions et les impulsions de chaque degré de liberté. Si le système est suffisamment complexe, létat exact est en général impossible à définir et chaque réalisation correspond à un micro-état(n)avec une probabilitép(n).Dans ce cas, il est plus adapté de parler détats de mélange (oumacro-états) décrits par la densité D=ψ(n)p(n)ψ(n)ou D(sr)=p(n)δsrsr(n)n n Lesobservablessont des opérateurs définis sur lespace dHilbert ou classiquement des fonctions réelles de2Nvariables réelles. Lroamifnontiqui peut être associée au système est lensemble des moyennes des observablesAl, i.e. lensemble des observations <Al>=Σnp(n)Al(n)Al(n)est le résultat de la mesure sur la réalisation(n). Dans le cas quantique Al=p(n)ψ(n)Alψ(n)=Tr D Aln Si linformation est complète à linstant initial, ceci reste vrai à tous les temps car lévolution dynamique des états est gouvernée par léquation déterministe de Liouville Von Neumann D/t= {H,D}Hest lhamiltonian du système et{,}est le commutateur divisé par ien mécanique quantique, et se réduit à lhabituelle parenthèse de Poisson à la limite classique. Toutefois dans le cas de systèmes complexes, les conditions initiales en général ne sont pas connues de façon complète et une solution exacte de léquation de Liouville Von Neumann est hors de portée. En général, à cause de la complexité de lopérateur densité, pour connaître létat du système (i.e. la totalité desp(n)suffisant de connaître à chaque instant un) il est nombre limité dobservables pertinentes.
1.2 Entropie statistique Considérons une expérience qui peut conduire àNrésultats différents, chacun associé à une probabilité doccurrencep(i), i=1,,N, à priori inconnue. Si lesNrésultats possibles sont groupés en m familles chacune comprenant n résultats,N=m n, la prévision du résultat de lexpérience peut être divisée en deux étapes successives : dabord déterminer à quelle famille parmi les m possibles le résultat appartient, et en suite établir le résultat parmi lesnéléments de la famille choisie.
1
Le manque dinformation sexprime à travers lentropie statistique S.Enumérons quelques unes de ses propriétés fondamentales : 1.le manque dinformation doit grandir avec le nombre de résultats possibles S(N1)>S(N2)N1>N2(monicitoé)t.on 2.linformation ne peut pas dépendre du nombre détapes à travers lesquelles elle est obtenue,S(N)=S(m n)=S(m)+S(n) (extensivité). Il est facile de montrer que lensemble de ces propriétés peut être satisfait à moins dune constante par de Shannonl entropieS= −p(n)lnp(n)= −Tr DnlD1)(n Exercice: démontrer que le fonctionnel de Shannon eq.(1) est lexpression qui, à moins dune constante, satisfait les conditions de monotonicité et extensivité de lentropie statistique. Considérer dabord le cas dévénements équiprobables p(i)=1/Ni. Pour le cas général considérer que, si lon dispose d nombre élevé K dexpériences identiques, les probabilités un peuvent sécrire p(i)=ni/K où ninombre dexpériences dans lequel le système sereprésente le trouvait dans le micro-état (i). Il peut être intéressant de savoir que, si la propriété dextensivité de linformation est abandonnée, il est possible de construire une extension de la théorie de Shannon (entropie de Renyi, entropie de Tsallisle concept de q-statistique, qui a des applications) basée sur intéressantes dans des situations hors équilibre comme dans le cas de la turbulence. Dans ce qui suit nous nous limiterons toutefois à lentropie de Shannon définie plus haut.
1.3 Le postulat fondamental de la physique statistique Une fois que linformation manquante est définie à laide de léquation (1), le postulat fondamental de la mécanique statistique peut être exprimé de la façon suivante : La distribution statistique des micro-états (communément appelée équilibre) est celle qui maximise lentropie statistique sous contrainte de linformation pertinente imposée au système. En effet toute autre distribution introduirait une source ultérieure dinformation, en contradiction avec laffirmation que toute linformation disponible est donnée par les contraintes. Il est important de noter que ce postulat, bien que intuitif et élégant, nimplique pas nécessairement que la théorie ait un quelconque pouvoir prédictif : le fait que nous possédons une quantité limitée dinformation sur le système nimplique pas que linformation contenue dans le système soit objectivement limitée. Dans la suite nous garderons en tous les cas le postulat fondamental comme la seule hypothèse de travail raisonnable dans un système complexe.Le postulat fondamental de la mécanique statistique permet de déterminer les valeurs déquilibre des probabilités des micro-étatsp(i). Ceci se fait aisément avec la méthode des multiplicateurs de Lagrange.
2
1.4 Equations détat et transformations de Legendre Utilisons la méthode des multiplicateurs de Lagrange pour maximiser lentropie statistique eq.(1) sous la contrainte dun ensemble donné dobservations<Al>. Cette situation correspond auxlcrtnotniaseTrDAl=<Al>plus la contrainte de la normalisation de la probabilitéTrD=1qui peut être introduite comme une observable supplémentaireA0=1. En suivant la méthode des multiplicateurs de Lagrange, nous pouvons définir la fonction auxiliaireYL     Y= −Tr DlnDλlTr DAll=0 Lextremum correspond àδY=0, sans restriction sur la variationδDde la matrice densité, ce qui conduit à la conditionlnD+1+ΣlλlAl= 0. La solution est la matrice densité à léquilibre fonction des multiplicateurs de Lagrangeλl D0=1ZexplL=λlAl (2) 1 où la condition de normalisation est prise en compte par la définition de la fonction de partition Z=Trexp=LλlAl (3) l1 Le lien entre la contrainte<Al>(ou observation, ouvariable extensive) et le multiplicateur de Lagrange associéλl(ouvariable intensivethermodynamiquement conjuguée) est donnée par léquation détat Al=lnλlZ (4) Il est aussi possible dexprimerλlen fonction de<Al>en inversant léquation détat. En effet léquilibre obtenu est associé à lentropie statistique L S= −Tr D0lnD0=λlAl+lnZ (5) l=1 Cette équation donne la relation entre lentropie et la fonction de partition. Elle est connue sous le nom de transformation de Legendre. On en déduit pour les multiplicateurs de Lagrange λl=S (6) Al
3
Remarquons que si la matrice densitéD0et la fonction de partitionlnZsont fonctions des variables intensivesλl, la fonctionSobtenue par transformation de Legendre, est fonction des variables extensives associées<Al>. Exercice: en utilisant la définition dentropie statistique et le postulat fondamental, démontrer les eqs.(2-6).
1.5 Les ensembles habituels
En utilisant les eqs.(2-6) toute la thermodynamique du système peut être calculée si les contraintes<Al>sont connues. Il est important de remarquer que ce formalisme est complètement général dans le sens quil peut être appliqué pour un nombre arbitraire de corps sans nécessité de la limite thermodynamique, et que toutes les observables (et non seulement les quantités conservées par lévolution dynamique) peuvent jouer le rôle de contraintes. Les ensembles habituels de la thermodynamique standard peuvent aussi être obtenus comme applications de cette théorie générale. Considérons par exemple le cas où la seule contrainte est lénergie E=Tr D0=p(n)E(n)H n associée au multiplicateur de Lagrangeβ .La probabilité de létat dénergie(n)est alors p0(n)=exp(-βE(n))/Zβet la distribution de probabilité dénergie résultep0pxe)-(E)((E=WβE)/ZβW(E)est le nombre détat correspondant à lénergieE. Le multiplicateur de Lagrangeβsignification physique de linverse de la températurea la T=1/β. La relation entre lénergie moyenne et la température est donnée par léquation détat E= −∂lnZ/∂βet la transformation de LegendrenZ>)=lE<(Sβ+β<E>représente la relation entre lentropie canonique et lénergie libreFβ=β1lnZβ.Lensemble microcanonique peut aussi être obtenu à partir de cette théorie générale en considérant que dans labsence de toute contrainte (à lexception de la condition de normalisation) tous les états doivent être équiprobables. Lentropie microcanonique est alors obtenue comme lexpression de lentropie de Shannon correspondant à la distribution déquilibrep0(n)=1/W(E(n)), S(E)=lnW(E).Exercice :fonction de partition, équations détat, et distribution deobtenir lentropie, probabilité des micro-états pour lensemble grancanonique à partir de lentropie de Shannon.
1.6 Relations de fluctuation-dissipation Spécialisons au cas classique et considérons par simplicité le cas dun seul multiplicateur de Lagrangeλet son observable associéeA. La distribution de probabilité de A sécrit p0(A)=WZ(A)(pxe−λA) λ
4
W(A)est la densité détats pour lobservableA. La valeur moyenne deAest liée à la fonction de partition par léquation détat A= pdA A0(A)=lnλZλet sa variance mesure la susceptibilité A ≡ − =A2χλ2A Exerciceles relations suivantes qui montrent que la susceptibilité magnétique: démontrer χM<=/>Μh se déduire de la fluctuation de magnétisation et la capacité calorifiquepeut C=Ε</>T mesure les fluctuations dénergie totale χMσ=M2 =/T ; C2/T2 σE Exercice: démontrer les liens suivants entre les fluctuations du nombre de particulesσN2, la compressibilité isotherme K=-<V>-1<V/>p, la susceptibilitéµ, <Ν>/χ=et la fonction de corrélation de densité G(r-r)=<ρ(r)ρ(r)>-<ρ(r)<>ρ(r)> σN2=TΤ<χ=>ρ2<V>K= drdrG(r-r) On considérera que à la limite thermodynamique lnZµβ=lnZβp.
1.7 Transformations de Laplace, transformations de Legendre Nous avons vu dans la section précédente que la relation entre les différents potentiels thermodynamiques est donnée par la transformation de Legendre. Il est important de distinguer entre transformations à lintérieur du même ensemble statistique comme la transformation de Legendre, et transformations entre ensembles différents qui sont données par transformations intégrales non linéaires. Prenons lexemple de lénergie comme variable extensive et de la température comme sa variable intensive associée. La définition de la fonction de partition canonique est = − ZβexpβE(n)n la somme court sur les états propres de lhamiltonian. En introduisant la densité des états W(E) =Σnδ(E-E(n)),cette équation peut être écrite comme Zβ=dEW(E) exp(− βE)0
5
qui représente une transformation de Laplace entre la fonction de partition canonique et lentropie microcanonique)E(SWnl=)E(. Si la fonction à intégrerf)=(EE)W(xe(p-βE) présente un fort maximum, lintégrale peut être évaluée par une méthode gaussienne (approximation de point selle) autour du maximumf()ZβW(E) exp− βE2σπE2 qui peut être re-écrite comme lnZβS(E)− βE (8) ouF=-TS()où nous avons introduit lénergie libre, F=-lnZββ./Léquation (8) a la structure dune transformation de Legendre et montre que dans lapproximation de point selle, les ensembles qui diffèrent au niveau dune contrainte sur une observables spécifique (ici lénergie) diffèrent seulement dune simple transformation linéaire.
1.8 Le théorème de la limite centrale et léquivalence des ensembles La représentation typique de la distribution de probabilité dune variable aléatoire générique est la distribution de Gauss. La validité générale de la distribution de Gauss est due à un des plus importants théorèmes de la statistique, le théorème de la limite centrale de Laplace. Considérons une variable extensive (par exemple une énergieE) qui peut être écrite comme la somme deNcontributions indépendantes (ici, lénergie des différentes particules constituant le système)E=Σnen, où lesenune distribution de probabilité arbitraire sous la seulesuivent contrainte que la variance globaleσ2=Σn(<en2>-<en>2)/Nsoit un nombre fini. Alors le théorème de la limite centrale sexprime par le fait que la distribution deEtend vers une distribution de Gauss avec une largeur décroissante avec le nombre de degrés de liberté 2 p(E)N2π1Nσ2expE2NσE2Le théorème de la limite centrale implique que la distribution des observables extensives à la limite thermodynamique tend vers une fonctionδ, ce qui a pour conséquence que la transformation de Laplace devient exactement équivalente à la transformation de Legendre, conduisant à léquivalence des ensembles statistiques.
6