Impossible d'afficher l'image. Votre ordinateur manque peut-être de mémoire pour ouvrir l'image ou l'image est endommagée. Redémarrez l'ordinateur, puis ouvrez à nouveau le fichier. Si le x rouge est toujours affiché, vous devrez peut-être supprimer l'image avant de la réinsérer. ELEMENTS DE PHYSIQUE STATISTIQUE Yann VAILLS Physique statistique – Master Physique et Sciences Pour l’Ingénieur 2009-2010 Yann Vaills - E-mail : Yann.Vaills@cnrs-orleans.fr page web : http://www.cemhti.cnrs-orleans.fr/?nom=vaills Page 1 Bibliographie : • Eléments de physique statistique. Hasard, organisation, évolution. Sylvie Vauclair, 1993, InterEditions, Paris ère• Physique statistique, B. Diu, C. Guthmann, D. Lederer, B. Roulet, 1 édi-tion 1989, Hermann, Paris • Physique statistique. Chaos et approches multiéchelles, P. Castiglione, M. Falcioni, A. Lesne, A. Vulpiani, 2008, Editions Belin, Paris • Introduction à la mécanique statistique. E. Belorizky, W. Gorecki, 1992, Presses Universitaires de Grenoble • Thermodynamique, fondements et applications, J.-P. Pérez, Masson, ème2 édition, 1997, Paris. Mais aussi font toujours référence : • Thermodynamique statistique, R. Castaing, Masson & Cie, 1970 • Eléments de thermodynamique statistique, A. Pacault, Masson & Cie, 1963 • Mécanique statistique, A. Blanc-Lapierre, Masson & Cie, collection d’ouvrages de mathématiques à l’usage des physiciens, 1967 Physique statistique ...
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills
Page 1
Bibliographie : •Eléments de physique statistique. Hasard, organisation, évolution. Sylvie Vauclair, 1993, InterEditions, Paris •Physique statistique, B. Diu, C. Guthmann, D. Lederer, B. Roulet, 1èreédi-tion 1989, Hermann, Paris •Physique statistique. Chaos et approches multiéchelles, P. Castiglione, M. Falcioni, A. Lesne, A. Vulpiani, 2008, Editions Belin, Paris •Introduction à la mécanique statistique. E. Belorizky, W. Gorecki, 1992, Presses Universitaires de Grenoble •Thermodynamique, fondements et applications,J.-P. Pérez, Masson, 2èmeédition, 1997, Paris. Mais aussi font toujours référence : •Thermodynamique statistique, R. Castaing, Masson & Cie, 1970 •Eléments de thermodynamique statistique, A. Pacault, Masson & Cie, 1963 •Mécanique statistique,A. Blanc-Lapierre, Masson & Cie, collection d uvrages de mathématiques à lusage des physiciens, 1967 o
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills
Page 2
« Pour obtenir même une solution partielle lhomme de science doit ras-sembler les f ts chaotiques qui lui sont accessibles et les rendre cohérents ai g les par la pensée créatrice et intelli ib Des techniques dinvestigation, des méthodes systématiques pour trou-ver et suivre les fils grand ro à ystères, que consti-conducteurs du man m de la nature, t été développés. Quelques unes des énigmes tue le livre on de la nature ont été résolues, bien que beaucoup de solutions se soient trouvées, à la lumière des recherches ultérieures, être provisoires et super-fic ielles. »
Albert Einstein
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills
Page 3
A.INTRODUCTION A LA MECANIQUE STATISTIQUE 5 page B.SYSTEME ISOLEDISTRIBUTION MICROCANONIQUE page 14 C.SYSTEME EN CONTACT THERMIQUE AVEC UN THERMOSTAT DISTRIBUTION CANONIQUE 23 page D.SYSTEME EN CONTACT THERMIQUE AVEC RESERVOIR DE PARTICULESDISTRIBUTION GRAND CANONIQUE page 37 E.MECANIQUE STATISTIQUE ET THERMODYNAMIQUE page 46 F.STATISTIQUES QUANTIQUES 57 page G.STATISTIQUES DEFERMI-DIRAC 68 page H.STATISTIQUES DEBOSE-EINSTEIN page 78 I.PHOTONSPHONONSSTATISTIQUES DURAYONNEMENT 84 page J.COMPLEMENT:ELEMENTS DE THEORIE CINETIQUE DES GAZpage 92
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills
Page 4
NTRODUCTIONALAMCENAIQEU
dimension énergie 1μ Joulem 1 1 Å 1 eV = 1,6 10-19J
A.I STATISTIQUEI.De la Physique microscopique à la physique macroscopique PHYSIQUE macroscopique microscopique Dans le traitement analytique des problèmes physiques en passant du microscopique au macroscopique le nombre de variables à traiter est multiplié par 6N = 6x6,02 1023 (car il y a 6 variables par particule : 3 de position et 3 dimpulsion dans lespace à 3 dimensions). En mécanique statistique une grandeur de lordre de Nest connue àN1/2prèsExemple : N# 1016⇒Nmes= 1016± 108etΔN=N/018II.Eléments dhistoire de lentropie Le cas de la notion dentropie est exemplaire pour illustrer la dualité entre microscopique et macroscopique qui divise les théories physiques qui, nonobstant leurs approche apparemment contradictoires, sont destinées à décrire le même monde. Lentropie est tout dabord un concept introduit en thermodynamique pour quantifier lirréversibilité des transformations physiques, affir-mée par le deuxième principe. Puis, ce concept a émergé à nouveau, sous une forme différente, de létude de la transmission de linformation par les moyens de communication. De là est ressorti une définition plus générale de lentropie, largement utilisée non seulement en thermodynamique, mais aussi en physique sta-tistique, en mécanique quantique, en mathématiques, en sociologie, en traitement des images
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills Page 5
Dans le langage courant, « augmentation dentropie » est devenu syno-nyme de « diminution dinformation » ou « désorganisation », ce qui est souvent justifié, mais parfois simplificateur. 1)Définition de Clausius Cest en 1842 que Julius Robert von Mayer découvre que la chaleur et le travail sont deux manifestations « interchangeables » dune même entité : lénergie (du grecεενγρζο, « qui produit du tra-vail »), elle-même conservée dans toutes les transformations. Dès 1824 Sadi Carnot dans ses travaux sur les machine thermiques, introduit la notion dirréversibilité de la transformation de travail en chaleur, quil traduit quantitativement par le calcul du rende-ment. Plus tard Clausius exprime lexistence de lirréversibilité en affirmant qu«un processus spontané dont le seul résultat final est le transfert net de chaleur dun corps de température donnée à un corps plus chaud est impossible ». Pour Kelvin « un processus spon-tané dont le seul résultat final est la transformation en travail dune certaine quantité de chaleur prise dune source de température uni-forme est impossible ». Dans un article écrit en 1850, Clausius démontre que le rap-port Q/T, où Qest la quantité de chaleur contenue dans un système fermé et T la température de ce dernier, ne peut que croître ou resterconstante.Ilappellecettenouvelleentitélentropie(dugrecεντροπη, « cause dévolution ») et il la définit comme une mesure de la quantité dénergie dun système quinepeut être convertie en tra-vail. Plus lentropie est élevée, moins lénergie est récupérable sous forme de travail. Il montre que « lentropie dun système isolé ne décroît jamais », ce qui est une autre formulation du deuxième prin-cipe de la thermodynamique.
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills
Page 6
2)Définition microscopique de Boltzmann Boltzmann défini lentropie à partir du nombre de configurations mi-croscopiques (états des particules à léchelle microscopique) qui conduisent au même état macroscopique. Considérons un objet quelconque. On peut le caractériser par un certain nombre de grandeurs observables : sa température, son vo-lume, sa pression, sa densité. Or, il existe un très grand nombre de positions, de vitesses et dune manière générale, détats des parti-cules qui composent cet objet et qui donnent les mêmes valeurs des grandeurs observées. SoitΩce nombre. En considérant ladditivité de lentropie et la nécessité de retrouver à léchelle macroscopique lexpression de Clausius, Boltzmann en a déduit quon pouvait expri-mer lentropie statistique sous la forme : =oL1.A 3)Définition statistique moderne
Depuis Boltzmann la définition statistique de lentropie a évo-lué, par analogie avec la «théorie de linformation » due à Claude Shannon (1949). La définition de Shannon part de la notion dinformation. Il estime linformation il à un évènement correspondantlde pro-que babilité Plpeut être évaluée par : ilk-LgoP=l Pour comprendre lintuition qui a amené Shannon à imaginer cette loi en Log, considérons lexemple suivant. Soient deux évène-ments indépendantsl etl de probabilités respectives Pl et PlLévènement défini en terme de probabilité par«l et»l pour a probabilité : Pletl =PlxPl
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills
Page 7
linformation il.lcorrespondant à un évènementl«etl» est : il.l=il+ilil fallait donc imaginer une loi qui soit additive en termes de quanti-té dinformation et multiplicative en termes de probabilités. Dès lors une relation logarithmique simposait entre information corres-pondant à un phénomène et sa probabilité.il.lPgo=L-kltelLgo=k-PlxPl PgoL(k-=lPgLol) + =il+il On note quun évènement certain (Pl=e-pl«:,ttc1eeamneexnéeilyadelaneigeàQuébecenjanvier»)correspondàinforma-tion nulle (aucune information). Par contre un évènement très incer-tain (probabilité très faible) a un contenu dinformation fort (exemple:«cetteannéeilyadelaneigeàParisenjuilet»)n.iSlo considère que lévènementlne sest pas encore produit, alors la po-tentialité que le système que nous considérons apporte ultérieure-ment linformation correspondant à lévènementlest :IlPk-=loLPgl Si maintenant on considère tous les évènements possibles dans le système, on peut définir une quantité S qui représente la potentialité dinformation que le système aurait dapporter à lextérieur, si on pouvait distinguer chacun des évènements pos-sibles : ∑ࡿ ൌെरࡼरࡸࢍࡼरA.2
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills
Page 8
Imaginons que lun des évènements se produis, il est alors certain, sa probabilité devient égale à 1, et sa contribution à Sdevient nulle. La potentialité du système dapporter de linformation ultérieure a diminué. En physique statistique. Ce potentiel dinformation global con-tenu dans les évènements possible pouvant survenir dans un système est assimilé à lentropie. Plus le système contient une potentialité dévènements incertains (plus il est désordonné), plus son entropie est grande.
III.Rappels des notions de calcul de probabilités Le passage des petits nombres aux grands amène à prendre en con-sidérations une telle quantité dévènements proches possibles que lon passe dune conception discrète à une conceptions continue de lévolution des évènements, des grandeurs et des probabilités corres-pondantes.Ainsi, dans le traitement de problèmes à grands nombre de parti-cules la mesure dune grandeur macroscopiqueAdonne une valeur a qui peut varier continument à cette échelle. On introduit alors la pro-babilité de trouver la valeur aà daprès sous la forme suivante :
dP(a)=w(a)daA3.w(a)est appelée «densité de probabilité » Lois de probabilité : ¾pour des évènements qui sexcluent mutuellement on a ∑ ܲൌ1 une distribution discrète pour 1ܽൌݓሻ݀ሺܽ une distribution continue pour ¾Pour des évènements indépendants on a Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills
Page 9
ܲ ௧ ൌܲܲDistribution statistique : Soit {pi} lensemble des probabilités affectées aux valeurs possibles dune grandeurA.Lesvaleurs possibles deAseront notéesaietpiles probabilités correspondantes. ¾La valeur moyenne deAsera notéeܣҧet calculée comme suit : ܽܣҧ ൌ∑ (cas discret) ou ܽݓሺܽሻ݀ܽܣҧ ൌ (cas continu) ¾Lécart quadratique moyen est noté et calculé comme suit : ത ത ∆ܣଶҧܣሺൌଶܣҧଶ où െ ܣሻଶൌܣെ∆ܣଶൌ∑ሺܽሻെҧܣଶ (cas discret) ou∆ܣଶൌݓሺܽҧሻെܣଶ݀ܽ (cas continu) ¾cette notion est pertinente quelque soit N ¾Δ N1 =/2 ¾La distribution autour de la valeur moyenne prend lallure dune gaussienne Distribution binomiale : Cest le cas où seulement deux possibilités a et b existent, avec les probabilitésαetβtelles queα+β 1 = SoientNle nombre total dévènements nle nombre dévènements de probabilitéαSur une série deN évènements, la probabilité davoirn a évènements (et doncNnévènements b) sécrit et vaut : ࡺ ࡼሻൌ,ሺࡺࡺࢻࢼࡺିൌ!ሻࡺሺି!ࡺ!ࢻࢼିA.4¾La valeur moyenne den lorsque quon effectue (ou provoque ou observe) un grand nombre de séries deNévènements est : ൌࡺࢻ.5A ഥ
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills Page 10
Ce qui se démontre comme suit : ሺࢻ ࢼሻࡺൌ∑ࡺࢻࢼࡺିA.6
߲ሺߙߚሻேିത ߲ߙܰሺߙߚሻଵൌ݊ܥேߙିଵߚேି݊ൌߙൌே Orߙߚ1ൌdoncൌߙ݊തܰ¾La valeur la plus probable de n, que nous noteronsnpp, est celle qui rend),n(NPdoncN(n,)LgoPmaximum ത Montrons que݊ൌ݊Nestgrand,donconapproximeraLog(N!)enutilisantlafor-mule de Stirling :ܮሺ݃ሻ؆ܰ!݃ܰܮെܰܰOn a : ݃ܮܰሺܲൌሻ݊,ሺെെܰሻ݊ܮሺ݃െܰሻ݊ܰܮ݃ܰെܰെ݊ܮ݃݊݊ ܰെ݊݊ܮ݃ߙሺܰെ݊ሻܮ݃ߚsoit : ݃ܮሻ݊݃ሺܰെ݊ሻܮെሺܰെܮ݃݊ܰ݊െܮܰ݃݊,ൌሻܲܰሺ ݊ܮ݃ߙሺܰെ݊ሻܮ݃ߚDoù : ݊ െ డడሺே,ሻ݃ሻߙെܮ1݃ߚܮെ1ܮ݃ሺܰെൌܮ݊݃Et : డ డሺே,ሻൌ0 pour݊݊ൌtel que : ܮ݃ܰെ݊1െߙൌܮ ݊ߙ݃Doùൌࢻࡺൌഥ7.A
Physique statistique Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills Page 11