Mécanique statistiquex

De
Publié par

Impossible d'afficher l'image. Votre ordinateur manque peut-être de mémoire pour ouvrir l'image ou l'image est endommagée. Redémarrez l'ordinateur, puis ouvrez à nouveau le fichier. Si le x rouge est toujours affiché, vous devrez peut-être supprimer l'image avant de la réinsérer. ELEMENTS DE PHYSIQUE STATISTIQUE Yann VAILLS Physique statistique – Master Physique et Sciences Pour l’Ingénieur 2009-2010 Yann Vaills - E-mail : Yann.Vaills@cnrs-orleans.fr page web : http://www.cemhti.cnrs-orleans.fr/?nom=vaills   Page 1  Bibliographie : • Eléments de physique statistique. Hasard, organisation, évolution. Sylvie Vauclair, 1993, InterEditions, Paris ère• Physique statistique, B. Diu, C. Guthmann, D. Lederer, B. Roulet, 1 édi-tion 1989, Hermann, Paris • Physique statistique. Chaos et approches multiéchelles, P. Castiglione, M. Falcioni, A. Lesne, A. Vulpiani, 2008, Editions Belin, Paris • Introduction à la mécanique statistique. E. Belorizky, W. Gorecki, 1992, Presses Universitaires de Grenoble • Thermodynamique, fondements et applications, J.-P. Pérez, Masson, ème2 édition, 1997, Paris. Mais aussi font toujours référence : • Thermodynamique statistique, R. Castaing, Masson & Cie, 1970 • Eléments de thermodynamique statistique, A. Pacault, Masson & Cie, 1963 • Mécanique statistique, A. Blanc-Lapierre, Masson & Cie, collection d’ouvrages de mathématiques à l’usage des physiciens, 1967 Physique statistique ...
Publié le : samedi 24 septembre 2011
Lecture(s) : 82
Nombre de pages : 69
Voir plus Voir moins
ELEMENTS
DE PHYSIQUE STATISTIQUE
Yann VAILLS
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills  
Page 1
Bibliographie :  Eléments de physique statistique. Hasard, organisation, évolution. Sylvie Vauclair, 1993, InterEditions, Paris  Physique statistique, B. Diu, C. Guthmann, D. Lederer, B. Roulet, 1èreédi-tion 1989, Hermann, Paris  Physique statistique. Chaos et approches multiéchelles, P. Castiglione, M. Falcioni, A. Lesne, A. Vulpiani, 2008, Editions Belin, Paris  Introduction à la mécanique statistique. E. Belorizky, W. Gorecki, 1992, Presses Universitaires de Grenoble  Thermodynamique, fondements et applications,J.-P. Pérez, Masson, 2èmeédition, 1997, Paris. Mais aussi font toujours référence :  Thermodynamique statistique, R. Castaing, Masson & Cie, 1970 Eléments de thermodynamique statistique, A. Pacault, Masson & Cie,  1963  Mécanique statistique,A. Blanc-Lapierre, Masson & Cie, collection d uvrages de mathématiques à lusage des physiciens, 1967 o
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills  
Page 2
« Pour obtenir même une solution partielle lhomme de science doit ras-sembler les f ts chaotiques qui lui sont accessibles et les rendre cohérents ai  g les par la pensée créatrice et intelli ib Des techniques dinvestigation, des méthodes systématiques pour trou-ver et suivre les fils grand ro à ystères, que consti-conducteurs du man m  de la nature, t été développés. Quelques unes des énigmes tue le livre on de la nature ont été résolues, bien que beaucoup de solutions se soient trouvées, à la lumière des recherches ultérieures, être provisoires et super-fic ielles. »
Albert Einstein
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills  
Page 3
A.INTRODUCTION A LA MECANIQUE STATISTIQUE 5 page B.SYSTEME ISOLEDISTRIBUTION MICROCANONIQUE page 14 C.SYSTEME EN CONTACT THERMIQUE AVEC UN THERMOSTATDISTRIBUTION CANONIQUE 23 page D.SYSTEME EN CONTACT THERMIQUE AVEC RESERVOIR DE PARTICULESDISTRIBUTION GRAND CANONIQUE page 37 E.MECANIQUE STATISTIQUE ET THERMODYNAMIQUE page 46 F.STATISTIQUES QUANTIQUES 57 page G.STATISTIQUES DEFERMI-DIRAC 68 page H.STATISTIQUES DEBOSE-EINSTEIN page 78 I.PHOTONSPHONONSSTATISTIQUES DURAYONNEMENT 84 page J.COMPLEMENT:ELEMENTS DE THEORIE CINETIQUE DES GAZpage 92
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills  
Page 4
NTRODUCTIONALAMCENAIQEU
dimension énergie 1μ Joulem 1 1 Å 1 eV = 1,6 10-19J
A. I STATISTIQUEI. De la Physique microscopique à la physique macroscopique PHYSIQUE macroscopique microscopique Dans le traitement analytique des problèmes physiques en passant du microscopique au macroscopique le nombre de variables à traiter est multiplié par 6N = 6x6,02 1023 (car il y a 6 variables par particule : 3 de position et 3 dimpulsion dans lespace à 3 dimensions). En mécanique statistique une grandeur de lordre de Nest connue àN1/2prèsExemple : N# 1016Nmes= 1016± 108etΔN=N/018II. Eléments dhistoire de lentropie Le cas de la notion dentropie est exemplaire pour illustrer la dualité entre microscopique et macroscopique qui divise les théories physiques qui, nonobstant leurs approche apparemment contradictoires, sont destinées à décrire le même monde. Lentropie est tout dabord un concept introduit en thermodynamique pour quantifier lirréversibilité des transformations physiques, affir-mée par le deuxième principe. Puis, ce concept a émergé à nouveau, sous une forme différente, de létude de la transmission de linformation par les moyens de communication. De là est ressorti une définition plus générale de lentropie, largement utilisée non seulement en thermodynamique, mais aussi en physique sta-tistique, en mécanique quantique, en mathématiques, en sociologie, en traitement des images
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills Page 5  
Dans le langage courant, « augmentation dentropie » est devenu syno-nyme de « diminution dinformation » ou « désorganisation », ce qui est souvent justifié, mais parfois simplificateur. 1) Définition de Clausius Cest en 1842 que Julius Robert von Mayer découvre que la chaleur et le travail sont deux manifestations « interchangeables » dune même entité : lénergie (du grecεενγρζο, « qui produit du tra-vail »), elle-même conservée dans toutes les transformations. Dès 1824 Sadi Carnot dans ses travaux sur les machine thermiques, introduit la notion dirréversibilité de la transformation de travail en chaleur, quil traduit quantitativement par le calcul du rende-ment. Plus tard Clausius exprime lexistence de lirréversibilité en affirmant qu«un processus spontané dont le seul résultat final est le transfert net de chaleur dun corps de température donnée à un corps plus chaud est impossible ». Pour Kelvin « un processus spon-tané dont le seul résultat final est la transformation en travail dune certaine quantité de chaleur prise dune source de température uni-forme est impossible ». Dans un article écrit en 1850, Clausius démontre que le rap-port Q/T, où Qest la quantité de chaleur contenue dans un système fermé et T la température de ce dernier, ne peut que croître ou resterconstante.Ilappellecettenouvelleentitélentropie(dugrecεντροπη, « cause dévolution ») et il la définit comme une mesure de la quantité dénergie dun système quinepeut être convertie en tra-vail. Plus lentropie est élevée, moins lénergie est récupérable sous forme de travail. Il montre que « lentropie dun système isolé ne décroît jamais », ce qui est une autre formulation du deuxième prin-cipe de la thermodynamique.
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills  
Page 6
2) Définition microscopique de Boltzmann Boltzmann défini lentropie à partir du nombre de configurations mi-croscopiques (états des particules à léchelle microscopique) qui conduisent au même état macroscopique. Considérons un objet quelconque. On peut le caractériser par un certain nombre de grandeurs observables : sa température, son vo-lume, sa pression, sa densité. Or, il existe un très grand nombre de positions, de vitesses et dune manière générale, détats des parti-cules qui composent cet objet et qui donnent les mêmes valeurs des grandeurs observées. SoitΩce nombre. En considérant ladditivité de lentropie et la nécessité de retrouver à léchelle macroscopique lexpression de Clausius, Boltzmann en a déduit quon pouvait expri-mer lentropie statistique sous la forme : =oL1.A 3) Définition statistique moderne
Depuis Boltzmann la définition statistique de lentropie a évo-lué, par analogie avec la «théorie de linformation » due à Claude Shannon (1949). La définition de Shannon part de la notion dinformation. Il estime linformation il à un évènement correspondantlde pro-que babilité Plpeut être évaluée par : ilk-LgoP=l Pour comprendre lintuition qui a amené Shannon à imaginer cette loi en Log, considérons lexemple suivant. Soient deux évène-ments indépendantsl etl de probabilités respectives Pl et PlLévènement défini en terme de probabilité par«l et»l pour a probabilité : Pletl =PlxPl
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills  
Page 7
linformation il.lcorrespondant à un évènementl«etl» est : il.l=il+ilil fallait donc imaginer une loi qui soit additive en termes de quanti-té dinformation et multiplicative en termes de probabilités. Dès lors une relation logarithmique simposait entre information corres-pondant à un phénomène et sa probabilité.il.lPgo=L-kltelLgo=k-PlxPl PgoL(k-=lPgLol) + =il+il On note quun évènement certain (Pl=e-pl«:,ttc1eeamneexnéeilyadelaneigeàQuébecenjanvier»)correspondàinforma-tion nulle (aucune information). Par contre un évènement très incer-tain (probabilité très faible) a un contenu dinformation fort (exemple:«cetteannéeilyadelaneigeàParisenjuilet»)n.iSloconsidère que lévènementlne sest pas encore produit, alors la po-tentialité que le système que nous considérons apporte ultérieure-ment linformation correspondant à lévènementlest :IlPk-=loLPgl Si maintenant on considère tous les évènements possibles dans le système, on peut définir une quantité S qui représente la potentialité dinformation que le système aurait dapporter à lextérieur, si on pouvait distinguer chacun des évènements pos-sibles :  ∑ࡿ ൌെ࢑ࡸ࢕ࢍࡼ     A.2
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr page web :http://www.cemhti.cnrs-orleans.fr/?nom=vaills  
Page 8
Imaginons que lun des évènements se produis, il est alors certain, sa probabilité devient égale à 1, et sa contribution à Sdevient nulle. La potentialité du système dapporter de linformation ultérieure a diminué. En physique statistique. Ce potentiel dinformation global con-tenu dans les évènements possible pouvant survenir dans un système est assimilé à lentropie. Plus le système contient une potentialité dévènements incertains (plus il est désordonné), plus son entropie est grande.
III. Rappels des notions de calcul de probabilités Le passage des petits nombres aux grands amène à prendre en con-sidérations une telle quantité dévènements proches possibles que lon passe dune conception discrète à une conceptions continue de lévolution des évènements, des grandeurs et des probabilités corres-pondantes.Ainsi, dans le traitement de problèmes à grands nombre de parti-cules la mesure dune grandeur macroscopiqueAdonne une valeur a qui peut varier continument à cette échelle. On introduit alors la pro-babilité de trouver la valeur aà daprès sous la forme suivante :
dP(a)=w(a)daA3.w(a)est appelée «densité de probabilité » Lois de probabilité : ¾ pour des évènements qui sexcluent mutuellement on a ∑ ܲൌ1 une distribution discrète pour 1ܽ׬ݓ݀ܽ une distribution continue pour ¾ Pour des évènements indépendants on a Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills  
Page 9
ܲ௜ ௘௧ ௝ൌܲܲDistribution statistique : Soit {pi} lensemble des probabilités affectées aux valeurs possibles dune grandeurA.Lesvaleurs possibles deAseront notéesaietpiles probabilités correspondantes. ¾ La valeur moyenne deAsera notéeܣҧet calculée comme suit :  ܽܣҧ ൌ∑݌ (cas discret)  ou ܽݓሺܽሻ݀ܽܣҧ ൌ׬ (cas continu) ¾ Lécart quadratique moyen est noté et calculé comme suit : ∆ܣҧܣܣҧ où െ ܣሻܣ∆ܣൌ∑ሺܽҧܣ݌ (cas discret) ou∆ܣ׬ݓܽҧܣ݀ܽ (cas continu) ¾ cette notion est pertinente quelque soit N ¾ Δ N1 =/2 ¾ La distribution autour de la valeur moyenne prend lallure dune gaussienne Distribution binomiale : Cest le cas où seulement deux possibilités a et b existent, avec les probabilitésαetβtelles queα+β 1 = SoientNle nombre total dévènements nle nombre dévènements de probabilitéαSur une série deN évènements, la probabilité davoirn a évènements (et doncNnévènements b) sécrit et vaut : ,ࡺି࢔!ି!!ି࢔   A.4¾ La valeur moyenne den lorsque quon effectue (ou provoque ou observe) un grand nombre de séries deNévènements est : .5A
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills Page 10  
 
Ce qui se démontre comme suit : ሺࢻ ൅ ࢼሻൌ∑ࡺି࢔    A.6
߲ߙߚି߲ߙܰߙߚ݊ܥߙ௡ିଵߚேି௡݊ߙOrߙߚ1doncߙ݊ܰ¾ La valeur la plus probable de n, que nous noteronsnpp, est celle qui rend),n(NPdoncN(n,)LgoPmaximum Montrons que݊௣௣ൌ݊Nestgrand,donconapproximeraLog(N!)enutilisantlafor-mule de Stirling :݋ܮ݃؆ܰ!݋݃ܰܮܰ ܰOn a : ݃݋ܮܰܲ ݊,ܰ݊݋ܮ݃ܰ݊  ܰܮ݋݃ ܰܰ݊ܮ݋݃݊݊ ܰ݊݊ܮ݋݃ߙܰ݊ܮ݋݃ߚsoit : ݋݃ܮ  ݊݃ܰ݊ܮ݋ܰܮ݋݃݊ܰ ݊ܮܰ݃݋݊,ܲ ܰ݊ܮ݋݃ߙܰ݊ܮ݋݃ߚDoù : ݊  ,݋݃ߙ ܮ݋1݃ߚܮ1ܮ݋݃ܰ݋ܮ݊݃Et : డ௅  ,ൌ0 pour݊݊௣௣tel que : ܮ݋݃ܰ݊௣௣1ߙܮ݋ ݊௣௣ߙ݃Doù࢖࢖7.A
Physique statistique  Master Physique et Sciences Pour lIngénieur 2009-2010 Yann Vaills - E-mail :Yann.Vaills@cnrs-orleans.fr web : pagehttp://www.cemhti.cnrs-orleans.fr/?nom=vaills Page 11  
Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.