Cours de probas - agreg
91 pages
Français

Cours de probas - agreg

-

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
91 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

Table des matièresCours1. Loi de probabilité; espérance; moments…………………………………….. 52. Lois discrètes ; lois à densité………………………………………………… 103. Indépendance d'événements, de tribus, de variables aléatoires……………… 134. Caractérisation des lois……………………………………………………… 185. Suites de variables aléatoires; différentes sortes de convergence…………… 286. Echantillons d'une loi. Définitions et notations pour la suite……………….. 347. Estimateurs pour une loi normale…………………………………………… 358. Loi(s) des grands nombres…………………………………………………… 369. Le théorème de la limite centrale…………………………………………… 3910. Jugement sur échantillon; intervalles de confiance et tests d'hypothèses…… 43sur une moyenne.Annexes1. Corrélation linéaire………………………………………………………….. 492. Produit dénombrable d'espaces probabilisés………………………………… 513. Théorème de Borel-Cantelli: loi du tout ou rien…………………………….. 534. Marches aléatoires…………………………………………………………… 555. Introduction aux chaînes de Markov finies………………………………….. 596. Processus de Poisson………………………………………………………… 657. Formule d'inversion pour X réelles et Φ intégrable………………………… 69X8. Deux lois fortes des grands nombres………………………………………… 719. Une amélioration de l'inégalité de Bienaymé-Chebychev…………………… 75210. Le test du ℵ d'ajustement…………………………………………………… 7711. Méthodes de Monte-Carlo pour le calcul d'intégrales……………………….. 8112. Examen de passage 1-2, 1999 (entropie d'un système aléatoire discret)…….. 9113. Exge 1-2, 2000 (sommes aléatoires de variables ...

Informations

Publié par
Nombre de lectures 39
Langue Français

Extrait

Cours
Table des matières
1.  5Loi de probabilité; espérance; moments…………………………………….. 2.  10o s discrètes ; lois à densit酅…………………………………………… L i 3. d'événements, de tribus, de variables aléatoires……………… 13Indépendance 4. Caractérisation des lois……………………………………………………… 18 5.  28Suites de variables aléatoires; différentes sortes de convergence…………… 6. Echantillons d'une loi. Définitions et notations pour la suite……………….. 34 7.  35Estimateurs pour une loi normale…………………………………………… 8.  36Loi(s) des grands nombres…………………………………………………… 9.  39Le théorème de la limite centrale…………………………………………… 10. Jugement sur échantillon; intervalles de confiance et tests d'hypothèses…… 4
sur une moyenne. Annexes
3
1.  49Corrélation linéaire………………………………………………………….. 2.  51Produit dénombrable d'espaces probabilisés………………………………… 3.  53Théorème de Borel-Cantelli: loi du tout ou rien…………………………….. 4. Marches aléatoires…………………………………………………………… 55 5. Introduction aux chaînes de Markov finies………………………………….. 59 6.  65Processus de Poisson………………………………………………………… 7. Formule d'inversion pour X réelles etΦXintégrable………………………… 69 8.  71Deux lois fortes des grands nombres………………………………………… 9.  75Une amélioration de l'inégalité de Bienaymé-Chebychev…………………… 10. Le test du2d'ajustement…………………………………………………… 77 11.  81Méthodes de Monte-Carlo pour le calcul d'intégrales……………………….. 12.  91Examen de passage 1-2, 1999 (entropie d'un système aléatoire discret)…….. 13.  95Examen de passage 1-2, 2000 (sommes aléatoires de variables aléatoires)…. 14.  99Examen de passage 1-2, 2001 (loi du min, loi du max ; étude asymptotique).. 15. Lois classiques : récapitulatif………………………………………………… 103
Bibliographie…………………………………………………………
105
COURS
1) LOI DE PROBABILITE; ESPERANCE; MOMENTS
On appelleespace probabiliséun espace mesuré (Ω,T,p) vérifiant la condition p(Ω) = 1.Ωest l'ensemble des
possibles, ouévénements élémentaires, et les éléments de T sont appelésévénements.
Exemple:la probabilité uniforme:
SiΩest fini non (vide) et si T est l'ensemble des parties deΩ, laprobabilité uniformep surΩest définie sur T par: p(A) =d arCCra dΩ A.
Le calcul de la probabilité d'un événement se ramène alors à un problème de dénombrement. Par exemple:
 
 
 
La probabilité pour qu'en jetant 6 dés non truqués, on obtienne 6 résultats deux à deux distincts est p= 6  66.15,0 0# !
La probabilité pour que parmi n personnes, au moins deux aient la même date de naissance (en n supposant nne soit née un 29 février) est et qu'aucune de ces personnes  365pn - =1A36563n5 , soit n-donc:pn= 1-k1e p4# 0,016 et p64# 0,997 ; pn  k=1(1-365) 50% pour n=25. dépasse. On obtient par exempl
Si, sur M tickets de loterie, n sont gagnants (avec nM/2), la probabilité pour qu'un acheteur de n n C billets en ait au moins un gagnant estp -= 1M-nn . CM
Si D est une partie mesurable de mesure finie non nulle deRd,λ(d)et T la mesure et la tribu de Lebesgue de D, laprobabilité uniformep sur D est définie sur T par:
λ(d)(A) p(A) =λ(d)(D) .
Par exemple, la probabilité pour qu'un nombre choisi au hasard dans l'intervalle [0,1] soit rationnel est nulle.
Si BT est un événement de probabilité0, on définit sur (Ω,T) laprobabilité conditionnelle sachant B, notée pB, par : pBA( ) =(p/A)B = p(Ap(B)B).
 
 
 
p(A/B) = p(A)p(A 
 B) = p(A).p(B) (ceci traduit l'indépendance de A et B; cf. paragr. 3).
Si A, B tels que p(A).p(B)T sont0, alors :p(A/B).p(B) = p(B/A).p(A) (formule d'inversion).
Si (Bk) est un système complet d’événements (i.e. une partition finie ou dénombrable de parties mesurables mesurables deΩ) de probabilités non nulles, alors :
AT : p(A) =p A(k
Bk) =B kA/p(k).p(Bk) (formule des probabilités totales)
Si p(A)0: p(Bi :i/A) =Ap/ Ap((k/Bi)BkBp.p((.)i)Bk)  (formule de Bayes).
Exemples:
 
Dans une population, la probabilité pour qu'un individu ait une maladie M donnée est p.
On dispose d'un test T de dépistage, et l'on évalue à 0,95 la probabilité pour qu'une personne ayant - respt: n'ayant pas - la maladie ait un test positif - respt. négatif).
Evaluons l'efficacité du test sur la population en donnant la probabilité pour qu'une personne ayant un test positif ait effectivement la maladie.
Notons T l'événement: "le test est positif" et M : "la personne a la maladie"; il vient: p(M/T) = p(T/M)pp((MT/) M+) .pp((TM/)Mc)p(Mc) = g(p) ,
 avec p(M) = p , p(Mc) = 1-p , p(T/M) = 0,95 ,  p(Tc/Mc et p(T/M) = 0,95c) = 0,05.                   On trouve g(p) = 1189p+p5 . g croît de 0 à 0,83 avec p.  Pour une population peu atteinte, le test sera très peu concluant  (g(0,005) # 0,087).
 Le test est efficace à 50% pour p 1/4. =
 de cette (sage) décision, il ne fume pas.Un fumeur décide de ne plus fumer; le jour (jour 1) On considère que, pour j1: la probabilité qu’il fume le jour j+1sachantqu’il n’a pas fumé le jour j estα ]0,1[. la probabilité qu’il ne fume pas le jour j+1sachantqu’il a fumé le jour j estβ ]0,1[.
Cherchons la probabilité un pour qu'il ne fume pas le jour n (événement An): la formule des probabilités totales fournit, pour n1: un+1= (1-α-β)un+β, avec u1= 1. On obtient par la méthode classique: α un=βα+β.(1-α-β)n-1ue n.  oNotsnq lim +un=α+ββ : +β  α+
Si 1-α>βlui est plus facile de ne pas fumer un jour s'il n'a pas fumé la veille), u(s'il ntendra vers sa limite de façon monotone (en décroissant).
Si 1-α<β(s'il lui est plus facile de ne pas fumer un jour s'il a fumé la veille), untendra vers sa limite en oscillant.
Siα+β= 1, un (logique).est constante et égale à cette valeur commune
Supposons de plus que la décision de fumer ou non le jour jsachant attitude adoptée les jours son précédentsne dépend que de l'attitude adoptée le jour j-1(suite sans mémoire; cf annexe: chaînes de Markov), et calculons la probabilité pour que le fumeur ne fume pas du jour n au jour q inclus (q>n): -1               p(kA=nqk) = p( Aqk/   =n-qA1kq). kp(-n1A=kA(p)h==   pyq/Aq-1k(p .) qAn=k) = p1.(k p1-Aq=nk);        par récurrence, on obtient: p(kqAk) = (1-α)q-n.p(An). =n
 Il en découle la probabilité pour qu'il ne fume plus à partir du jour n (avec Beppo-Levi): p(Ankq )  = m+ilp (k=nqAk) = 0, k  et celle pour qu'il s'arrête définitivement de fumer un jour: p(n knAk (!).) = 0
Unevariable aléatoire surΩabrégé v.a.) est une application mesurable de(en Ωdans K =R,C,Rdou une de leurs parties (v.a. réelle; complexe; vecteur aléatoire de dimension d). Une v.a. à valeurs dans un ensemble fini ou dénombrable est ditediscrète.
On décrit une variable aléatoire X :Ω K par les p({ωΩ, X(ω)A}) = p(X-1(A)) pour A borelien de K ; on note: p(X-1(A)) = p(XA) = pX(A)
pX(c'est une probabilité sur K), aussi appelée loi de Xest la mesure image de p par X .
Pour une v.a. discrète à valeurs dans un ensemble I (fini ou dénombrable), on note p(X-1({k})) = p(X=k) = pk pour kI , et ainsi: pX=pk.δk, oùδkdésigne la mesure de Dirac en k. k I
Si une v.a. X a pour loi la probabilité uniforme sur un ensembleΔ, on dit que X suit laloi uniformesurΔ.
On introduit une v.a. X sur un espace probabiliséΩ pour mesurer le résultat d'une expérience aléatoire (expérience renouvelable, en principe sinon en pratique, et qui, renouvelée dans des conditions "identiques", ne donne pas à chaque essai le même résultat). Pour étudier une expérience aléatoire, onmodélisela situation en attribuant par exemple à certaines v.a. des lois connues, ce qui permet ensuite de faire des prévisions théoriques sur les résultats de l'expérience. Toute modélisation exige un choix; un modèle valide est un modèle qui, confronté avec les données recueillies lors de l'expérience, fournit des résultats satisfaisants (c'est l'objet de lastatistique).
Exemples:  Le lancer de trois dés non truqués peut se modéliser en considérant que les dés sont discernables et que le résultat (a1,a2,a3) obtenu suit la loi uniforme sur {1,…,6}3.
Déterminons les lois des v.a. X = min(a1,a2,a3) et Y = max(a1,a2,a3) en donnant la loi de (X,Y): Pour 1i p(X=i,Y=i)6 : = p( (a1,a2,a3 )i)i,i,6 1 =( = )3 . Pour 1i < j trop formaliser):6 (sans 3 3 (X=i, Y=j) = k (1=ak= i , autres = j ) k1=( ak= j , autres = i ) 3   k=1( i < ak et la réunion est disjointe; il suit: ,< j , {autres} = {i,j} ) p( X=i,Y=j) = 3. 6131j-i-61 .j-i3    + 3. 63 + 3.2. 63 =
Ce sont bien sûr les seuls événements de probabilités non nulles. Nous pouvons donner maintenant les lois de X et Y (à valeurs dans {1,…,6}): p(X=i) = j16ji=X(p 6 = )j=Y,=ii-63  =   3 i2 39i +127216  .-    63 j= +i+1 p(Y=j) = ii,X=j)Y= 1 =61=(p j3 j-i 3j + j-123j +1216 . -=  i=1 36
Remarques:  La loi d’un couple (X,Y) de v.a. fournit fournit celles de X et Y, et d'une façon générale celle de ϕ(X,Y) pour toute fonction mesurableϕ, avec: p(ϕ(X,Y)A ) = p(X,Y)(ϕ-1(A) ) =dp(X,Y)=dp(X,Y)(x,y) . ϕ-1(A)ϕ(x,y)A  Si X1,…,Xnsont n v.a.indépendanteset équidistribuées, on peut obtenir facilement les lois des v.a. S = sup(X1,…,Xn) et I = inf(X1,…,Xn) à l’aide de lafonction de répartitioncommune aux Xi (voir après).
 
 
Fouad et Taoufiq projettent de se rencontrer entre 0h et 1h, chacun d'eux ayant promis d'attendre l'autre 10 mn (ni plus, ni moins). Si l'on considère que (X,Y) = (heure d'arrivée de Fouad, heure d'arrivée de Taoufiq) suit la loi uniforme p sur [0,1]2probabilité qu'ils se rencontrent effectivement est:, la Y|1/6) = p(X,Y)(A) =λ(2)(A) p1= p( |X-λ(2)([0,1]2) =λ(2)(A) , où A = {(x,y)[0,1]2, |x-y|1/6}, soit donc (dessin) :  p11 - (5/6)2.,3 11 =  630  #   =  La loi de Z = |X-Y| est décrite par: p(Za) = 1- (1-a)2= 2a-a2 sur [0,1] (loi à densité (cf paragr. 2). Si l'heure d'arrivée x de Fouad est fixée et si Y suit la loi uniforme p sur [0,1], la proba.pdevient: p2= p( |x-Y|1/6) =λ(1)(Ix) , où Ix= [0,1] obtient:[x-1/6,x+1/6] ; on  si [  , 0] 61:   Ix= [0 , x+1 1 x 6 ];p2 = x ; + 6 1 1 1  x si , 6 [  :  ] 65Ix 6;]+  x  [ = x ,16- p2  ;= 3  x si   ]I: 56[  1 , x;, 61] 1 [ =  - xp2  - x   .= 76 Dans ces mêmes dernières conditions, la probabilité p3d’une rencontre sachant que Fouad ne trouve personne en arrivant dévient, en notant Jxn'est pas là à l'heure x] (ie.: déjàl'événement: [Taoufiq parti, ou pas encore arrivé): p3 = p( |x-Y|1/6 / Jxp = )I(p x(Jx)Jx) ; on obtient cette fois:  si 1 1 1 = x[ 0 , 6 ] : Jx I= ]x,1];xJx ]x,x+6];p3  ;= 6(1-x) 1 1 1  si x [61 6 ]  , 5 : Jx= [0,x-6[]x,1]; IxJx= ]x,x+6];p3  ;= 5  x siJ:    [ 56 , 1 ]x16x-0, [ =[ ]x,1]; IxJx= ]x,1];p3 6(1-= .)x 5 On note T la v.a. à valeurs dansNdonnant en nombre d'heures la durée de vie d'une ampoule électrique (arrondie à l'heure inférieure ; on considére que p(T =) = 0). On suppose que l'ampoule n'a pas de durée de vie limite fixée, i.e. :n N, p(Tn) > 0. Si l'ampoule a tenu bon jusqu'à l'heure n, on noteθnla probabilité de la voir griller avant l'heure n+1 : θ= p(T=n / Tn). n  La suite (θnl'ampoule. Donnons la loi de T à l'aide des) est le taux de panne de θn: Pour n entier, il vient: p(Tn) = p(T=n) + p(Tn+1) = p(T=n/Tn).p(Tn) + p(Tn+1), n-1  =(1-θk) (n1) (1) d'où pour n T p(1 (réc): k=0n ) n-1 puis, pour n = p(T1: p(T=n)n) - p(Tn+1) =θn. k(1-0=θk) , avec p(T=0) =θo. Le résultat (1) et l'hypothèse indiquent que la suite (θn[0,1[ ; En outre, on a, par) est à valeurs dans ++convergence décroissante: p( n=T(0 0 = ) )nn= -(10=θn) ; +Le produit infini est donc divergent, et par suite: n=0θn= +(série et produit ont même nature). +Soit réciproquement une suite (θn) à valeurs dans [0,1[ telle quen=0θn= +. On vérifie alors qu'en n-1 posant po=θoet pn=θn.k(-10=θk) pour n1, on définit par p(T=n) = pnune v.a. T à valeurs dansN +n-1 n de taux de ifie epanne (θnn=0qur   )(r1é-v(θn) = 0 et écrire pn  =k -(10=θk) k --1(=0θk constater) pour +quepn=1 ; prouver n=0ensuite : [n0 : p(Tn) > 0] puis [n0 : p(T=n/Tn) =θn] . Dans le cas où (θn) est constante ( =θ [0,1[ ) , la loi de T est donnée par: p(T=0) =θ;n1 , p(T=n) =θ(1-θ)n.
Si X :Ω  K est une v.a. etϕ application mesurable de K dans uneC telle que la v.a. complexeϕoX (notée aussiϕ(X)) soit intégrable surΩ, on note E(ϕoX) =ϕoX.dp =ϕ.dpX. ΩK En particulier, si X est une v.a. complexe intégrable surΩ, la valeur moyenne de X surΩest appeléeespérance de X, et notée E(X), ou X (s'il n'y a pas d'ambiguité): XL1(Ω) : E(X) =X=X.dp =t.dpX(t). ΩC Si A est une partie mesurable de K : p(XA) = E(1AoX). Deux v.a. X et Y définies surΩet presque partout égales (dans le langage des probabilités, on dit plutôt: "presque sûrement" , en abrégé p.s.), suivent donc la même loi (car pour A mesurable dans K, 1AoX et 1AoY sont pp égales). La réciproque est évidemment fausse. (par exemple: on lance une pièce de monnaie non truquée et on note X la v.a. qui vaut 1 si le résultat est pile, et 0 sinon: pX= p1-X2 ( = 1δ0+δ1) et pourtant X et 1-X sont partout distinctes).
La connaissance de la seule moyenne d'une v.a. détermine assez peu celle-ci. Pour mesurer l'éparpillement des masses autour du centre de gravité, on introduit les moments de la v.a. lorsqu'ils existent. On notera, du fait que p est une mesure finie, les inclusions: Lq(Ω)Lp(Ω)…L1(Ω q) , pourp1. ( car |X|p 1 + |X|qpour qp )
Si XLp(Ω;R) pour un p[1,+[ , on dit que X est d'ordre p; on définit pour k[1,p] le moment d'ordre k, le moment absolu d'ordre k, le moment centré d'ordre k et le moment absolu centré d'ordre k de X (ils dépendent uniquement de la loi de X): E(Xk) =Xk.dp =tk.dpX(t) ; E(|X|k) =|X|k.dp =| t |k.dpX(t) ; ΩRΩR mk= E((X- X )k M) ;k= E(|X- X |k).
Le moment (absolu) centré d’ordre 2 :m2= M2 X )= E( (X-2) est noté V(X) et appelé variance de X; sa racine  carrée positiveσ(X) est l’écart-type de X.
La linéarité de E fournit :V(X) = E(X2) – E(X)2 a donc l'inégalité E(X) (on2 E(X2)); V(λX) =λ2V(X) (λ∈R) ; V(X-a) = V(X) (aR).
La variance V(X) est nulle si et seulement si X est presque sûrement égale à sa moyenne. Hormis ce cas particulier, la variableXσ-E(X)()Xcentrée réduite , i.e. de moyenne nulle et de variance égale à 1.est
L'éparpillement des valeurs d'une v.a. réelle X d'ordre p autour de sa valeur moyenne est mesuré par l'inégalité:
Prop 1. p( |X-r > 0 : X |r )r M pp. Pour pr )σ2 = 2 : p( |X- X | r2 oùσest l'écart-type de X (inégalité de Bienaymé-Chebychev).
(pour Y réelle positive intégrable etα> 0, on a : E(Y) =Ydp Y.dp r. r.p(Ydp = α), i.e. ΩY αY α p(Y α)E(αil suffit alors d’appliquer ceci à Y = |X-E(X)|Y) (inégalité de Markov) ; petα= rp. ----------------------------------------------------------------------------------------------------------------------------------------Annexe: corrélation linéaire. ----------------------------------------------------------------------------------------------------------------------------------------
2) LOIS DISCRETES ; LOIS A DENSITE
a) Lois discrètes:
Soit X une v.a. à valeurs dans I, partie finie ou dénombrable deR, et pk= p(X=k) pour kI : pX = kSiϕ: I Ca, lorsque cela a un sens :est une application (automatiquement mesurable ici), on
E(ϕ(X)) =ϕ.dpX = kϕI()kp.k . I en particulier :   E(X) = kkI.pk; E(Xn= k )Ikn.pk.
Ipk.δk.
Exemple: On lance une pièce ayant la probabilité p de tomber sur « pile » ; soit X la variable valant 1 si le résultat est pile, et 0 sinon: p(X=0) =1-p ; p(X=1) = p; la loi pXest appeléeloi de Bernoulli B(p)de paramètre p. On obtient immédiatement: E(X) = p ; V(X) = p(1-p).
b) Lois à densité dans un intervalle I deR:
Soit fL+(I) telle quef.dλ= 1 (λdésigne la mesure de Lebesgue sur I ). Une v.a. X à valeurs dans I suit la loi I à densité f sur I si pX= f.λ.(On dit aussi que X est absolument continue).
Pour AI mesurable, on a alors:
p(X
= A) = pX(A)f.dλ A
(d’où l’interprétation de la probabilité que X soit comprise entre deux réels a et b par une "aire sous la courbe de
f entre x = a et x = b"). Cette formule estcaractéristiqued'une variable à densité f.
Si X est absolument continue, on a p(X=x) = 0 pour tout xI.
Pourϕmesurable de I dansC, il vient, si cela a un sens :
En particulier : E(X) =x.f(x).dx , …. I Exemples:
Loi uniforme U(a,b) (a < b):
E(ϕ(X)) =ϕ.dpX=ϕ.f.dλ I I
On choisit « au hasard » un réel x entre a et b ; le résultat est décrit par la variable X. Pour A mesurable dans [a,b]: p(XA) =λb)A(= a-b1  .-adx : suit la loi U(a,b) à densité X   a-b1 = ,a[ rus .b]f(x) A b On obtient E(X) =xdx, e  t(V  =+a2b1b)2 =X)a- (2. b-a. a
1 b-a
a
densi té de U(a,b)
b
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents