Probabilités et statistique

De
Publié par

ProbabilitésetStatistiquesVersion 2.1 Jean Louis POSSMai 20032Table des matières1 Notion de probabilité 71.1 Événements. Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3 Probabilités conditionnelles. Événements indépendants . . . . . . . . . . . . . . . . 91.4 Formule de BAYES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112 Variables aléatoires discrètes 132.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132.2 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142.3 Couple aléatoire. Variables indépendantes . . . . . . . . . . . . . . . . . . . . . . . 152.3.1 Loi d’un couple aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152.3.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . 162.4 Espérance mathématique. Variance. Coefficient de corrélation . . . . . . . . . . . . 172.4.1 Variable aléatoire à une dimension . . . . . . . . . . . . . . . . . . . . . . . 172.4.2 Vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212.5 Inégalité de BIENAYMÉ-TCHEBYCHEV . . . . . . . . . . . . . . . . . . . . . . . . 212.6 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222.7 Lois de probabilité discrètes classiques . . . . . . . . . . ...
Publié le : samedi 24 septembre 2011
Lecture(s) : 118
Nombre de pages : 162
Voir plus Voir moins

Probabilités
et
Statistiques
Version 2.1 Jean Louis POSS
Mai 20032Table des matières
1 Notion de probabilité 7
1.1 Événements. Espace probabilisable . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.2 Probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3 Probabilités conditionnelles. Événements indépendants . . . . . . . . . . . . . . . . 9
1.4 Formule de BAYES . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2 Variables aléatoires discrètes 13
2.1 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2 Loi d’une variable aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
2.3 Couple aléatoire. Variables indépendantes . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.1 Loi d’un couple aléatoire . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3.2 Variables aléatoires . . . . . . . . . . . . . . . . . . . . . . . 16
2.4 Espérance mathématique. Variance. Coefficient de corrélation . . . . . . . . . . . . 17
2.4.1 Variable aléatoire à une dimension . . . . . . . . . . . . . . . . . . . . . . . 17
2.4.2 Vecteur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Inégalité de BIENAYMÉ-TCHEBYCHEV . . . . . . . . . . . . . . . . . . . . . . . . 21
2.6 Fonction génératrice . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7 Lois de probabilité discrètes classiques . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.1 Loi binomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.7.2 Loi multinomiale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.7.3 Loi hypergéométrique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.7.4 Loi géométrique (ou loi de PASCAL) . . . . . . . . . . . . . . . . . . . . . . 28
2.7.5 Loi de POISSON . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3 Variables aléatoires absolument continues 33
3.1 Variable et vecteur aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2 Fonction de répartition. Densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.1 Variable aléatoire à une dimension . . . . . . . . . . . . . . . . . . . . . . . 33
3.2.2 Vecteurs aléatoires . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
3.3 Espérance, variance, coefficient de corrélation . . . . . . . . . . . . . . . . . . . . . 38
3.4 Détermination de la densité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.5 Fonction caractéristique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
3.6 Lois de probabilités continues classiques . . . . . . . . . . . . . . . . . . . . . . . . 44
3.6.1 Loi uniforme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.6.2 Loi exponentielle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
34
3.6.3 Loi normale (ou loi de LAPLACE-GAUSS) . . . . . . . . . . . . . . . . . . . 47
3.6.4 Loi gamma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.6.5 Loi bêta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.6.6 Loi du khi deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.6.7 Loi de STUDENT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.6.8 Loi de FISHER-SNEDECOR . . . . . . . . . . . . . . . . . . . . . . . . . . 62
4 Convergences stochastiques 65
4.1 Différents types de convergence . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1.1 Convergence en loi . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.1.2 Convergence en probabilité . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.2 Loi faible des grands nombres . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.3 Théorème central limit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
4.4 Application : approximations de la loi binomiale . . . . . . . . . . . . . . . . . . . . 68
4.4.1 Approximation normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
4.4.2 de POISSON . . . . . . . . . . . . . . . . . . . . . . . . . . 68
5 Chaînes de MARKOV 71
5.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.2 Définition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
5.3 Méthodes algébriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.1 Relation fondamentale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.2 Matrices stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
5.3.3 Comportement asymptotique . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.4 Classification des états . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
5.4.2 Périodicité . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
5.4.3 Récurrence . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6 Estimation 87
6.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.2 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.2.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.2.2 Exemples fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
6.2.3 Maximum de vraisemblance . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.3 Estimation par intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.3.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
6.3.2 Exemples fondamentaux . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
6.4 Estimation d’une proportion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.4.1 Estimation ponctuelle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.4.2 par intervalle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
6.5 Comparaison de moyennes et de variances . . . . . . . . . . . . . . . . . . . . . . . 99
6.5.1 Intervalle de confiance de la différence de deux moyennes . . . . . . . . . . 99
6.5.2 Intervalle de du rapport de deux variances . . . . . . . . . . . . . 102
6.6 Méthode du « Bootstrap » . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1035
7 Tests 105
7.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.2 Tests paramétriques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.2.1 Test de la moyenne pour une loi normale (σ connu) . . . . . . . . . . . . . . 106
7.2.2 Test de la moyenne pour une loi (σ inconnu) . . . . . . . . . . . . . 109
7.2.3 Test de l’écart type pour une loi normale (m inconnue) . . . . . . . . . . . . 109
7.2.4 Comparaison de proportions . . . . . . . . . . . . . . . . . . . . . . . . . . 110
7.2.5 de deux moyennes (observations appariées) . . . . . . . . . . . 111
7.2.6 de plusieurs moyennes (observations non appariées) – analyse
de variance pour un facteur . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
7.2.7 Probabilité critique . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
7.3 Test du khi deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
8 Régression linéaire 119
8.1 Introduction : lignes de régression . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.1.1 Cas discret . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.1.2 Cas continu . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 119
8.2 Régression linéaire simple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
8.2.1 Estimation des paramètres par les moindres carrés . . . . . . . . . . . . . . 121
8.2.2 Estimation des paramètres par le maximum de vraisemblance . . . . . . . . 126
8.3 Régression linéaire multiple . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
8.3.1 Estimation des paramètres par les moindres carrés . . . . . . . . . . . . . . 135
8.3.2 des par le maximum de vraisemblance . . . . . . . . 139
A Dénombrements 143
A.1 Suites. Arrangements sans répétition . . . . . . . . . . . . . . . . . . . . . . . . . . 143
A.2 Combinaisons sans répétition . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
A.3 Arrangements avec . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
B Fonctions eulériennes 145
C Tables numériques 149
C.1 Loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
C.2 Loi du khi deux . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
C.3 Loi de STUDENT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
C.4 Loi de FISHER-SNEDECOR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
Bibliographie 159
Index 1616Chapitre 1
Notion de probabilité
1.1 Événements. Espace probabilisable
Le résultat d’une expérience aléatoire (épreuve) est un événement. . . imprévisible : nous supposerons
qu’il appartient à un ensemble Ω appelé ensemble des issues ou univers. Dans le cas où les résultats
possibles sont en nombre fini nous noterons Ω = {ω , ω ,..., ω } où les ω représentent les1 2 n i
différentes issues.
Exemple élémentaire : on jette une pièce de monnaie ; on choisit Ω = {ω , ω } oùω représente1 2 1
l’événement « le côté visible est pile » etω représente l’événement « le côté visible est face ». En fait2
ce choix présente une part d’arbitraire : nous aurions pu considérer le cas où la pièce reste en équilibre
sur la tranche ou bien nous intéresser au temps mis par la pièce pour s’immobiliser. La même épreuve
peut donner lieu à des modélisations diverses suivant le phénomène étudié.
Un événementA est une partie deΩ (A⊂ Ω ouA∈P(Ω)) ; on dira que l’événementA est réalisé si
l’issueω de l’épreuve appartient àA (ω ∈A).i i
Afin de pouvoir attribuer une probabilité aux événements il est nécessaire de munir leur ensemble
d’une structure appropriée.
Définition 1. Une tribuE d’événements est une partie deP(Ω) qui vérifie :
– Ω appartient àE.
– ∀A∈E, A = Ω\A∈E.
2– ∀(A, B)∈E , A∪B∈E etA∩B∈E.
[ \
– ∀I ⊂N, (∀i∈I, A ∈E)⇒ A ∈E et A ∈E.i i i
i∈I i∈I
Dans le cas où Ω est fini ou dénombrable on pourra toujours choisirE =P(Ω) ; lorsque Ω n’est pas
dénombrable on choisira pourE une partie stricte deP(Ω).
Un peu de vocabulaire :
– l’universΩ est également appelé événement certain puisqu’il contient toujours, par définition, l’is
sue de l’épreuve ;
– la partie vide∅ = Ω est l’événement impossible ;
– A est dit événement contraire deA ;
– lorsqueA⊂B on dit queA impliqueB ;
– A∪B se lit « A ou B » etA∩B se lit « A et B » ;
– lorsqueA∩B =∅ on dit que les événementsA etB sont incompatibles.6
8 Chapitre 1 – Notion de probabilité
Définition 2. Le couple(Ω, E) est un espace probabilisable.
1.2 Probabilité
Définition 3. Soit(Ω, E) un espace probabilisable. Une probabilité est une applicationP deE dans
l’intervalle[0, 1] telle que :
–P(Ω) = 1,
2– ∀(A, B)∈E , A∩B =∅ =⇒P(A∪B) =P(A)+P(B),
[ X
– ∀i∈I ⊂N, A ∈E et(i =j⇒A ∩A =∅) =⇒P A = P(A ).i i j i i
i∈I i∈I
Définition 4. (Ω, E,P) est un espace probabilisé.
Théorème 1. On a :
1. Probabilité du contraire
∀A∈E,P(A) = 1−P(A).
2. Monotonie
2∀(A, B)∈E , A⊂B⇒P(A)≤P(B).
3. Théorème des « probabilités totales »
2∀(A, B)∈E ,P(A∪B) =P(A)+P(B)−P(A∩B).
4. Généralisation
n n n n [ X X X
P A = P(A )− P(A ∩A )i i i j
i=1 i=1 i=1 j=i+1
n n n n X X X \
n−1
+ P(A ∩A ∩A )−···+(−1) P A .i j ik
i=1 j=i+1k=j+1 i=1
(Les démonstrations sont rédigées en couleur bleue.)
1. (A∪A = Ω etA∩A =∅)⇒P(A)+P(A) = 1.

2. B =A∪(B\A) etA∩(B\A) =∅ ⇒P(B) =P(A)+P(B\A).
| {z }
≥0
3. On écrit les réunions disjointes :A∪B = (A\B)∪(A∩B)∪(B\A),A = (A\B)∪(A∩B)
etB = (B\A)∪(A∩B).
4. Récurrence (pénible) surn.
Cas particulier : définition d’une probabilité sur un ensemble dénombrable.
SoitΩ ={ω} un univers dénombrable ; on poseE =P(Ω) :(Ω, E) est un espace probabilisable.i i∈N
∞X
Pour définir une probabilité il suffit de se donner les probabilitésP({ω}) telles que P({ω}) = 1 ;i i
i=1X
on a alors pour tout événementA :P(A) = P({ω}).i
ω ∈Ai
La vérification est immédiate.1.2 – Probabilité 9
Cette méthode s’applique en particulier lorsqueΩ est fini et les issuesω équiprobables :i
P({ω }) =P({ω }) =··· =P({ω }).1 2 n
On obtient alors :
nombre d’issues favorables àA
ÉQUIPROBABILITÉ =⇒P(A) = ·
nombre d’issues possibles
Les dénombrements des issues intervenant au numérateur et au dénominateur peuvent nécessiter des
théorèmes rappelés en annexe A (page 143).
Théorème 2. Soit(A ) une suite monotone d’événements ; on a :n n∈N
P(limA ) = limP(A )n n
S∞
1. Supposons que la suite (A ) est croissante et que A = ∅ ; on a : limA = A .n n∈N 0 n ii=0
Alors :
∞ ∞ ∞ [ [ X
P(limA ) = P A =P (A \A ) = P(A \A )n i i i−1 i i−1
i=1 i=1 i=1
n nX X
= lim P(A \A ) = lim P(A )−P(A ) = limP(A ).i i−1 i i−1 n
i=1 i=1
T∞
2. Supposons que la suite(A ) est décroissante ; on a :limA = A .n n∈N n ii=0
La suite(A \A ) est croissante.0 n n∈N

P(A )−P(limA ) = P(A \limA ) =P lim(A \A ) = limP(A \A )0 n 0 n 0 n 0 n

= limP(A )−P(A ) =P(A )−limP(A ).0 n 0 n
Donc :
P(limA ) = limP(A ).n n
1.3 Probabilités conditionnelles. Événements indépendants
Le fait de savoir qu’un événement s’est produit peut modifier la probabilité que nous attachons à un
autre événement.
Exemple : jet de deux dés réguliers. On choisit comme univers l’ensemble des couples de résultats :
Ω = {(i, j)/1 ≤ i, j ≤ 6} oùi est le nombre de points du premier dé etj le nombre de points
du deuxième ; il y a donc 36 issues (« événements élémentaires ») possibles. Considérons les deux
événements :
– A = « la somme des points est impaire »,
– B = « la des points est supérieure ou égale à 7 ».10 Chapitre 1 – Notion de probabilité
18 21
On a, de façon immédiate :P(A) = etP(B) = ·36 36
Quelle est la probabilité de l’événement : « la somme des points est supérieure ou égale à 7 sachant
qu’elle est impaire » ?
Le nombre de cas possibles est égal au nombre de couples donnant une somme impaire, c’est à dire
18. Parmi ces cas, qui sont équiprobables, il y en a 12 qui sont favorables àB ; la probabilité
12 24cherchée est donc :P(B/A) = = · La probabilité attachée àB est plus forte si l’on sait queA
18 36
s’est produit.
12/36 P(A∩B)
On remarque sur cet exemple que :P(B/A) = = ·18/36 P(A)
Théorème 3. Soit(Ω, E,P) un espace probabilisé et soitA un événement de probabilité non nulle.
P(A∩B)
L’applicationP définie surE par :P (B) = est une probabilité sur l’espace probabili A A
P(A)
sable(Ω, E).
On vérifie les axiomes d’une probabilité :
P(A∩Ω) P(A)
1.P (Ω) = = = 1.A
P(A) P(A)

P A∩(B∪C) P A∩B)∪(A∩C)
22. ∀(B, C)∈E , B∩C =∅ =⇒P (B∪C) = = ·A
P(A) P(A)
Or :B∩C =∅⇒ (A∩B)∩(A∩C) =A∩(B∩C) =∅ ; donc :
P(A∩B)+P(A∩C)
P (B∪C) = =P (B)+P (C).A A A
P(A)
3. On généralise sans peine la démonstration précédente.
Définition 5. La probabilitéP est appelée probabilité conditionnelle sachant queA s’est produit.A
On peut noterP (B) ou bienP(B/A) la probabilité deB sachant queA s’est produit.A
Théorème 4.
2∀(A, B)∈E ,P(A∩B) =P(A)P(B/A) =P(B)P(A/B).
La première égalité vient immédiatement de la définition de la probabilité conditionnelle, la deuxième
résulte de la symétrie de l’intersection.
Ce résultat peut être généralisé :
Théorème 5.
n \
P A =P(A )P (A )P (A )...P (A ).i 1 A 2 A ∩A 3 A ∩...∩A n1 1 2 1 n−1
i=1
Récurrence immédiate surn.
La probabilité de réalisation de l’événement B ne dépend pas de la réalisation de l’événement A
lorsqueP (B) =P(B). La formule du théorème 4 se simplifie et on obtient :P(A∩B) =P(A)P(B)A
et doncP (A) =P(A). La probabilité deA ne dépend pas de la réalisation deB.B
On est amené à poser :
Définition 6. Les événementsA etB sont dits (stochastiquement) indépendants si
P(A∩B) =P(A)P(B).

Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.