Cours sur les vecteurs aléatoire

Cours sur les vecteurs aléatoire

Documents
10 pages
Lire
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

Chapter 5Vecteur al´eatoire ; ind´ependance entrevariables al´eatoiresSommairen5.1 Vecteur al´eatoire deR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505.1.1 Rappels et compl´ements sur les familles sommables de nombres positifs . . . . . . . . . . 505.1.2 D´efinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 505.2 Calcul des lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 525.3 Th´eor`eme de transfert pour un vecteur al´eatoire discret . . . . . . . . . . . . . . . . . . . . . . . 525.4 Esp´erance et covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535.5 Ind´ependance de deux variables al´eatoires : d´efinitions et crit`eres . . . . . . . . . . . . . . . . . . 555.6 Ind´ependance et covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575.7 Ind´ependance de plusieurs variables al´eatoires discr`etes . . . . . . . . . . . . . . . . . . . . . . . . 58´Objectifs : • Etendre la notion de variable al´eatoire r´eelle `a celle de vecteur al´eatoire.´• Etendre la notion d’ind´ependance introduite pour les ´ev´enements aux variables al´eatoires.Mots-cl´es : • vecteur al´eatoire discret, loi d’un vecteur al´eatoire discret, lois marginales, loi conjointe.• covariance, coefficient de corr´elation lin´eaire, matrice de covariance.• ind´ependance.Outils : • ...

Sujets

Informations

Publié par
Nombre de visites sur la page 47
Langue Français
Signaler un problème

Chapter 5
Vecteur al´eatoire ; ind´ependance entre
variables al´eatoires
Sommaire
n5.1 Vecteur al´eatoire deR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.1.1 Rappels et compl´ements sur les familles sommables de nombres positifs . . . . . . . . . . 50
5.1.2 D´efinitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
5.2 Calcul des lois marginales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.3 Th´eor`eme de transfert pour un vecteur al´eatoire discret . . . . . . . . . . . . . . . . . . . . . . . 52
5.4 Esp´erance et covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
5.5 Ind´ependance de deux variables al´eatoires : d´efinitions et crit`eres . . . . . . . . . . . . . . . . . . 55
5.6 Ind´ependance et covariance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
5.7 Ind´ependance de plusieurs variables al´eatoires discr`etes . . . . . . . . . . . . . . . . . . . . . . . . 58
´Objectifs : • Etendre la notion de variable al´eatoire r´eelle `a celle de vecteur al´eatoire.
´• Etendre la notion d’ind´ependance introduite pour les ´ev´enements aux variables al´eatoires.
Mots-cl´es : • vecteur al´eatoire discret, loi d’un vecteur al´eatoire discret, lois marginales, loi conjointe.
• covariance, coefficient de corr´elation lin´eaire, matrice de covariance.
• ind´ependance.
Outils : • Th´eor`eme de transfert.
• diff´erents crit`eres d’ind´ependance.
• variance d’une somme de variables al´eatoires ind´ependantes, covariance de variables al´eatoires ind´ependantes.
Nous allons voir dans ce chapitre que presque tout ce que l’on a construit pour une variable al´eatoire r´eelle se
transpose ais´ement au cas d’un vecteur al´eatoire. Les principales diff´erences sont
• la notion de lois marginales
• la notion de covariance, qui essaie de traduire un certain lien entre les coordonn´ees du vecteur al´eatoire.n5.1 Vecteur al´eatoire de R
5.1.1 Rappels et compl´ements sur les familles sommables de nombres positifs
D´efinition 5.1 Somme d’une famille quelconque de nombres positifs
Soit I un ensemble ; soit (p ) une famille de nombres r´eels positifs ou nuls.i i∈I X
La somme de cette famille, not´ee p est l’´el´ement de [0,∞] d´efini par :i
i∈IX X
p = sup pi j
J⊂Ii∈I j∈J|J|<∞
Remarque : La d´efinition est valable dans le cas ou` I n’est pas d´enombrable, mais les applications en probabilit´e
concernent essentiellement le cas ou` I est d´enombrable.
Proposition 5.2 Sommation par paquets des s´eries a` termes postifs
Soit (p ) une famille de nombres r´eels positifs ou nuls, et soit (I ) une partition de l’ensemble des indicesi i∈I α α∈A
I. Alors X X X
p = pi i
i∈I α∈Ai∈Iα X X X
D´emonstration : Premi`ere ´etape : on montre l’in´egalit´e p ≤ p .i i
i∈I α∈Ai∈IαX X X
Pour toute partie finie J ⊂ I, p = p puisque les sommes en jeu ne comportent qu’unj j
j∈J α∈Aj∈I ∩Jα X X
nombre fini de termes. Cette derni`ere somme est plus petite que p et en prenant le sup suri
α∈Ai∈Iα
toutes les parties finies J ⊂ I, on obtient l’in´egalit´e voulue. X XX
Deuxi`eme ´etape (assez d´elicate `a ´ecrire) : on montre par r´ecurrence l’in´egalit´e p ≥ pi i
i∈I α∈Ai∈Iα
lorsque A est un ensemble fini.
Derni`ere ´etape : on montre l’in´egalit´e pr´ec´edente dans le cas ou` A est un ensemble quelconque.X X X X
Pour toute partie finie B de A, on a : p = p ≤ p et on prend le sup sur toutesi i i
S
α∈Bi∈I i∈Iα i∈ Iαα∈B
les parties finies B de A.
Un corollaire utile en pratique est le th´eor`eme d’interversion des indices de sommation :
Proposition 5.3 Th´eor`eme de Tonelli pour les s´eries
Soit (p ) une famille de nombres r´eels positifs ou nuls. Alorsi,j (i,j)∈I×J XX XX
p = pi,j i,j
i∈I j∈J j∈J i∈I
D´emonstration : On applique la proposition de sommation par paquets `a l’ensemble d’indices
2I =N `a la partition ({α}×N) et `a la partition (N×{α}) .α∈N α∈N

5.1.2 D´efinitions
D´efinition 5.4 Soit (Ω,F,P) un espace de probabilit´e. Un vecteur al´eatoire, d´efini sur (Ω,F,P), est une appli-
n ncation mesurable de (Ω,F) dans R (muni de la tribu bor´elienne B(R )). Ses coordonn´ees forment une famille de
n variables al´eatoires.
Remarque : On ne consid`erera ici que des vecteurs al´eatoires Z discrets, c’est-`a-dire tels que Z(Ω) soit un
nsous-ensemble fini ou d´enombrable deR .
50BExemple : Je lance deux d´es´equilibr´es et je note X et Y les r´esultats obtenus. Alors (X,Y), (X,X), ou encore
2(X,X +Y) sont des vecteurs al´eatoires discrets a` valeurs dansR .
D´efinition 5.5 Soit Z, un vecteur al´eatoire discret d´efini sur un espace de probabilit´e (Ω,F,P), a` valeurs dans
n
R . La loi P de Z = (Z ,Z ,...,Z ) est une probabilit´e sur l’ensemble Z(Ω) des valeurs prises par Z. Pour laZ 1 2 n
d´ecrire, on donne :
• l’ensemble Z(Ω),
• pour tout z = (z ,...,z ), on donne P (z) = P(Z = z) = P(Z = z ,...,Z = z ) = P({Z = z }∩···∩1 n Z 1 1 n n 1 1
{Z = z }).n n
(Z ) sont des variables al´eatoires r´eelles, leurs n lois sont appel´ees lois marginales de Z. La loi P de Z esti 1≤i≤n Z
appel´ee loi conjointe des n variables al´eatoires.
B Exemple : Pr´esentation sous forme de tableau :
Y\X 1 2 3 loi de Y
0 0,1 0,05 0,4 0,55
1 0,15 0,3 0 0,45
loi de X 0,25 0,35 0,4 1
La loi conjointe peut s’´ecrire : 0,1δ +0,05δ +0,4δ +0,15δ +0,3δ ;(1,0) (2,0) (3,0) (1,1) (2,1)
la loi de X, premi`ere loi marginale, est : 0,25δ +0,35δ +0,4δ ;1 2 3
la seconde loi marginale est la loi de Bernoulli de param`etre 0,45.
♣Exercice : Je lance deux d´es´equilibr´eset je note X et Y les r´esultats obtenus. On d´efinit les vecteurs al´eatoires
Z = (X,Y), Z = (X,X) et Z = (X,X +Y). D´eterminer les lois de ces trois vecteurs, et leurs lois marginales.1 2 3
♠ Attention ! Quand on connait la loi d’un vecteur al´eatoire, on peut en d´eduire ses lois marginales, mais
la r´eciproque est fausse. La loi du vecteur comporte plus d’information, dans le sens ou` elle dit comment les
coordonn´ees sont li´ees entre elles.
B Exemple : On lance 5 fois de suite une pi`ece qui tombe sur pile avec probabilit´e p∈ [0,1], on note X – resp.
Y – le nombre de pile – resp. de face – et on d´efinit Z = (X,Y). Alors
5 k 5−kZ(Ω) ={(k,5−k) : k∈{0,...,5}} et∀k∈{0,...,5}, P(Z = (k,5−k)) = p (1−p) .
k
On peut ici encore utiliser les notations avec les masses de Dirac :
5X 5 k 5−kZ ∼ p (1−p) δ .(k,5−k)
k
k=0
Calculons les lois marginales de Z :

5 k 5−kX(Ω) ={0,...,5} et∀k∈{0,...,5}, P(X =k) = p (1−p) donc X ∼ Bin(5,p),k
5 k 5−kY(Ω) ={0,...,5} et∀k∈{0,...,5}, P(X = k) = (1−p) p donc Y ∼ Bin(5,1−p).
k
Remarque : Si on prend, dans l’exemple pr´ec´edent, p = 1/2, on voit que X et Y ont mˆeme loi, et donc les
vecteurs (X,Y) et (X,X) ont les mˆemes lois marginales et pourtant les vecteurs n’ont pas la mˆeme loi (justifier).
515.2 Calcul des lois marginales
2Proposition 5.6 (Calcul des lois marginales pour un vecteur discret a` valeurs dans R ) Soit Z = (Z ,Z ) un1 2
2vecteur al´eatoire discret a` valeurs dans R . On note Z(Ω) l’ensemble des valeurs prises par Z. Alors
• Z (Ω) ={z ∈R :∃z ∈R tel que (z ,z )∈ Z(Ω)}.1 1 2 1 2
• Z (Ω) ={z ∈R :∃z ∈R tel que (z ,z )∈ Z(Ω)}.2 2 1 1 2X
• Pour tout z ∈Z (Ω), P(Z =z ) = P(Z =z ,Z = z ).1 1 1 1 1 1 2 2
z ∈Z (Ω)2 2X
• Pour tout z ∈Z (Ω), P(Z =z ) = P(Z =z ,Z = z ).2 2 2 2 1 1 2 2
z ∈Z (Ω)1 1
D´emonstration : Il s’agit simplement de la formule des probabilit´es totales : la famille ({Z =2
z }) est un syst`eme complet. Donc2 z ∈Z (Ω)2 2
P(Z =z ) = P({Z =z }∩Ω)1 1 1 1 [ = P {Z = z }∩ {Z = z }1 1 2 2
z ∈Z (Ω)2 2 [ = P ({Z = z }∩{Z =z })1 1 2 2
z ∈Z (Ω)2 2X
= P({Z = z }∩{Z = z })1 1 2 2
z ∈Z (Ω)2 2X
= P(Z =z ,Z = z ).1 1 2 2
z ∈Z (Ω)2 2
X
Remarque : Formellement, la premi`ere loi marginale de la loi de (Z ,Z ), P(Z =z ,Z = z )δ ,1 2 1 1 2 2 (z ,z )1 2
(z ,z )∈Z(Ω)1 2X
peut s’´ecrire P(Z = z ,Z = z )δ ; le calcul indiqu´e dans la proposition pr´ec´edente rend compte du1 1 2 2 z1
(z ,z )∈Z(Ω)1 2
regroupement des masses de Dirac identiques.
n♦ En pratique : Plus g´en´eralement, soit X : (Ω,F,P)→R un vecteur al´eatoire discret. On note X ,...,X1 n
ses coordonn´ees, on calcule les lois marginales de la fac¸on suivante. Fixons i∈{1,...,n}.
n−1X (Ω) = {x∈R : ∃(x ,...,x ,x ,...,x )∈R tels que (x ,...,x ,x,x ,...,x )∈X(Ω)}i 1 i−1 i+1 n 1 i−1 i+1 nX XX X
et ∀x∈ X (Ω), P(X =x) = ··· ··· P(X = (x ,...,x ,x,x ,...,x )),i i 1 i−1 i+1 n
x x x x1 i−1 i+1 n
n−1ou` la somme a lieu sur l’ensemble des (x ,...,x ,x ,...,x )∈R tels que (x ,...,x ,x,x ,...,x )∈1 i−1 i+1 n 1 i−1 i+1 n
X(Ω).
5.3 Th´eor`eme de transfert pour un vecteur al´eatoire discret
n nComme dans le cas des variables al´eatoires r´eelles, si Z : (Ω,F)→ (R ,B(R )) est un vecteur al´eatoire discret, le
th´eor`eme de transfert permet de calculerE[h(Z)] :
526
Th´eor`eme 5.7 (th´eor`eme de transfert) Soit (Ω,F,P) un espace de probabilit´e. Soit Z = (Z ,Z ,...,Z ) :1 2 n
n n n(Ω,F)→ (R ,B(R )) un vecteur al´eatoire discret. Soit h :R →R une application (mesurable).X
1. h(Z) est int´egrable si et seulement si |h(z)|P(Z =z)< +∞.
z∈Z(Ω)
2. Dans ce cas, X
E[h(Z)] = h(z)P(Z =z).
z∈Z(Ω)
D´emonstration : Mˆeme d´emonstration que dans le cas des variables al´eatoires.
Remarque : Si la fonction h est a` valeurs positives, on se permettra d’´ecrireE[h(Z)], mˆeme si cette quantit´e estX
infinie ; ainsi, la condition suffisante, |h(z)|P(Z = z) < +∞, pour l’int´egrabilit´e de la v.a. h(Z), pourra
z∈Z(Ω)
toujours s’´ecrire : E|h(Z)| <∞.
♣Exercice : Je lance deux d´es´equilibr´eset je note X et Y les r´esultats obtenus. On d´efinit les vecteurs al´eatoires
Z = (X,Y), Z = (X,X) et Z = (X,X +Y). Calculer E[X(X +Y)] de deux mani`eres : avec le vecteur Z et1 2 3 1
avec le vecteur Z .3
5.4 Esp´erance et covariance
n nD´efinition 5.8 Soit (Ω,F,P) un espace de probabilit´e. Soit X = (X ,X ,...,X ) : (Ω,F) → (R ,B(R )) un1 2 n
vecteur al´eatoire discret. Lorsque les v.a. coordonn´ees du vecteur al´eatoire X sont int´egrables, on note E[X] le
nvecteur de R de composantes les esp´erances des v.a. coordonn´ees :
E[X] = (E[X ],E[X ],...,E[X ]).1 2 n
E[X] s’appelle l’esp´erance du vecteur al´eatoire X.
Remarque : L’esp´erance E[X] du vecteur al´eatoire X d´epend de la loi de X, uniquement au travers des lois
marginales.
Proposition 5.9 (In´egalit´e de Cauchy-Schwarz) Soient X et Y deux variables al´eatoires r´eelles d´efinies sur le
2 2mˆeme espace de probabilit´e (Ω,F,P). Si X et Y sont int´egrables, alors XY est int´egrable et
p
2 2|E[XY]|≤ E[X ]E[Y ].
p
2 2 2Cas d’´egalit´e : |E[XY]| = E[X ]E[Y ] si et seulement s’il existe (λ,μ)∈R non tous deux nuls tels queP({λX+
μY = 0})= 1.
2 2D´emonstration : Montrons d’abord que XY est int´egrable si X et Y le sont.
Remarquons que
2 2 2
0≤ (|X|−|Y|) =X +Y −2XY
2 2Donc 2|XY|≤ X +Y , et la v.a. XY est int´egrable.
2Maintenant, pour λ ∈ R, on consid`ere f(λ) = E[(X +λY) ]. En d´eveloppant et en utilisant la
lin´earit´e de l’esp´erance, on obtient :
2f(λ) = E[(X +λY) ]
2 2 2= E[X ]+2λE[XY]+λ E[Y ].
2• Si E[Y ] = 0, f est un polynome de degr´e 2 en λ, qui est toujours positif ou nul. Donc son
536
6
discriminant est n´egatif ou nul :
p
2 2 2 2 2 2 2 2Δ = 4(E[XY]) −4E[X ]E[Y ]≤ 0 ⇔ (E[XY]) ≤E[X ]E[Y ] ⇔ |E[XY]|≤ E[X ]E[Y ].
2• SiE[Y ] = 0, alors f est un polynome de degr´e au plus 1, qui est toujours positif ou nul : il est donc
constant etE[XY] = 0. L’in´egalit´e est encore vraie.
2 2• Cas d’´egalit´e. Si E(Y ) = 0, alors P(Y = 0) = 1 et on prend λ = 0, μ = 1. Si E(Y ) = 0 etp
E[XY]2 2|E[XY]| = E[X ]E[Y ], alors Δ = 0, et il existe une seule racine double λ =− :0 2E[Y ]
2f(λ ) = 0 c’est-`a-dire,E((X +λ Y) ) = 0.0 0
DoncP({X +λ Y = 0})= 1. 0
Ceci permet de d´efinir :
D´efinition 5.10 Soient X et Y deux variables al´eatoires r´eelles d´efinies sur le mˆeme espace de probabilit´e (Ω,F,P)
et de carr´e int´egrable. On d´efinit la covariance entre X et Y par
Cov(X,Y) =E[(X−EX)(Y −EY)] =E[XY]−E[X]E[Y].
On d´efinit aussi le coefficient de corr´elation :
Cov(X,Y)p pρ = .X,Y
var(X) var(Y)
♦ En pratique : La seule quantit´e nouvelle a` calculer est, en utilisant le th´eor`eme de transfert :
X
E(XY) = xyP((X,Y) = (x,y)).
(x,y)∈(X,Y)(Ω)
Proposition 5.11 Soient X et Y deux variables al´eatoires r´eelles d´efinies sur le mˆeme espace de probabilit´e
(Ω,F,P) et de carr´e int´egrable. Alors,
1. Cov(X,X)= var(X).p p
2. |Cov(X,Y)|≤ var(X) var(Y).
3. |ρ |≤ 1.X,Y
4. var(X +Y) = var(X)+var(Y)+2Cov(X,Y).
D´emonstration : Calcul et in´egalit´e de Cauchy-Schwarz appliqu´ee `a X−EX et Y −EY.
Remarque : Regardons les cas d’´egalit´e|ρ | = 1. Ce sont les cas d’´egalit´edans l’in´egalit´e de Cauchy Schwarz :X,Y
2il existe donc (λ,μ)∈R non tous deux nuls tels queP({λ(X−EX) = μ(Y −EY)}) = 1.
λ λSupposons par exemple μ = 0. Alors Y −EY = (X−EX) et Cov(X,Y) = var(X). D’autre part, var(Y) =
μ μ 2
λ var(X) et donc
μ
λ λvar(X)Cov(X,Y) λμ μ
ρ =p p =q = = signe .X,Y λ2 μλ | |var(X) var(Y) μvar(X)μ
Donc
ρ = 1 ⇔ P({λ(X−EX) = μ(Y −EY)}) = 1 avec λ et μ de mˆemes signes,X,Y
ρ =−1 ⇔ P({λ(X−EX) = μ(Y −EY)}) = 1 avec λ et μ de signes oppos´esX,Y
54Proposition 5.12 La covariance est une forme bilin´eaire sym´etrique positive sur l’espace des v.a. de carr´e
int´egrable : si X, Y, Z sont des variables al´eatoires r´eelles de carr´e int´egrable, alors :
Cov(X,Y) = Cov(Y,X),
Cov(X +Y,Z)= Cov(X,Z)+Cov(Y,Z),
Cov(λX,Y) =λCov(X,Y) pour tout r´eel λ,
Cov(X,X)≥ 0.
Remarque : Par contre, la covariance, n’´etant pas d´efinie positive, n’est pas un produit scalaire.
En effet, Cov(X,a) = 0 si a∈R.
n nD´efinition 5.13 Soit (Ω,F,P) un espace de probabilit´e. Soit X = (X ,X ,...,X ) : (Ω,F) → (R ,B(R )) un1 2 n
vecteur al´eatoire discret. On d´efinit, quand cette quantit´e existe, la matrice de covariance de X :
Γ = (γ ) avec γ = Cov(X ,X ).X i,j 1≤i≤n,1≤j≤n i,j i j
La matrice de covariance est sym´etrique et semi-d´efinie positive.
Remarque: Uneconditionsuffisanted’existencedelamatricedecovarianced’unvecteural´eatoireestl’int´egrabilit´e
des carr´es de ses composantes ; ceci d´ecoule de l’in´egalit´e de Cauchy-Schwarz.
n n nXX X
nRemarque : Pour tout (λ ,...,λ )∈R , le nombre λ Cov(X ,X )λ est la variance de la v.a. λ X ,1 n i i j j i i
i=1 j=1 i=1
il est donc positif et ceci d´emontre que la matrice de covariance, sym´etrique, est semi-d´efinie positive.
♣ Exercice : X et Y d´esignent les r´esultats des lancers de deux d´es ´equilibr´es. Dresser les matrices de covariance
des vecteurs al´eatoires Z = (X,Y), Z = (X,X +Y,X−Y), Z = (X,X +Y).1 2 3
5.5 Ind´ependance de deux variables al´eatoires : d´efinitions et crit`eres
D´efinition 5.14 Soit (Ω,F,P) un espace de probabilit´e ou` sont d´efinies deux variables al´eatoires r´eelles discr`etes
X et Y. Les v.a. X et Y sont ind´ependantes si et seulement si
pour tout x∈X(Ω), pour tout y∈Y(Ω), les ´ev´enements {X =x} et {Y =y} sont ind´ependants ; c’est-a`-dire,
∀x∈X(Ω) ∀y∈Y(Ω) P({X = x}∩{Y = y}) =P({X = x})P({Y = y}). (5.1)
Remarque : L’id´ee est la suivante : quand X et Y sont ind´ependantes, connaˆıtrela valeur prise par Y ne modifie
pas la loi de X : la loi de X sousP et la loi de X sousP , co¨ıncident quel que soit y ;{Y=y}
P({X = x}∩{Y = y}) P({X =x})P({Y =y})
= =P({X =x}).P ({X =x}) ={Y=y}
P({Y =y}) P({Y = y})
Proposition 5.15 Soit (Ω,F,P) un espace de probabilit´e ou` sont d´efinies deux variables al´eatoires r´eelles discr`etes
X et Y. Les v.a. X et Y sont ind´ependantes si et seulement si
∀A⊂X(Ω) ∀B⊂ Y(Ω) P({X ∈A}∩{Y ∈B}) =P(X ∈A)P(Y ∈B). (5.2)
D´emonstration : Il est clair que si (6.2) est satisfaite, alors (6.1) est satisfaite. Il suffit de prendre
A ={x} et B ={y} dans (6.2) pour obtenir (6.1).
R´eciproquement, supposons que X et Y v´erifient (6.1) et montrons (6.2). Soit A ⊂ X(Ω) et
B ⊂ Y(Ω). Remarquons que {X ∈ A}∩{Y ∈ B} ={(X,Y)∈ A×B} et que A×B s’´ecrit comme
55l’union disjointe suivante : [
A×B = {(x,y)}
x∈A,y∈B
Cette union est une union finie ou d´enombrable d’´ev´enements car A×B ⊂ X(Ω)×Y(Ω) qui est fini
ou d´enombrable, les v.a. X et Y ´etant discr`etes.
Donc
P({X ∈A}∩{Y ∈ B}) = P({(X,Y)∈A×B}) [ = P {(X,Y) = (x,y)}
x∈A,y∈BX
= P(X = x,Y = y)
x∈A,y∈BX
= P(X = x)P(Y = y)
x∈A,y∈B   !X X = P(X =x) P(Y = y)
x∈A y∈B
= P(X ∈A)P(Y ∈B).

Proposition 5.16 Soit (Ω,F,P) un espace de probabilit´e ou` sont d´efinies deux variables al´eatoires r´eelles discr`etes
X et Y. Les v.a. X et Y sont ind´ependantes si et seulement si
pour toutes fonctions f et g de R dans R, f(X) et g(Y) sont ind´ependantes. (5.3)
D´emonstration : Il est clair que si (6.3) est satisfaite, alors (6.1) est satisfaite : il suffit de prendre
f(x) =g(x) = x dans (6.3) pour obtenir (6.1).
R´eciproquement, supposons que X et Y v´erifient (6.1) et montrons (6.3). Soient f et g deux
0 0fonctions deR dansR. Notons X = f(X) et Y = g(Y). On veut montrer que
0 0 0 0 0 0 0 0 0 0 0 0∀x ∈X (Ω) ∀y ∈ Y (Ω) P({X =x}∩{Y = y}) =P(X = x )P(Y =y ).
0 0 0 0 0Remarquons que X (Ω) = (f ◦X)(Ω) et Y (Ω) = (g◦Y)(Ω). Soient x ∈ X (Ω) et y ∈Y(Ω) :
0 0 0 −1 0 0 0 0 −1 0{X = x} ={f(X)=x} ={X ∈f ({x})} et {Y = y} ={f(Y) = y} ={Y ∈ f ({y})}
Donc, en utilisant (6.2),
0 0 0 0 −1 0 −1 0
P({X =x}∩{Y = y}) = P({X ∈f ({x})}∩{Y ∈f ({y})})
−1 0 −1 0= P(X ∈f ({x}))P(Y ∈f ({y}))
0 0 0 0= P(X = x )P(Y =y ).

Proposition 5.17 Soit (Ω,F,P) un espace de probabilit´e. Deux v.a. r´eelles discr`etes X et Y, d´efinies sur Ω sont
ind´ependantes si et seulement si
pour toutes fonctions f et g de R dans R telles que f(X) et g(Y) soient int´egrables,
E[f(X)g(Y)] =E[f(X)]E[g(Y)], (5.4)
ou si et seulement si pour toutes fonctions positives f et g de R dans R ,+
E[f(X)g(Y)] =E[f(X)]E[g(Y)],
56D´emonstration: Montronsd’abordquesiX etY v´erifient(6.1),alors(6.4)estsatisfaite. Supposons
dans un premier temps que f et g sont positives. Par la formule de transfert pour le vecteur al´eatoire
(X,Y) : X
E[f(X)g(Y)] = f(x)g(y)P(X =x,Y = y)
(x,y)∈(X,Y)(Ω)X
= f(x)g(y)P(X = x)P(Y = y)
x∈X(Ω),y∈Y(Ω)  X X  = f(x)P(X =x) g(y)P(Y =y)
x∈X(Ω) y∈Y(Ω)
= E[f(X)]E[g(Y)].
En l’appliquant `a|f| et|g|, ceci permet de voir que f(X)g(Y) est int´egrable. Il s’ensuit que (6.4) est
satisfaite avec f et g quelconques.
R´eciproquement, supposons que (6.4) est satisfaite pour toutes fonctions positives et montrons que
X et Y sont ind´ependantes. Soient x∈ X(Ω) et y∈Y(Ω). On pose f(s) =1 (s) et g(s) =1 (s).{x} {y}
Alors f(X)=1 (X) =1 et g(Y) =1 (Y) =1 , donc{x} {X=x} {y} {Y=y}
E[f(X)] =E[1 ] =P(X = x) et E[g(Y)] =E[1 ] =P(Y = y).{X=x} {Y=y}
D’autre part,
E[f(X)g(Y)] = E[1 1 ]{X=x} {Y=y}
= E[1 ] =P(X = x,Y =y).{X=x}∩{Y=y}
Donc (6.4) impliqueP(X = x,Y = y) =P(X =x)P(Y =y).
5.6 Ind´ependance et covariance
Proposition 5.18 Soient X et Y deux v.a. r´eelles discr`etes d´efinies sur un espace de probabilit´e (Ω,F,P).
1. Si X et Y sont ind´ependantes et int´egrables, alors XY est int´egrable et
E[XY] =E[X]E[Y].
2. Si X et Y sont ind´ependantes et int´egrables, alors Cov(X,Y) = 0.
3. Si X et Y sont ind´ependantes et de carr´e int´egrable, alors X + Y est de carr´e int´egrable et Var(X +Y) =
VarX +VarY.
D´emonstration : 1. On applique (6.4) aux fonctions f(x) =x et g(y) = y.
2. Cov(X,Y) =E(XY)−E(X)E(Y) = 0 d’apr`es 1.
3. On a vu que var(X +Y) = var(X)+var(Y)+2Cov(X,Y) = var(X)+var(Y) d’apr`es 2.
♠ Attention ! La r´eciproque de 2. est fausse : regardons le vecteur Z = (X,Y) suivant : Z suit la loi uniforme
sur Z(Ω) ={(1,0),(−1,0),(0,1),(0,−1)},autrement la probabilit´e que Z soit ´egal `a l’un quelconque de ces points
est 1/4. Alors X et Y ont mˆeme loi, donn´ee par X(Ω) ={−1,0,1} et
1 1
P(X =−1)=P(X = 1) = etP(X = 0) = .
4 2
On voit donc facilement que E[X] = E[Y] = 0. On remarque aussi que XY = 0 (il y a toujours une des deux
coordonn´ees qui est nulle), donc
Cov(X,Y) = 0.
1CependantP(X = 0,Y = 0) = 0 alors queP(X = 0)P(Y = 0) = , donc X et Y ne sont pas ind´ependantes.
4
576
6
6
5.7 Ind´ependance de plusieurs variables al´eatoires discr`etes
D´efinition 5.19 Soit (X ) une famille de variables al´eatoires r´eelles d´efinies sur le mˆeme espace de probabilit´ei i∈I
(Ω,F,P). On dit que les (X ) sont ind´ependantes si et seulement si pour toute famille (x ) de r´eels, lesi i∈I i i∈I
´ev´enements ({X = x}) sont ind´ependants ; c’est-a`-dire :i i i∈I
pour tout k≥ 2, pour toute famille (i ,i ,...,i ) d’´el´ements de I deux-a`-deux distincts, pour tous x ∈ X (Ω), ...,1 2 k 1 i1
x ∈X (Ω).k ik  \ Y P {X = x } = P(X =x ).i j i jj j
1≤j≤k 1≤j≤k
Notation : On abr`ege v.a.i.i.d. pour variables al´eatoires ind´ependantes identiquement distribu´ees, c’est-a`-dire
des variables al´eatoires ind´ependantes qui ont toutes la mˆeme loi.
Remarque : Les vaiid peuvent servir a` mod´eliser la r´ep´etition d’une exp´erience al´eatoire : plusieurs lancers de
d´es, sondages de plusieurs personnes...
D´efinition 5.20 Soit un espace de probabilit´e (Ω,F,P) ou` sont d´efinies n v.a.i.i.d X , ..., X de loi commune1 n
not´ee L
Le vecteur al´eatoire (X ,...,X ) est app´el´e un ´echantillon, ou n−´echantillon, de la loi L.1 n
Proposition 5.21 Soit (X ,...,X ) un ´echantillon d’une loi admettant un moment d’ordre 2. Alors,1 n
var(X +···+X ) = var(X )+···+var(X ).1 n 1 n
D´emonstration: Montronsunr´esultatplusg´en´eral: siX ,...,X sontdesv.a. decarr´esint´egrables,1 nX
alors var(X +···+X ) = var(X )+···+var(X )+ Cov(X ,X ).1 n 1 n i j
1≤i=j≤n
Dans le cas d’un ´echantillon, l’ind´ependance des v.a. entraˆıne la nullit´e de toutes les covariances
Cov(X ,X ) telles que i = j.i j
Calculons la variance de la somme X +···+X :1 n
n n n n n nX X X X XX
2 2var( X ) =E[( X − E[X ]) ] =E[( X −E[X ]) ] =E[ (X −E[X ])(X −E[X ])]i i i i i i i j j
i=1 i=1 i=1 i=1 i=1 j=1
n n n n nX XX XX
var( X ) = E[(X −E[X ])(X −E[X ])] = Cov(X ,X )i i i j j i j
i=1 i=1 j=1 i=1 j=1
En distinguant les termes diagonaux, cette somme peut s’´ecrire,X
var(X )+···+var(X )+ Cov(X ,X ),1 n i j
1≤i=j≤n X
ou encore, var(X )+···+var(X )+2 Cov(X ,X ). 1 n i j
1≤i<j≤n
58