M1: EXERCICES DE PROBABILITÉS STATISTIQUES
14 pages
Français

M1: EXERCICES DE PROBABILITÉS STATISTIQUES

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
14 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

Niveau: Supérieur, Master, Bac+4
M1: EXERCICES DE PROBABILITÉS-STATISTIQUES 1. Rappels de probabilités Exercice 1. Un livre de 400 pages contient 100 erreurs distribuées au hasard. On ouvre le livre à une page quelconque. Le nombre d'erreurs rentrées sur cette page est une variable aléatoire. 1.1. Quelle est la loi de probabilité de X? 1.2. Quelle est la probabilité que le nombre d'erreurs constatées sur la page soit stricte- ment supérieur à 5? 1.3. Quelle est la probabilité qu'il soit égal à 2, 3, ou 4? Exercice 2. On considère dans cet exercice des variables aléatoires de Poisson, que l'on note P(?). 2.1. Soit X1 ? P(?) avec ? > 0. Calculer E(X1) et E(X1(X1 ? 1)) puis vérifier que E(X1) = V (X1). 2.2. Calculer pour tout z ? [0, 1] E(zX1) = ∑ k≥0 P (X1 = k)z k, c'est-à-dire la transformée en z de la loi de X1. Comment en déduire les valeurs trouvées précédemment? (on cherchera à dériver l'expression en la variable z). 2.3. Soient X1 et X2 deux variables aléatoires indépendantes suivant respectivement une loi P(?1) et P(?2).

  • vecteur gaussien

  • probabilité

  • variable aléatoire

  • réelle suivant la loi de cauchy

  • déduire de la question précédente


Sujets

Informations

Publié par
Nombre de lectures 334
Langue Français

Extrait

M1: EXERCICES DE PROBABILITÉS-STATISTIQUES
1. Rappels de probabilités Exercice 1. Un livre de 400 pages contient 100 erreurs distribuées au hasard. On ouvre le livre à une page quelconque. Le nombre d’erreurs rentrées sur cette page est une variable aléatoire. 1.1. Quelle est la loi de probabilité de X ? 1.2. Quelle est la probabilité que le nombre d’erreurs constatées sur la page soit stricte-ment supérieur à 5? 1.3. Quelle est la probabilité qu’il soit égal à 2, 3, ou 4? Exercice 2. On considère dans cet exercice des variables aléatoires de Poisson, que l’on note P ( λ ) . 2.1. Soit X 1 ∼ P ( λ ) avec λ > 0 . Calculer E ( X 1 ) et E ( X 1 ( X 1 1)) puis vérifier que E ( X 1 ) = V ( X 1 ) . 2.2. Calculer pour tout z [0 , 1] E ( z X 1 ) = X P ( X 1 = k ) z k , k 0 c’est-à-dire la transformée en z de la loi de X 1 . Comment en déduire les valeurs trouvées précédemment? (on cherchera à dériver l’expression en la variable z ). 2.3. Soient X 1 et X 2 deux variables aléatoires indépendantes suivant respectivement une loi P ( λ 1 ) et P ( λ 2 ) . En calculant E ( z X 1 + X 2 ) , montrer que X 1 + X 2 suit une loi P ( λ 1 + λ 2 ) . 2.4. Soit ( X 1 , ∙ ∙ ∙ , X n ) un n -échantillon de loi P ( λ ) . Déduire de la question précédente la loi de S n lorsque S n = X 1 + ∙ ∙ ∙ + X n . 2.5. On retourne à la situation de la question 2.3, et on note X = X 1 + X 2 . Déterminer la loi conditionnelle de X 1 sachant ( X = n ) pour n N . Exercice 3. La loi du couple ( X, Y ) est définie par le tableau suivant: P (1 , 1) = 0 P (2 , 1) = 14 P (1 , 2) = 12 P (2 , 2) = 0 P (1 , 3) = 0 P (2 , 3) = 41 . 3.1. Trouver les lois marginales de X et Y . 3.2. Montrer que X et Y ne sont pas indépendantes. 3.3. Calculer cov ( X, Y ) . Donner une conclusion à cet exercice. Exercice 4. Soient deux variables continues, X et Y , qui ont pour fonction de densité conjointe f ( x, y ) = x + y, pour 0 x 1 , et 0 y 1 . 1
2
M1 PROBAS - LISTE D’EXERCICES
4.1. Déterminer les fonctions de densité marginales de X et Y . 4.2. Calculer E [ X + Y ] , V ( X + Y ) et ρ X,Y . Exercice 5. Un restaurant peut servir 75 repas. La pratique montre que 20 % des clients ayant réservé ne viennent pas. 5.1. Le retaurateur accepte 90 réservations. Quelle est la probabilité qu’il se présente plus de 65 clients? 5.2. Combien le restaurateur doit-il accepter de réservations pour avoir une probabilité supérieure ou égale à 0.9 de pouvoir servir tous les clients se présentant? Exercice 6. Pendant un temps déterminé, le nombre N de véhicules se présentant à un péage est une variable aléatoire de Poisson de paramètre λ . 6.1. Déterminer les lois de probabilité des variables aléatoires F et M représentant les nombres de conducteurs de sexe féminin et masculin respectivement ( N = F + M ), sachant que la probabilité que le conducteur d’un véhicule soit de sexe féminin est p . 6.2. F et M sont-elles indépendantes? Exercice 7. Soit X une variable aléatoire réelle suivant la loi de Cauchy, de densité π (11+ x 2 ) . Dans les deux cas suivants, montrer que l’on a une variable aléatoire, puis déter-miner sa densité lorsqu’elle existe. 7.1. Y 1 = 1 /X . 7.2. Y 2 = X 2 4 X + 3 . Exercice 8. Soit ( X, Y ) un couple indépendant de variables aléatoires. On suppose que X suit la loi uniforme U ([0 , 1]) et Y la loi exponentielle E (1) . 8.1. Calculer la loi de la variable aléatoire Z = X + Y . Exercice 9. Quand Riton et Nandrianina déjeunent chez Samira, Riton fait le partage du saké. Il répartit équitablement le contenu du pichet entre les deux verres qui lui font face. La différence X de volume de saké entre le verre de droite et le verre de gauche suit une loi normale de moyenne nulle. Sachant que Riton prend soit le verre de droite avec une probabilité p , soit le verre de gauche avec un probabilité q = 1 p , on note Y la différence de volume entre le verre de Riton et celui de Nandrianina. 9.1. Montrer que X et X ont même loi. 9.2. Montrer que la variable aléatoire Y suit la même loi de probabilité que X . 9.3. Reprendre la même question dans le cas où X suit une loi absolument continue quelconque de densité paire. Exercice 10. Gabriel Sagard (missionnaire franciscain du 17 è siècle envoyé au Québec pour évangéliser les Hurons) attend qu’un bateau vienne le chercher sur les berges du Saint Laurent. Le temps X i qui sépare le passage du bateau i 1 du bateau i pour i 1 suit une loi exponentielle de paramètre λ > 0 , et on suppose que les temps d’attente entre deux bateaux successifs sont tous indépendants. On note T n la variable aléatoire, définie sur un certain espace de probabilité , F , P ) , égale au temps qu’il faut attendre pour le passage de n bateaux. 10.1. Calculer E [ T n ] et V [ T n ] .
M1 PROBAS - LISTE D’EXERCICES
3
10.2. Notons f n la densité de probabilité de T n et F n sa fonction de répartition. En remarquant que T n +1 = T n + X n +1 , montrer que f n +1 ( t ) = λ Z 0 t f n ( u ) exp( λ ( t u )) du 1 [0 , [ ( t ) , pour tout n 1 . 10.3. Montrer que f n ( t ) = λ n ( tn n 1 1 )! exp( λt ) 1 [0 , [ ( t ) pour tout n 1 . 10.4. Trouver une relation de récurrence entre F n et F n +1 . En déduire la valeur de F n . 10.5. Fixons un instant t [0 , [ . Notons N t la variable aléatoire discrète égale au nombre de navires qui sont passés avant l’instant t . Montrer que pour n 1 on a P ( N t = n ) = F n ( t ) F n +1 ( t ) , et que P ( N t = 0) = 1 F 1 ( t ) . 10.6. Déterminer la loi de N t . Remarque : La fonction t 7→ N t se nomme processus de Poisson. Exercice 11. Soit γ a b la fonction: , =1 x a 1 e x/b γ a,b ( x )Γ( a ) b a 1 { x> 0 } , a > 0 et b > 0 et Γ( x ) = R 0 e t t x 1 dt . 11.1. Montrer que γ a,b est une densité. γ a,b ifier, pou 11.2. Soit X une v.a. de densité . Vér r λ > 0 : E [ e λX ]=(1+1 λb ) a , E [ X ] = ab, V arX = ab 2 . 11.3. Soit X (resp. X 0 ) une v.a. de densité γ a,b (resp. γ a 0 ,b ); on suppose X et X 0 indépendantes. Montrer que X + X 0 a pour densité γ a + a 0 ,b . 11.4. Application: Soient X 1 , X 2 , ..., X n , n v.a. indépendantes de même loi N 1 (0 , 1) . Montrer que X 12 + X 22 + ... + X n 2 suit une loi gamma. 2. Vecteurs aléatoires gaussiens Exercice 12. Soit I = R 0 e x 2 / 2 dx . 12.1. Montrer que I est une intégrale convergente. 12.2. Calculer I 2 en utilisant le théorème de Fubini et en passant en coordonnées polaires; en déduire la valeur de I . Exercice 13. Soit X une v.a. de loi N 1 ( m, σ 2 ) telle que P ( X 3) = 0 . 8413 et P ( X 9) = 0 . 0228 . Calculer m et σ (on donne Φ(1) = 0 . 8413 et Φ(2) = 0 . 9772 ). Exercice 14. Soit X de loi N 1 ( m, σ 2 ) . 14.1. On supppose que m = 0 . On pose Y = e αX 2 avec α 6 = 0 . Calculer E [ Y n ] . 14.2. Déterminer la densité de | X 1 | lorsque m = 2 et σ = 1 . Exercice 15. Soit une v.a. de Bernoulli: P ( = 1) = P ( = 1) = 1 / 2 . On suppose que est indépendante de X , X de loi N 1 (0 , 1) . Montrer que la loi de X est encore gaussienne.
4
M1 PROBAS - LISTE D’EXERCICES
Exercice 16. Soit A la matrice définie par 111 511 211 16.1. Montrer qu’il existe un vecteur gaussien G centré et de matrice de covariance A . On notera X, Y et Z les coordonnées de G . 16.2. G admet-il une densité? Calculer la fonction caractéristique de G . 16.3. Caractériser la loi de U = X + Y + Z . 16.4. Montrer que ( X Y, X + Z ) est un vecteur gaussien. 16.5. Déterminer l’ensemble des v.a. ξ = aX + bY + cZ , indépendantes de U . Exercice 17. Soit Q une forme quadratique définie et positive sur R n . On lui associe la fonction f définie par: f ( x ) = λ exp Q (2 x ) , x R n . 17.1. En fonction de Q , calculer l’unique valeur de λ telle que f est une densité (on pourra montrer que f est la densité d’un vecteur gaussien). 17.2. Application: n = 2 , Q ( x, y ) = 3 x 2 + y 2 + 2 xy . Exercice 18. Soit X un vecteur aléatoire gaussien de loi N n ( ξ, Γ) . On pose Y = AX et Z = BX A et B sont deux matrices d’ordre ( m, n ) et ( k, n ) . 18.1. Montrer que les deux v.a. Y et Z sont indépendantes si et seulement si: Y 0 = A ( X ξ ) et Z 0 = B ( X ξ ) sont indépendantes. On supposera ξ = 0 dans la suite de l’exercice. 18.2. Soit u un vecteur de R m . Calculer E [exp { iu ? AX } ] . Vérifier que Y et Z sont deux v.a. indépendantes si et seulement si A Γ B ? = 0 ; prouver ensuite que cette condition est équivalente à: cov ( Y, Z ) = 0 . 18.3. On suppose que Γ est la matrice identité. On note U = P in =1 λ i X i et U 0 = P in =1 λ 0 i X i . Vérifier que les v.a. U et U 0 sont indépendantes si et seulement si P in =1 λ i λ i 0 = 0 . Exercice 19. Soit une v.a. de Bernoulli: P ( = 1) = P ( = 1) = 1 / 2 , indépendante d’une v.a. X de loi N 1 (0 , 1) . Montrer que le couple ( X, X ) n’est pas gaussien. Exercice 20. ( X 1 , X 2 , ..., X n ) désigne un vecteur gaussien centré, de covariance Γ définie positive. Soit H le sous-espace vectoriel de L 2 (Ω) engendré par { X 1 , X 2 , ..., X n } (i.e. Y H si et seulement si Y = P in =1 λ i X i ). Pour tout Y et Y 0 de H on note h Y, Y 0 i = E [ Y Y 0 ] = cov ( Y, Y 0 ) . 20.1. Montrer que h ., . i est un produit scalaire sur H . 20.2. On travaille ici sur l’espace H défini précédemment. (1) Etablir l’équivalence: Z et Z 0 sont deux v.a. indépendantes si et seulement si h Z, Z 0 i = 0 pour tout Z et Z 0 éléments de H .
M1 PROBAS - LISTE D’EXERCICES
5
(2) Soient Y 1 , Y 2 , ..., Y k et Z 1 , Z 2 , ..., Z l , l + k v.a. appartenant à H . Montrer que ( Y 1 , Y 2 , ..., Y k ) et ( Z 1 , Z 2 , ..., Z l ) sont deux v.a. indépendantes si et seulement si H 1 H 2 H 1 (resp. H 2 ) est le sous-espace vectoriel de H engendré par Y 1 , Y 2 , ..., Y k (resp. Z 1 , Z 2 , ..., Z l ). (3) Prouver que les v.a. Y 1 , Y 2 , ..., Y k sont indépendantes si et seulement si les vecteurs Y 1 , Y 2 , ..., Y k sont deux à deux orthogonaux. 20.3. On suppose que la matrice de covariance de ( X 1 , X 2 , ..., X n ) est l’identité. ¯ ¯ ¯ ¯ (1) Montrer que la v.a. ( X 1 X, X 2 X, ..., X n X ) est indépendante de X , où X ¯= n 1 ( P in =1 X i ) . (2) En déduire que les v.a. ¯ X et W = max X i min X i 1 i n 1 i n sont indépendantes. Exercice 21. Soit X un vecteur gaussien de loi N n (0 , Id ) . montrer que Y = AX suit la même loi , lorsque A est une matrice carré orthogonale d’ordre n . Exercice 22. Soient ρ et θ deux v.a. indépendantes , θ de loi uniforme sur [ π, π ] et ρ 2 de loi exponentielle de paramètre 12 . On note X = ρ cos θ et Y = ρ sin θ . Montrer que les v.a. X et Y sont indépendantes et suivent des lois gaussiennes réduites et centrées. Exercice 23. Soient ( X n ; n 1) une suite de v.a., indépendantes et de même loi, de carré intégrable et à valeurs dans R k . ( ξ n ; n 1) désigne une suite de v.a. indépendantes, bornées, à valeurs réelles et équidistribuées. On suppose que la famille ( X n ; n 1) est indépendante de la famille ( ξ n ; n 1) et que X 1 ou ξ 1 est centrée. On note 1 n Y n n 1 / 2 X ξ i X i . = i =1 Montrer que ( Y n ) converge en loi lorsque n tend vers l’infini, vers une loi gaussienne que l’on caractérisera. Exercice 24. Pour tout t > 0 et x > 0 on pose, a n ( x, t ) = Z n/t ( yn n 1 x 1) n 0 ! e yx dy.
24.1. En utilisant le théorème de la loi forte des grands nombres (resp. central limite), montrer que lim n →∞ a n ( x, t ) = 1 { x>t } si x 6 = t (resp. 1/2 lorque x = t ). 24.2. Soit X une v.a. à valeurs dans R + . On note G ( θ ) = E [ e θX ] . (1) Déduire de la question précédente : n →∞ ) n Z 0 n/t ( ny n 1 1)! dd n yG n ( y ) dy =12 P ( X = t ) + P ( X > t ) lim ( 1 (2) Montrer alors que G caractérise la loi de X .
6
M1 PROBAS - LISTE D’EXERCICES
3. Simulation de variables aléatoires Exercice 25. On se propose ici de simuler une v.a. X de loi binomiale B ( n, p ) : pour k ∈ { 0 , ..., n } , on a P ( X = k ) = C kn (1 p ) k p n k . 25.1. Utiliser la méthode classique. 25.2. Utiliser la méthode basée sur le théorème central de la limite. Exercice 26. On voudrait simuler une v.a. T de loi géométrique de paramètre p : pour k 1 , P ( T = k ) = (1 p ) k 1 p . 26.1. Utiliser la méthode classique. 26.2. Soit Y une variable aléatoire suivant une loi E ( λ ) . On pose q = 1 e λ . Montrer que, pour n 0 , P ( n Y n + 1) = P ( Z = n + 1) , Z ∼ G ( q ) . 26.3. Soit U ∼ U ([0 , 1]) , et X la variable aléatoire définie par X = log( U )) + 1 . log(1 p Montrer que X ∼ G ( p ) . Notons que, dû aux appels à la fonction log , cet algorithme n’est une améliotration, par rapport à l’algorithme classique, que lorsque p 14 . Exercice 27. A l’aide de la méthode de la fonction réciproque, donner un algorithme permettant de simuler une v.a. X dans les cas suivants: 27.1. La loi de X est E ( λ ) , de densité λe λx 1 x 0 . 1 27.2. La loi de X est la loi de Cauchy, de densité π (1+ x 2 ) . Exercice 28. On s’intéresse dans cet exercice à la simulation d’une v.a. X de loi de Poisson de paramètre λ , notée P ( λ ) : pour k 0 , P ( X = k ) = e λ λ k /k ! . 28.1. Utiliser la méthode classique. 28.2. On admet le résultat suivant: soit { T i ; i 1 } une suite i.i.d de variables aléatoires de loi E ( λ ) . Soit X la variable aléatoire définie par X = inf ( n 0; i = n X 1 ) T i 1 1 . Alors X ∼ P ( λ ) . En déduire un algorithme de simulation de la loi P ( λ ) . Exercice 29. Dans cet exercice, nous essaierons de simuler une v.a. de loi normale centrée réduite par la méthode du rejet. 29.1. On considère la densité de probabilité f ( x ) = π 2 1 / 2 e x 2 / 2 1 x 0 . On s’intéresse aussi à g ( x ) = e x 1 x 0 , la densité d’une loi exponentielle de paramètre 1 . (1) Montrer que si c = (2 e/π ) 1 / 2 alors on a, pour tout x R , f ( x ) cg ( x ) . (2) En déduire un algorithme de simulation d’une v.a. X de loi f ( x ) dx .
M1 PROBAS - LISTE D’EXERCICES
7
29.2. Soit X une v.a. de loi f ( x ) dx , et U une v.a. indépendante, de loi uniforme sur [0 , 1] . Montrer que la v.a. Z définie par Z = X 1 U < 1 / 2 X 1 U > 1 / 2 suit une loi N (0 , 1) . 29.3. Ecrire un algorithme qui permet de simuler une v.a. de loi N (0 , 1) . Quel est son coût ? Exercice 30. On aimerait simuler une v.a. de loi 1 12 δ 0 ( dx ) + 2 x 1 x 0 . e 30.1. Utiliser la méthode de la fonction réciproque. 30.2. Utiliser la méthode de la combinaison linéaire, puis comparer les deux méthodes. Exercice 31. Pour α, β > 0 fixés, on s’intéresse à la loi Γ α,β , de densité f ( x ) = Γ β ( α α ) x α 1 e βx 1 x 0 , Γ( α ) = Z x α 1 e βx dx . 0 31.1. On suppose d’abord que α < 1 . On va effectuer une simulation d’une v.a. de loi Γ( α, β ) par la méthode du rejet. On considère pour cela la fonction g ( x ) = c α,β x α 1 1 0 x 1 + e βx 1 x> 1 . (1) Calculer c α,β pour que g soit une densité de probabilité. (2) Décrire une méthode de simulation des v.a. de loi g ( x ) dx . (3) Trouver une constante c > 1 telle que pour tout x dans R , f ( x ) cg ( x ) . (4) Simuler une v.a. de loi de loi Γ( α, β ) . 31.2. On suppose maintenant que α > 1 . On note [ α ] sa partie entière. (1) Montrer que si X et Y sont des v.a. indépendantes de loi respectives Γ([ α ] , β ) et Γ( α [ α ] , β ) , alors Z = X + Y a pour loi Γ( α, β ) . (2) Montrer que si n N , si U 1 , ..., U n sont des v.a. i.i.d. de loi uniforme sur [0 , 1] , alors Y = 1 β ln( U 1 × ... × U n ) a pour loi Γ( n, β ) . (3) En déduire un algorithme de simulation d’une v.a. de loi Γ( α, β ) . Exercice 32. On cherche dans cet exercice une valeur approchée de Γ( α ) , défini par: Γ( α ) = Z 0 x α 1 e x dx, pour α > 1 fixé. 32.1. Montrer que Γ( α ) peut s’exprimer comme 1 λE X α 1 e ( λ 1) X , X est une variable aléatoire de loi E ( λ ) , avec λ > 0 arbitraire. En déduire un algorithme d’approximation de Γ( α ) associé à la méthode de Monte Carlo. 32.2. Optimiser cette méthode par rapport au paramètre λ .
8
M1 PROBAS - LISTE D’EXERCICES
32.3. Supposons à présent que α = π (cette valeur est arbitraire, et les calculs ci-dessous fonctionneraient exactement de la même manière pour tout α > 1 ). (1) Effectuer une majoration (éventuellement grossière) de la variance associée à la méthode de Monte Carlo utilisée. (2) En déduire des intervalles de confiance sur Γ( π ) à l’aide de l’inégalité de Bienaymée-Tchebichev. Soit  > 0 fixé. Quel n faut-il choisir pour que l’erreur soit plus petite que 0 . 02 avec une probabilité supérieure à 0 . 99 ? (3) Reprendre la question précédente, en utilisant cette fois le TCL. 4. Convergences et n -échantillons Exercice 33. Soit { X n : n N } une suite i.i.d. de variables aléatoires de carré intégrable, d’espérance m et de variance σ 2 . On pose : X ¯ n =1 n 2 1 n n X X i , et S n = n X ( X i X ¯ n ) 2 . i =1 i =1
33.1. Montrer : n 1 2 Var( X ¯ n ) = σn 2 , E [ S 2 n ] n = σ . 33.2. Lorsque X 1 admet un moment d’ordre 3, montrer : Cov X ¯ n , S n 2 = nn 2 1 µ 3 , ( µ 3 = E ( X 1 m ) 3 ) . 33.3. On suppose de plus que la v.a. X 1 admet un moment d’ordre 4 fini. On note µ 4 le moment centré d’ordre 4 de X 1 : µ 4 := E ( X 1 m ) 4 . Montrer : Var( S 2 n ) = µ 4 nσ 4 2 µ 4 n 2 2 σ 4 + µ 4 n 3 3 σ 4 . En déduire un équivalent de Var ( S n 2 ) lorsque n → ∞ . Exercice 34. Soit { X n : n N } une suite i.i.d. de variables aléatoires de carré intégrable, d’espérance m et de variance σ 2 . ¯ 34.1. Calculer les limites presque sûre de X n et de S 2 n , quand n → ∞ . 34.2. Calculer la limite, quand n → ∞ , de la suite de fonctions ¯ G n ( x ) = P n ( Xσ n m ) x , x R . De quel type de convergence s’agit-il? On peut montrer que la convergence est uniforme en x R . 34.3. Montrer que n 1( X ¯ n ¯ m ) → N (0 , 1) et 2 ( X n m ) → N (0 , 1) en loi , p S n 2 n p S n lorsque n → ∞ .
M1 PROBAS - LISTE D’EXERCICES 9
Exercice 35. Le but de l’exercice est de donner un exemple d’application du théorème central limite au cas multidimensionnel. Soient ( Y i ; i 1) une suite de v.a. réelles ˆ indépendantes et de même loi . On notera F leur fonction de répartition commune et F n la fonction de répartition empirique de l’échantillon de taille n : ( Y 1 , . . . , Y n ) : 1 n F ˆ n ( x ) = n X 1 { Y i x } , x R . i =1 35.1. Soit x un réel fixé. Montrer : ˆ F n ( x ) converge p.s. vers F ( x ) , lorsque n → ∞ ; n ( F n ( x ) F ( x )) converge en loi, lorsque n → ∞ , vers une v.a. gaussienne ˆ centrée de variance F ( x )(1 F ( x )) . 35.2. Nous allons généraliser ce résultat au cas multidimensionnel. Soient x 1 , x 2 , ..., x d une suite de réels, x 1 < x 2 < ... < x d et X n le vecteur aléatoire, à valeurs dans R d , de coordonnées X n (1) , X n (2) , ∙ ∙ ∙ , X n ( d ) avec: X n ( i ) = 1 { Y n x i } ; 1 i d, pour tout n 1 . Montrer que: n ( F n ( x 1 ) F ( x 1 )) , ..., n ( F n ( x d ) F ( x d )) converge en loi, lorsque n tend vers l’infini, vers un vecteur gaussien centré dont on déterminera sa matrice de covariance. Exercice 36. Soient ( T k ) et ( ξ k ) deux suites de v.a., telles que T k (resp. ξ k ) suive la loi de Student à k degrés de liberté (resp. la loi du chi-deux à k degrés de liberté). Montrer que T k et ξ k 2 kk convergent en loi vers la loi gaussienne réduite et centrée. Exercice 37. Soient x 1 , x 2 , ∙ ∙ ∙ , x n des réels deux à deux distincts (i.e. x i 6 = x j pour tout i 6 = j ). On les ordonne par ordre croissant, soit x (1) , x (2) , ∙ ∙ ∙ , x ( n ) le ré-arragement croissant obtenu : x 1 , x 2 , ∙ ∙ ∙ , x n = x (1) , x (2) , ∙ ∙ ∙ , x ( n ) , x (1) < x (2) < ∙ ∙ ∙ < x ( n ) . En particulier x (1) = min 1 i n x i et x ( n ) = max 1 i n x i . Soit X i , 1 i n une suite de v.a.r. i.i.d. de fonction de répartition F . 37.1. Déterminer la fonction de répartition de M n := max 1 i n X i . Dans le cas où X 1 admet une densité f , déterminer la densité de M n . 37.2. Mêmes questions pour I n := min 1 i n X i On suppose dans la suite que F admet une densité f . 37.3. Montrer que presque sûrement, X i 6 = X j pour tout i 6 = j . 37.4. Vérifier que X (1) , X (2) , ∙ ∙ ∙ , X ( n ) a pour densité ϕ ( x 1 , ∙ ∙ ∙ , x n ) = n ! f ( x 1 ) × ∙ ∙ ∙ × f ( x n )1 { x 1 < ∙∙∙ <x n } . 37.5. Montrer l’identité suivante, valable pour −∞ ≤ a < b ≤ ∞ : M a,b Z 1 { a<x 1 < ∙∙∙ <x p <b } j Y = p 1 f ( x j ) dx 1 ∙ ∙ ∙ dx p =( F ( b ) p ! F ( a )) p . R
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents