Maıtrise de mathematiques Statistique

Publié par

Mihai Gradinaru 1 Maıtrise de mathematiques 1999-2000 Statistique 1. Generalites 1.1. Estimation d'une proportion par la plus vraisemblable valeur. On considere une variable aleatoire binomiale B(n, p). Soit k fixe compris entre 0 et n. Pour quelle valeur de p, la probabilite P(X = k) est-elle max- imale? Ce resultat peut etre utilise pour estimer p lorsq'on a observe que X = k (le parametre n etant connu). 1.2. Approximations. i) Une variable aleatoire X a la loi hypergeometrique H(N, n, a) : P(X = k) := CkaC n?k b CnN ou 0 ≤ k ≤ n, k ≤ a, n? k ≤ b et a > 0, b > 0, a + b = N , 0 < n < N . Soit 0 < p < 1. Alors, quelque soit 0 ≤ k ≤ n, lim N?∞,a/N?p P(X = k) = P(Y = k), ou Y ? B(n, p). On dit que, lorsque N est grand (devant n), on peut ap- proximer la loi hypergeometrique H(N, n, a) par la loi binomiale B(n, a/N).

  • variable aleatoire

  • independantes

  • etroitement

  • meme loi

  • limite des probabilites µ

  • lois gaussiennes de densites g?2

  • ird ?


Publié le : mardi 19 juin 2012
Lecture(s) : 8
Source : iecn.u-nancy.fr
Nombre de pages : 7
Voir plus Voir moins
Mihai Gradinaru
Maıˆtrisedemath´ematiques1999-2000 Statistique 1.G´ene´ralit´es
1
1.1.Estimation d’une proportion par la plus vraisemblable valeur. Onconsid`ereunevariableale´atoirebinomialeB(n, p). Soitkx´rpsicemo entre 0 etn. Pour quelle valeur deplibaborpal,P(´eitX=k) est-elle max-imale?Cere´sultatpeutˆetreutilis´epourestimerpolsrqnooasbueeqv´er X=kerte`marpale(n).onnuctnate´
1.2.Approximations. i)tae´eriobeaniarvlaeUlXerypeog´laaihloe´mteiruqH(N, n, a) :
k nk C C a b P(X=k) := n C N ou`0kn,ka,nkbeta >0,b >0,a+b=N, 0< n < N. Soit 0< p <quelque soit 01. Alors, kn,
lim P(X=k) = P(Y=k), N↑∞,a/Np
ou`Y∼ B(n, pdit que, lorsque). On Nest grand (devantn), on peut ap-proximerlaloihyperg´eom´etriqueH(N, n, a) par la loi binomialeB(n, a/N). En pratique, cette approximation est satisfaisante siN/n10. Exemple nume´rique:a= 100,b= 400,n= 10 etk= 3. ii)SoitY∼ B(n, p) etλ >0. Alors, quelque soitk0,
lim P(Y=k) = P(Z=k), n↑∞,p0,npλ
o`uZ∼ P(λdit que, lorsque). On nest grand etppetit, on peut ap-proximer la loi binomialeB(n, p) par la loi de PoissonP(nppratique,). En cette approximation est satisfaisante sin30,p0,1,np10. Exemple num´erique:n= 200,p= 0,01 etk= 0 ou 1.
1.3.nce.T´hoe`rvroitieeedemeMeDcedeanoretnllav On note x x nx ) := Cp ,0xn. Bn,p(xn(1p)
Mihai Gradinaru
2
 n n i)En utilisant la formule de Stirling,n!2πn(n↑ ∞), montrer que e   xnp n Bn,p(x)gσ, 2 n   2 1y2 o`ugσ(yexp) := 2(yIR),σ=p(1p). 2σ2π2σ ii)nE´derdeiuerviel`eor´ethMoDedemeeuq:eioseuqllestnelrse´−∞ ≤ a < b≤ ∞, Z b Nnnp lim P(a << b) =gσ(y)dy, 2 n n↑∞ a o`u,dansunjeudepileoufacededure´en,Nnnote le nombre de pile obtenu etpedt´btoirenlepinunecnalE.rearpntiquelapproximaitnolibibaroapl estsatisfaisantede´j`apourn= 20 sip0,5. Sipsi0 resp. p1, il faut quenpresp.n(1p) soit grand (1E.)0t:orvureerm´ueiqmpxenule aveclaquasi-certitude95%(resp99%)lintervalleo`usetrouvelafrequence depiledansunjeudedure´enequitsaohnne`ec(.nOeˆet400a=nepivecu R gσ(y)dy= 0,95 resp. 0,99 pourc= 1,96σ2σresp.c2,6σ). 2 |y|<c iii)On suppose quepnitsnnoctU.usiliepourivreDeMoemedroe`hte´reel montrer que, lorsquenest assez grand, un intervalle de confiance pour l’estimation depavec la quasi-certitude 95% resp 99% est :   Nn1 resp. 1,3Nn11 resp. ,3 p∈ − ,+. n n n n
En pratique, l’intervalle est satisfaisant lorsquenpetn(1p)10. Exem-plenum´erique:deuxsondageseectue´slunaupr`esde800Franc¸aises,lautre aupre`sde800Fran¸caisdonnent51%defumeuseset49%defumeurs;est-ilraisonnabledend´eduirequelesfemmesfumentplusqueleshommesen France?
1.4.uq.esiittstaalenmentondaemef´htn`roeU i)uAe´´vnemenetnuevresbonoecneierp´exneusdurcoA´ealiseunO.rn grandnombreder´epe´titionsdecetteexpe´riencedansdesconditionsiden-tiquesetinde´pendantes.Justierquelorsquelenombreder´epe´titionsnest tr`esgrand,lafr´equencedapparitiondeAapslerdvent(Pe´tilibaborA). ii)illohantn´ecUeialldntenet de loiµest une suite (X1, . . . , Xn) denvari-d ablesal´eatoiresind´ependantesdemeˆmeloiµnlioluoRIrusteUn.IRnthaecl´ peutservir`aestimerlaloiµ.stıapnnaˆlacoonlnoerqu
Mihai Gradinaru
3
d a)Une suite{µn:n1}rergeconvetidtseRIrusse´itilabobprde d ´etroitementversuneprobabilite´µlorsquesur IR n↑ ∞, si pour toute d fonctioncontinueetborne´efRI:IR, Z Z limf dµn=f dµ. n↑∞d d IR IR
(Lorqueµnreatoiealtsdiolneurivaleab´ealXn, il s’agit de la convergence en loi de{Xn:n1}versXde loiµ.) On admettra qu’il suffit de verifier d le´galite´ci-dessuspourfC0coeslleesueinntnolf,s)eadpesec´rsnoiRtIc( tendantversze´roa`linni. n Montrerquelasuitedesprobabilit´esuniformessurlagrille(k/2 : 1kn 2),cest-`a-dire, n 2 X n µn= 2δk/2 n k=1 convergee´troitementverslamesuredeLebesguesur[0,1].   2 1y Montrerquelesloisgaussiennesdedensite´sgσ(yexp) := 2(y2σ2π2σ IR),σ >0 convergent, lorsqueσ0, versδ0. b)Soit{Xn:n1}edsetnadnepe´dniaviretedseiunuireseatosal´able d meˆmeloiµΩe(,IRursd´eniessurunespcadepeorabibil´t,A,toutP). Pour n1 et toutωesrmfonileurno,Ωoduiintresurtlamorabdepe´tueibil d sous-ensemble fini{X1(ω), . . . , Xn(ω)}a--`redi,cRsteIed,
n X 1 µ(n, ω;) :=δXj(ω). n j=1
Onappellecesprobabilite´slois empiriquesontron.Mtillchanle´sea`ice´saoser que {ω:µ(n, ω;)µe´iortemetoltnrsquen↑ ∞} ( ) nZ \ X 1 =f(Xj)f dµlorsquen↑ ∞. n fCbj=1 Ende´duirelethe´ore`mefondamentaldelastatistique:pourpresquetout ωΩ, µ(n, ω;)µeuqsroltnemetietro´n↑ ∞.
Mihai Gradinaru
4
Ainsi,siondisposedun´echantillon(X1, . . . , Xn) de taillenfinie (mais grande), on observe la suite (X1(ω), . . . , Xn(ω)), pour unωΩ et la proba-bilit´eµ(n, ω;drcerait`epaurrionsteutconp)qusrolaarensioatrvseobteet une bonne estimation deµnoevgrnenedsleca.teaus´eceoitr c)rbmonsedslee´rsesahudraiohcatisnOXn(n1) dans [0,1]. Trouverlalimitedesprobabilit´esµ(n, ω;). iii)eecmmcoetroLusqsonteinssreseueelemtna`nuapram`etreduneloi param`etresinterpre`tesouventcommeesp´eranceouvarianceonutilisele resultat suivant: soit{Xn:n1}nesuitedulseeellaes´taivoeerrarasiel´b ind´ependantesetdemeˆmeloi.SiE(X)<, lesmoyennes empiriques n X 1 Mn:=Xj, n j=1 2 et si E(X)<, lesvariance empiriques n X 1 2 Vn:= (XjMn) n j=1
bas´eessurles´echantillons(X1, . . . , Xngrevatnepcevaboron)ct´eubilinre-spectivement vers E(X) et Var(X) des variables. a)Quelle est la liaison entreMn(ω),Vn(ω) et les lois empiriquesµ(n, ω;)? b)nd´eduirErudnoisulcnocale.atltsu´e iv)Pour toute suite{Xn:n1}sal´ablevaridetoeaesireer´esll´dninepetnadse etdemˆemeloidesecondmomentni,lesloisdeprobabilit´esdessommes partiellesnormalis´ees n X SnnE(X) , Sn=Xj, n j=1 2 convergent´etroitementverslaloidedensite´gσ,σ= Var(X). En pratique 2 on dit queSnproximatsuitaperp´ceanlemaesdolenronimeviutnenE(X) et de variancenVar(Xde mesure commise end’application: l’erreur ). Exemple mesurantunegrandeurestunevariableal´eatoirecentr´eedontonpeutpenser quelleestlasommedungrandnombredevariablescentr´eesinde´pendantes. v)Sunmmeledalilcooiliolents´ceahtnnedesp´gaussienceanermet de 2 varianceσalors 2 σ n 2 Mn∼ N(m,), Vnχ(n1) 2 n σ
Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.