FIGURESoit1 –Knune variable alatoire distribue selon la loiB(n,θ)avecn=25 etθ∈[0,1]. La figure reprsente les probabilitsp(θ) =Pθ(Kn≥k0)(en rouge) etq(θ) =1−Pθ(Kn≥k0)(en vert) aveck0=5 pour les diffrentes valeurs deθ. On constate que pour toutθ∈[0,θ0], avecθ0=0.05, la probabilitp(θ)reste infrieure À 0.01, ce qui signifie que la probabilit de commettre une erreur de premire espce est trs faible. Cependant pourθ>θ0mais proche deθ0la probabilitq(θ)de commettre une erreur de seconde espce est substantielle.
2 FIGURE2 –Les densits de la loi normaleN(0,σ)avecσ=1 (en vert),σ=1/2 (en rouge) etσ=2 (en orange).
2 Rappelssur les convergences
– Formulationsquivalentes de la convergence presque sÛre. – Convergenceen probabilit.
/USERS/petritis/ens/jdb-stat.tex
Page 2
UFR MathÉmatiques
Master de mathÉmatiques
FIGURE3 –Les densits de la loiγp,1avecp=1 (en rouge),p=2 (en vert) etp=4 (en orange).
F 4– Lesdensits de la loiγ2,λavecλ=2 (en rouge),λ=1 (en vert) etλ=1/2 (en orange). IGURE
– Laconvergence en probabilit est mtrisable – Laconvergence presque sÛre entrane la convergence en probabilit ; la rciproque est fausse en gnral. 0 – Sila suite(Xn)converge en probabilit versX, de toute suite croissante d’entiers(n), on peut extraire une 00 sous-suite(n)telle queXnconverge versXpresque sÛrement. 00 p – ConvergencedansL, avecp∈]0,∞[. p – Laconvergence dansLentrane la convergence en probabilit. – Èqui-intgrabilit. 1 – SiXn→Xen probabilit et(Xn)qui-intgrable, alorsXintgrable et la convergence a lieu aussi dansL. – Fonctionsde rpartition et caractristique. – Lesfonctions de rpartition et caractristique dterminent la loi. – Laconvergence en probabilit entrane la convergence en loi. – Tension; convergence troite ; critres de tension. – Siune suite de probabilits est qui-tendue et converge faiblement alors elle converge troitement. – Convergenced-dimensionnelles ; critre de Cramr-Wold.
3 Autourde la loi gaussienne
– Densitgaussienned-dimensionnelle ; matrice de covariance.
/USERS/petritis/ens/jdb-stat.tex
Page 3
UFR MathÉmatiques
Master de mathÉmatiques
2 – Loiduχ, de Student, loiF. – Si(Xi)i=1,...,nsont indpendantes gaussiennes, leur moyenne empirique et leur variance empirique sont ind-pendantes.
4 Estimationnon paramÉtrique
– Fonctionde rpartition empirique. – Thormede Glivenko-Cantelli. – Thormede Kolmogorov-Smirnov (sans dmonstration). – Soitun chantillon den1+n2variables alatoires indpendantes et identiquement distribues selon une loi de fonction de rpartitionFcontinue. Alors r i√ n1n2lo ˆ ˆ lim sup|Fn1−Gn2|=limnDn, n1+n2x∈R ˆ ˆ oÙFn1etGn2sont les fonctions de rpartition empiriques partielles etDnla diffrence apparaissant dans le thorme de Glivenko-Cantelli. La dmonstration est faite dans le cas particuliern1=n2=net illustre bien le principe de rflexion. + + – Statistiquelibre ; les statistiquesD,DetD, associ n n,Dn1,n2n1,n2es À des loiscontinuessont libres. – Èchantillonsordonns, statistique d’ordre, statistique de rang.
5 Fondementsde la statistique
5.1 ModÈlesdominÉs et familles exponentielles
– Domination. – Siµest une mesure dominanteσ-finie, il existe une probabilit qui lui est quivalente. – Familleexponentielle. – Espacede paramtrisation naturelle. – L’espacede paramtrisation naturelle est convexe. – Complexificationde l’espace de paramtrisation; proprits d’holomorphie des esprances en les variables de l’espace de paramtres comlexifies.
5.2 ThÉoriede la dÉcision
– Rglede dcision dterministe, stochastique. – Fonctionde perte. – Risquede la dcision. –C-optimalit ;C-admissibilit. – Exemples. – Principedu minimax, principe de Bayes. – Risquemoyenn de Bayes pour des rgles de dcision dterministes. – Risquemoyenn de Bayes pour des rgles de dcision stochastiques.
/USERS/petritis/ens/jdb-stat.tex
Page 4
UFR MathÉmatiques
5.3 ExhaustivitÉ
Master de mathÉmatiques
– Tribuet statistique exhaustives. – Thormede Bahadur. – SoientS1etS2deux statistiques etµune probabilit :σ(S1)⊆σ(S2)modµsi, et seulement si, il existe une application mesurableψtelle queS1=ψ◦S2. – Thormede Halmos-Savage : Sur un modle statistique(X,X,Π)domin (avec la probabilit dominante crite sous la formeν=∑n∈NcnPn), une sous-tribuF⊆Xest exhaustive si, et seulement si, pour toute dP P∈Π, il existe une densitF-mesurable, notefP, telle que=fP,ν-p.s. dν – Corollaire: pour une famille exponentielle, dont les densits par rapport À la mesure de rfrence s’crivent k sous la formefθ(x) =C(θ)exp(∑j=1cj(θ)hj(x))h(x), la statistiqueS:x7→(h1(x), . . . ,hk(x))∈Rest ex-haustive. – Exemples. – Illustrationde la notion d’exhaustivit dans un cas discret.
5.4 ComplÉtude
– – Famillede probabilits et statistique compltes. – SiΠest complte par rapport À une sous-tribuFexhaustive alorsFest minimalement exhaustive. – Si une famille exponentielle dont les densits par rapport À une mesure de rfrence s’crivent comme fθ(x) =C(θ)h(x)exp(∑j=1cj(θ)hj(x)est de rang total, alors la statistiqueS(x) = (h1(x), . . . ,hk(x))est com-plte.
5.5 ThÉoriedes estimateurs ponctuels
– Biais. – Plongementde l’estimation deg(θ)dans la cadre de la thorie de la dcision. – Calculdu risque pour des fonctions de perte donnes par des formes quadratiques. – Thormede Rao-Blackwell. – Thormede Lehmann-Scheff ; estimateurs uniformment efficaces. – Ingalitde Cramr-Rao. – Matriced’information de Fisher. – Critred’efficacit d’un estimateur par comparaison de son risque avec la borne d’information. – Exemplede la famille exponentielle. – Vraisemblanceet log-vraisemblance. – Estimateurdu maximum de vraisemblance.
6 Solutiondu contrÔle continu terminal
ContrÔle continu du 13 avril 2011
/USERS/petritis/ens/jdb-stat.tex
Page 5
UFR MathÉmatiques
A Quelquesrappels sur l’espÉrance conditionnelle
Master de mathÉmatiques
– Projectiondans un espace de Hilbert. – Thormede Kolmogorov sur l’esprance conditionnelle. – Dmonstrationde l’existence et de l’unicit de l’esprance conditionnelle par une mthode base sur la projection hilbertienne. – Loiconditionnelle ; noyau stochastique.
B Bibliographie
La rfrence de base est indique encaractÈres gras.
P. Billingsley, Probability and measure. Third edition. Wiley Series in Probability and Mathematical Statistics. John Wiley, New York (1995).
D. Dacunha-Castelle, M. Duflo, Probabilits et statistique, vol. 1, Masson, Paris (1982).
D. Fourdrinier, Statistique infÉrentielle, Dunod, Paris (2002).
E.L. Lehmann, Testing statistical hypotheses, Chapman and Hall, , New York (1986).