StatL3S6 Statistique appliquée à la psychologie L3

De
Publié par

StatL3S6Statistique appliquée à la psychologie L3Christian LavergneUniversité Paul Valéry - Montpellier 3Année universitaire 2008-2009(UPV) StatL3S6 2008/2009 1 / 46StatL3S6 Chapitre 1Lois limites de la Statistique et Estimation :1 Loi des grands nombres et estimation ponctuelle2 Théorème central limite et par intervalle(UPV) StatL3S6 2008/2009 2 / 46Loi des grands nombres et estimation ponctuelleSoient X ;X ;:::;X n variables aléatoires indépendantes associées aux1 2 nrépétitions d’une même expérience aléatoire X telle que E (X ) =) alors :La moyenne des observations est aussi proche que possiblede la vraie valeur à condition que n soit grandnX1 n grandX = X ! ini=1(UPV) StatL3S6 2008/2009 3 / 46nX1Propriété de la moyenne X = Xini=1de n répétitions indépendantes X ;X ;:::;X d’une même expérience1 2 n2aléatoire X telle que E (X ) = et V (X ) = : son espérance mathématiqueE(X) = sa variance2V(X) =n son écart-typep(X) =nLa dispersion de la moyenne se réduit quand n grandit : c’est la loi desgrands nombres(UPV) StatL3S6 2008/2009 4 / 46Estimation ponctuellenX11La moyenne X = X est donc un bon prétendant pour approcher leini=1paramètre inconnu . La variable aléatoire X sera appelée l’Estimateur du paramètre . Au vu d’observations, la valeur prise par X et notée x sera appelée uneestimation du paramètre . En pratique il y a UN (voir deux ou trois) Estimateur naturel duparamètre inconnu; mais il y a toujours ...
Publié le : samedi 24 septembre 2011
Lecture(s) : 623
Nombre de pages : 46
Voir plus Voir moins
U(P
StatL3S6 Statistique appliquée à la psychologie
)V
Christian Lavergne
Université Paul Valéry - Montpellier 3
Année universitaire 2008-2009
StatL3S6
L3
0208/20091/46
1 2
StatL3S6 Chapitre 1
Lois limites de la Statistique et Estimation
Loi des grands nombres et estimation ponctuelle Théorème central limite et estimation par intervalle
(UPV)tSta3L6S02802/009
:
2/64
Loi des grands nombres et estimation ponctuelle
SoientX1,X2, . . . ,Xnnvariables aléatoires indépendantes associées aux répétitions d’une même expérience aléatoireXtelle queE(X) =µ)alors :
La moyenne des observations est aussi proche que possible de la vraie valeurµ à condition quensoit grand
(UPV)
1nXn grand X=nXµ ii=1
StatL3S62008/20093/64
X1n Propriété de la moyenne=nXXi i=1 denrépétitions indépendantesX1,X2, . . . ,Xnd’une même expérience aléatoireXtelle queE(X) =µetV(X) =σ2: son espérance mathématique
sa variance
son écart-type
E(X) =µ
V(X) =σn2
(X)σ = σn La dispersion de la moyenne se réduit quandngrandit : c’est la loi des grands nombres
U(PV)StatL3S602802/0094/64
enuemêmépxeneiralcetoéaeXirlltenXostnrnpététioinsindépendantesdX11..,..2,,X6
Estimation ponctuelle La moyenneX=1nXnXi1est donc un bon prétendant pour approcher le i=1 paramètre inconnuµ.
La variable aléatoireXsera appeléel’Estimateurdu paramètreµ. Au vu d’observations, la valeur prise parXet notéexsera appeléeune estimationdu paramètreµ. il y a UN (voir deux ou trois) Estimateur naturel duEn pratique paramètre inconnu ; mais il y a toujours une infinité d’estimations possible de ce paramètre.
95/4/20020086S3LtatS)VPU(2σ=X)V(et=µX)E(ueeq
Forme générale et propriétés SoientX1,X2, . . . ,Xnnrépétitions d’une expérience aléatoire etTnune combinaison (ou fonction) de ces répétitions. Tnsera un bon prétendant pour approcher un paramètre inconnuθ; donc unEstimateurraisonnable deθsi :
L’espérance mathématique de l’estimateur est aussi proche que possible du paramètre inconnuθ, idéalement on souhaite que
E(Tn) =θ
et on dira queTnest un estimateursans biaisdeθ; mais on peut se contenter deE(Tn)n grandθ La variance de l’estimateur diminue avec le nombre de répétitions :
(UPV)
V(Tn)n grand0
tStaL3S62008/20096/64
Exemple :dans la cas denrépétitions indépendantesX1,X2, . . . ,Xn d’une même expérience aléatoireXtelle queE(X) =µetV(X) =σ2.
Siµ la moyenneest inconnu ; X1nXies nXt un estimateursan =s biaisdeµ. i=1 Siµest connu etσ2inconnu ; la moyenne des dispersions 1n( nXXiµ)2est un estimateursans biaisdeσ2 . i=1 Siµest inconnu etσ2 la variance empiriqueinconnu ; 1nnX(XiX)2est un estimateurbiaisédeσ2. i=1 Siµest inconnu etσ2inconnu ; n11nX(XiX)2est un estimateursans biaisdeσ2. i=1 ˆ que l’on noteraσ2SB
U(VP)tSta3L6S0280/20097/64
La loi de bernoulli et le sondage SoitXune expérience aléatoire à 2 états (codés 1/0) :
P(X=1) =p;P(X=0) =1p
on sait queXBer(p) son espérance mathématiqueE(X) =p sa varianceV(X) =E(XE(X))2=p(1p) et son écart-typepp(1p)
La même expérience (de Bernouilli) répétéenfois de façon indépendante (X1,X2, . . . ,Xn) alors n l’espérance mathématique deXXiestnp. i L’espérance de la somme est la somme des espérances
U(VP)tStaL3S62008/20098/64
La moyenne de loi de Bernoulli : l’espérance mathématique de la moyenneX=1nXXide cesn n i=1
répétitions est :
sa variance
son écart-type
n E(X) =E(n1XXi) =p. i
V=p) (X)p(1n σ(X) =rp(1np) La dispersion de la moyenne (ici la proportion de 1) se réduit quandn grandit : c’est la loi des grands nombres
U(PV)StatL3S602802/0099/46
La loi des grands nombres pour la loi de Bernoulli SoientX1,X2, . . . ,Xnnrépétitions indépendantes d’une même expérience aléatoire de Bernoulli (P(X=1) =p)) alors : La proportion de 1 est aussi proche que possible dep à condition quensoit grand
(UPV)
1nXn X=Xi i=1
StatL3S6
n grand
p
2008/200910/46
Estimation ponctuelle SoientX1,X2, . . . ,Xnnrépétitions indépendantes d’une même expérience aléatoire de Bernoulli (P(X=1) =p),pparamètre inconnu) alors : La variable aléatoireXproportion ou la fréquence de 1) sera donc(ici la un Estimateursans biais du paramètrep. Après avoir effectué le sondage, la valeur prise parXet notéexsera doncune estimationdu paramètrep. En pratique on a toujours le même Estimateur du paramètre inconnup; mais chaque sondage pratiqué amène une estimation différente de ce paramètre.
(UPV)tSta3L6S02802/00911/64
Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.