Cette publication ne fait pas partie de la bibliothèque YouScribe
Elle est disponible uniquement à l'achat (la librairie de YouScribe)
Achetez pour : 14,99 € Lire un extrait

Téléchargement

Format(s) : PDF

avec DRM

Partagez cette publication

Vous aimerez aussi

Bartlett (test de)(Bartlett test) Test dhypothèse paramétrique utilisé pour comparer les variances observées de plusieurs échantillons statistiques. 2 2 2 test de comparaison deqvariancesσ,σ,,σ 1 2q Données.qséries ou groupes, avec pour chaquek(1kq) : un échantillon denvaleurs k observées dune variable aléatoire numérique X despérance mathématiqueµ et de k k 2 varianceσ. k On noteNle nombre total de valeurs observéesn+n+ ...+n. 1 2q 2 2 2 Hypothèse testée. H = «σ=σ= ... =σ» contre H = existe au moins deux« il 0 1 2q1 variances différentes ».
 Déroulement technique du test 2 1. On calcule, avec les formules usuelles, la moyenne puis la variance débiaiséesde k léchantillon n°k. 2. On calcule une estimation commune de toutes les variances : 2 2 2 (n 1)s+(n 1)s++(n 1)s 1 1 2 2q q 2 s=. Nq 3. On calcule la valeur observée de la variable de test :
q 2 2 t=(Nq)lns(n 1)lns. k k k= 1 Les valeurs de référence de la variable de test sont à lire dans les tables de la loi du khi deux àq 1 degrés de liberté, pour le risqueunilatéralα(qui est le risque standard des tables du khideux).  Conditions et précautions  Ce test nest pas robuste : il nest valable que dans le cas où les lois des échantilons sont toutes normales ;  il est prudent de demander que chaque effectifnsoit5. k
Il est parfois conseillé de diviser la variable de testtpar le facteur correctif : q   1 1 1 C+= 1 . 3(q 1)n 1N k  k= 1 Remarque : siq= 2, ce test nest pas équivalent au test du quotient des variances (sauf si les effectifs sont égaux). © Dunod  La photocopie non autorisée est un délit.
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z
16
Bayes (formule de), Bayes (théorème de)
Bayes (formule de), Bayes (théorème de)(Bayes formula, Bayes theorem) Nom dune formule  ou théorème  utilisée pour trouver les « probabilités des causes ».
Formule de Bayes (version simple)
Soient deux évènements A et B dun espace probabilisé (Ω,A, P), avec P(B)0. Alors : P(AB)P(A)P(B A) P(A B)==. P(B)P(B)
P(AB) Le termeest la définition de la probabilité conditionnelle, et la formule de Bayes P(B) est son expression avec lautre probabilité conditionnelle. De façon générale, il sagit dexprimer lune quelconque des deux probabilités conditionnelles en fonction de lautre.
Formule de Bayes (version composée)
Soient une partition (H ) (ou système complet dévénements) dun espaceΩ et un j évènement B, avec P(B)0. Alors : P(HjB)P(Hj)P(B Hj) P(H B)==. j P(B)P(H)P(B H)+ P(H)P(B H)++ P(H)P(B H) 1 1 2 2k k
Les évènements H peuvent être considérés comme des causes, et lévènement B comme un j résultat. Il sagit bien entendu dune interprétation dans le contexte dune modélisation, tous les évènements, causes et résultat, étant de même « nature » mathématique.
Exemple 1Un dépistage systématique est effectué sur une population dont 6 % des individus présentent une certaine affection A non apparente. Ce dépistage est débuté par un test qui donne 95 % de résultats positifs pour les personnes atteintes par A (les autres étant des « faux négatifs ») et 1 % de résultats positifs pour les personnes non atteintes (les « faux positifs »).
Quelle est la probabilité conditionnelle quune personne prise au hasard soit atteinte par A sachant que le test a donné un résultat positif ? Soit indemne sachant que le test a donné un résultat négatif ?
On peut représenter la situation soit par un arbre, soit par un tableau à 4 cases : par exemple, dans cette deuxième représentation (S signifie sain, et A porteur de laffection A), la probabilité de la case « S et test  » est calculée comme le produit P(S)P(test |S) = 0,94×0,99 = 0,9306 ; le tableau est figuré cidessous :
S
A
test 
0,9306
0,0030
0,9336
test +
0,0094
0,0570
0,0664
0,94
0,06
1
Benford (loi de)
17
Ce tableau est complété par les probabilités « marginales », et on peut calculer notamment P(test ) = P(S et test ) + P(A et test ) = 0,9336 (somme par colonne) et de même P(test +) = 0,0664. On peut alors calculer les probabilités conditionnelles demandées : P(A et test +)0,0570 P(+A test )==0,86 , P(test +)0,0664 valeur à comparer avec la probabilitéa priori0,06 dêtre porteur de A, et : P(S et test +)0,9306 P(S test )==0,997 , P(test )0,9336 valeur à comparer avec la probabilitéa priori0,94 dêtre sain.
Exemple 2On considère une usine où trois machines fabriquent un même modèle de pièce. 40 % des pièces sont fabriquées par la machine A, qui produit 0,1 % de pièces défectueuses ; 30 % des pièces sont fabriquées par la machine B, plus ancienne, qui produit 0,3 % de pièces défectueuses ; 30 % des pièces sont fabriquées par la machine C, encore plus ancienne, qui produit 0,8 % de pièces défectueuses. On demande la probabilité conditionnelle quune pièce ait été fabriquée par la machine C, sachant quelle est défectueuse. Appelons A lévènement « une pièce prise au hasard a été fabriquée par la machine A », B et C les évènements analogues pour les machines B et C. Appelons D lévènement « une pièce prise au hasard est défectueuse ». Il faut commencer par traduire les pourcentages en proba bilités et en probabilités conditionnelles : P(A) = 0,4, P(B) = 0,3, P(C) = 0,3, P(D|A) = 0,001, P(D| B) = 0,003, P(D|C) = 0,008. On peut alors calculer le dénominateur de la formule de Bayes P(D) = P(A)P(D| A) + P(B)P(D| B) + P(C)P(D| C) = 0,4×0,001 + 0,3×0,003 + 0,3×0,008 = 0,0037. Et on a enfin : P(C)P(D C)0,0024 P(C D)=== 0,65 P(D)0,0037 On voit ainsi que, pour employer un vocabulaire ancien, la probabilitéa prioriquune pièce (prise au hasard) ait été fabriquée par C est 0,30, et que la probabilitéa posterioriquelle ait été fabriquée par C sachant quelle est défectueuse passe à 0,65. Voirconditionnelle (probabilité).
Benford (loi de)(Benford distribution) Loi empirique qui régit la distribution du premier chiffre des nombres pris dans des ensem bles de données présentant des grandes variations déchelle. Cette loi a été découverte en 1881 par lastronome S. Newcomb et redécouverte en 1938 par le physicien F. Benford. Elle énonce que la probabilité dapparition du premier chiffre significatifkdun nombre (écrit en base 10) est : 1   P(k) = log 1 +10   k En particulier P(1) = 0,30130 %. Lune des justifications mathématiques de cette loi est son invariance par un changement arbitraire dunité de mesure. Utilisation Cette loi a été utilisée dans les années 1990 pour détecter des fraudes comptables par utilisa tion de données inventées. © Dunod  La photocopie non autorisée est un délit.
A
B
C
D
E
F
G
H
I
J
K
L
M
N
O
P
Q
R
S
T
U
V
W
X
Y
Z