Statistiques médicales (Manuels de médecine clinique)

De
Publié par

La rédaction de cette série de manuels de médecine clinique prolonge une démarche réalisée au bénéfice des étudiants en médecine de l'université de l'auteur, praticien intra-hospitalier, visant à les faire bénéficier d'un travail personnel consistant en une synthèse de lectures personnelles de la littérature médicale et de réflexions issues de sa pratique.
Il n'est pas question dans ce volume de fournir une somme d'affirmations indiscutables quant aux statistiques mais bien d'en fournir les éléments indispensables à l'interprétation des études Evidence Based fondant notre pratique. A chacun ensuite de les confronter à ses propres connaissances, pratiques et recherches pour se bâtir son mode de raisonnement clinique. Il s'agit donc d'un outil visant à contribuer à l'éducation des étudiants en médecine, des jeunes praticiens et, de façon plus marginale, du public.
Publié le : lundi 25 mai 2015
Lecture(s) : 6
Tags :
Licence : Tous droits réservés
Nombre de pages : 26
Voir plus Voir moins
Cette publication est uniquement disponible à l'achat
Manuels de Médecine Clinique - Eléments de statistiques médicales Dr Shanan Khairi
PDF générés en utilisant latelier libre « mwlib ». Voir http://code.pediapress.com/ pour plus dinformations. PDF generated at: Mon, 04 May 2015 16:41:12 CEST
Eléments de statistiques médicales
Eléments de statistiques médicales
Les statistiques permettent de transposer une incertitude en connaissance utilisable. Cependant des résultats valables pour un grand nombre ne sont pas systématiquement transposables à un individu (qui peut se situer aux extrêmes). Cet article n'a de sens que mis en articulation avec l'article consacré à l'épidémiologie médicale.
Introduction
Terminologie Hasard signifie "jeu de dé" en arabe, traduisant un événement dont l'issue est imprévisible. Randomisation : distribution faite au hasard. Processus stochastique ( = aléatoire) : processus dont le résultat dépend du hasard. Statistiques descriptives : résumé des caractéristiques propres (paramètres) à une population (ou un échantillon). Statistiques déductives (=inférentielles) : permet de formuler des hypothèses Ho sur les paramètres dune population. Ces hypothèses seront vérifiés sur base des paramètres dun échantillon. Probabilités : nombre (entre 0 = non réalisation de lévénement et 1 = réalisation certaine de lévénement) traduisant le degré de confiance dans la réalisation dun événement = quantification de lexpression du hasard pouvant expliquer les observations. Cest le pourcentage de réalisation dun événement si on le répétait un très grand nombre de fois dans des conditions similaires. Probabilités subjectives (= personnelles) : degré de croyance en la survenue de lévénement. Le "sens clinique" clinique lui correspond en médecine. Nest pas fondé sur des essais répétés. Population et échantillon : • Population : tout groupe dindividus dont est extrait un échantillon. • Échantillon : petit nombre de sujets tirés au hasard dune population. A partir de ses paramètres (m, s) on pourra estimer les paramètres de la population (µ, σ).
Biais n'est pas hasard Les biais sont des erreurs systématiques liées à la constitution de léchantillon ou à la mesure (technique, mauvais tarage, appareils différents) et sont corrigibles ! Cest tout à fait différent de lerreur aléatoire, non corrigible. Exemple de biais : si on mesure la tension artérielle (TA) avec un sphyngomanomètre ou avec un cathéter intra-artériel on obtiendra des valeurs différentes.
1
Eléments de statistiques médicales
Distributions des variables aléatoires Distributions : Des variables continues : distributions gaussienne (= normale), logarythmico-normale • Distribution gaussienne : on construit une courbe de probabilité basée sur une loi de distribution postulant que lintervalle de prédiction [m +- s] contient 68% des valeurs et [m +- 2s] contient 95% des valeurs. La surface totale étant de 100% et la médiane = le mode = la moyenne. Des variables discrètes : distributions hypergéométriques, binomiales, de Poisson • Lois de probabilités sur de petits échantillons : tests de student, du chi², de Fisher,nécessitent un degré de liberté (d.d.l.)
Statistiques descriptives : calcul des paramètres Les paramètres sont des variables caractérisant une distribution théorique connue, permettant de déterminer la forme exacte de cette distribution. Ils permettent de résumer (réduire) un grand nombre de données. On fait souvent lhypothèse que dans une population déterminée la variable a une distribution de forme théorique connue. Ex : une distribution gaussienne se caractérise par deux paramètres : moyenne et variance. Il existe des tests paramétriques (= test statistique dont le calcul est basé sur les paramètres. Supposant un écart-type sd symétrique de part et dautre de la moyenne m) et non paramétriques (test statistique dont le calcul nest pas basé sur les paramètres mais sur les rangs pour la comparaison de deux ou plusieurs groupes dont la distribution des valeurs observées nest pas gaussienne). Est variable tout ce qui varie dans un exemple de donné. Qualifiée daléatoire si les valeurs quelle peut prendre fluctuent au hasard. • Variables qualitatives catégorielles : nominales (ex : fumeur/ non fumeur) ou ordinales (ex : groupes dâges 10-19/ 20-29/) Variables quantitatives : discrètes (dénombrements. Ex : nombre de décès) ou continues (mesures. Ex : poids)
Paramètres de position et paramètres de dispersion • Paramètres de tendance centrale (= de position) : moyenne (arithmétique = somme des valeurs/ nombre de valeurs, géométrique, harmonique, quadratique), médiane (= percentile 50 = divisant la population en deux groupes contenant chacun 50% des individus), mode (= valeur la plus fréquente). • Dans le cas dune distribution normale (symétrique), moyenne = mode = médiane Paramètres de dispersion : • Ecart-type (s = SD), quon ne peut calculer directement (lesneutralisant les +) mais par le biais de la racine carrée de la variance. • Variance = s² = ((Xim)² ) / (n-1) • (n-1) exprimant lexistence dun degré de liberté d.d.l.=1 • Amplitude (= maximumminimum), coefficient de dispersion/ de variation (= 100 x sd/m), écart interquartile (= p75p25)La notion de degré de liberté (d.d.l.) se réfère au nombre de termes linéairement indépendants impliqués dans le calcul dun paramètre. Il est calculé comme la taille de léchantillon moins le nombre de paramètres nécessaires pour le calcul de ce paramètre. Ainsi pour une distribution normale : d.d.l. = 0 pour le calcul de la moyenne (on divise par n), d.d.l.=1 pour le calcul de la variance (on divise par n-1).
2
Eléments de statistiques médicales
Symétrie et représentation graphique Plus la valeur (moyennemédiane) est éloignée de 0, plus la série est asymétrique.
Indépendance et covariance Deux variables sont indépendantes lorsquil nexiste pas de corrélation entre leurs séries de valeurs (les variations dune variable Y ne sont pas liées aux variations de la variable X). Lindépendance traduit donc que la connaissance de la réalisation dun événement ne nous donne aucune information sur la réalisation dun autre événement. Cette notion est importante car elle déterminera notamment le mode de calcul du test statistique utilisé pour la comparaison de deux moyennes. Ex : lâge et la TA sont deux variables non indépendantes : la TA systolique augmente et la TA diastolique diminue avec lâge (baisse délasticité des artères liée à lâge : se dilatent moins en systole et se contractent moins en diastole). Comment calculer le degré dindépendance entre deux variables ? Par le biais de la covariance : Cov = ( (Xi m1) x (Yim2) ) / (n1)Une covariance = 0 signifie que les deux variables aléatoires sont indépendantes. Cependant, ce paramètre doit encore être transformé pour être facilement interprété : on calcule le Coefficient de corrélation : r = cov / (variance1 xvariance2). Si ce coefficient est proche de ses valeurs extrêmes 1 ou -1, il existe une corrélation directe ou inverse (souvent une relation causale).
Variance de la différence entre deux moyennes Si les variables ne sont pas indépendantes : • Var (mx-my) = 1/n x (varx + vary2 covxy) • Ex : test t = (mxmy) / [(var (mxmy)] avec d.d.l. = nx + ny2 Si les variables sont indépendantes : idem mais covxy = 0
Estimation de la précision d'une moyenne Imaginons une population (µ, σ) dont on tire n échantillons (m(n), sd(n)). On peut alors construire une « superdistribution » avec une « supermoyenne » m (estimant µ) et une « erreur standard » SE = sd/n (« super écart-type » estimant SE = σ/n).
3
Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.