Probabilités et statistiques
174 pages
Français

Vous pourrez modifier la taille du texte de cet ouvrage

Probabilités et statistiques

-

Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus
174 pages
Français

Vous pourrez modifier la taille du texte de cet ouvrage

Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

Les probabilités et les statistiques sont abordées à la façon gaillarde et souvent humoristique par l’auteur qui n’est pas mathématicien, tout en rendant un texte sérieux malgré tout. L’auteur essaie dans cet ouvrage de rendre abordables des notions mathématiques qui apparaissent souvent rébarbatives et repoussantes, alors qu’elles sont essentielles dans notre vie quotidienne : sondages, études scientifiques, jeux de hasard… Rien n’échappe à ce domaine des mathématiques, sauf l’interprétation qu’il faudrait en faire quand on ne maîtrise pas ces notions.

Sujets

Informations

Publié par
Date de parution 31 décembre 2019
Nombre de lectures 61
EAN13 9782312071145
Langue Français

Informations légales : prix de location à la page 0,0015€. Cette information est donnée uniquement à titre indicatif conformément à la législation en vigueur.

Exrait

PROBABILITES ET STATISTIQUES

Jean Luc Buetas



Probabilités et statistiques

Ce que j’en ai compris, si ça peut aider…















Du même auteur, aux Editions du Net :

Les Voéyaghes d’Albertine, P’rmière Rabalée, 2017
Les Voéyaghes d’Albertine, Deusième Rabalée, 2019
Mourcias Chouésis de l’Ajhasse Désencruchée, 2017



« Ô mathématiques sévères, je ne vous ai pas oubliées, depuis que vos savantes leçons, plus douces que le miel, filtrèrent dans mon cœur, comme une onde rafraîchissante.»
Lautréamont




« J'aimais et j'aime encore les mathématiques pour elles-mêmes comme n'admettant pas l'hypocrisie et le vague, mes deux bêtes d'aversion. »
Stendhal
















Avant Propos


Je ne suis pas mathématicien, loin de là. D’où vient alors cette folle idée de rédiger un ouvrage sur les probabilités et les statistiques ? En fait, tout au long de mon cursus, j’ai eu droit à des cours de mathématiques, et à l’Université, particulièrement, des cours sur les probabilités et les statistiques. Dire que je trouvais cela passionnant serait trahir la vérité. Mais tout au long de ma vie professionnelle, que ce soit à travers la géologie, la pédologie ou l’œnologie, j’ai du, contraint et forcé, utiliser les statistiques, et régulièrement revenir sur les enseignements que l’on m’a dispensé, que ce soit pour discriminer deux especes d’oursins fossiles ou pour le calibrage d’un automate d’analyses dernier cri, impossible d’échapper à l’utilisation des statistiques.

Une autre façon de voir les choses, a été l’observation du quotidien. Pas une seule journée ne se passe sans que je fustige ces journalistes qui dissertent sur des sondages alors qu’ils sont peu ou prou totalement ignorants de ce que peuvent être les statistiques et à fortiori comment on réalise un sondage et quel crédit lui apporter. Ou alors, au travers des discussions, je reste toujours étonné des conclusions tirées de leur logique, de bonne foi, par mes interlocuteurs, et qu’ils admettraient bien volontiers fausses s’ils avaient un minimum de connaissances dans le domaine des probabilités et des statistiques.

Je me suis replongé dans mes cours de fac, et j’ai retrouvé les enseignements sur ce sujet donné par un professeur de mathématiques, Monsieur François DRESS, qui grâce à son humour et sa patience avait réussi le tour de force de me faire aimer, au moins un peu, cette discipline. Encore aujourd’hui, je le remercie sincérement.

Ainsi est née l’idée de rédiger un petit opuscule sur ce que j’avais compris des probabilités et des statistiques, en partant du principe (si peu mathématique), que si j’avais compris alors d’autres pourraient comprendre aussi. Et comme je ne suis pas mathématicien, j’aurais la possibilité de m’exprimer de manière plus « compréhensible » pour mes contemporains.

Dernier point, mais d’importance, cet ouvrage est totalement inspiré et tiré du cours « Mathématiques- Calcul des Probabilités » de François DRESS dispensé à la Faculté des Sciences de l’Université de Bordeaux en 1979. Sans vergogne, et sans aucun remord ou regret ou honte, j’ai puisé abondement dans ce cours jusqu’à copier des phrases entières quand elles étaient bien mieux formulées que les miennes, y compris pour les exemples donnés.

Chers amis, bonne ballade mathématique…




















Introduction



Inutile, je pense, de rappeler l’importance de connaître, ou tout le moins avoir des notions de probabilités et de statistiques. Les ignorer c’est se couper d’un pan entier de connaissances pourtant si utiles et indispensables tant dans la vie professionnelle ou la vie quotidienne. Ce serait comme de nos jours, ignorer les nouvelles technologies (qui ne resteront nouvelles qu’un temps). Actuellement, quatre vingt pour cent d’une tranche d’âge arrivent au baccalauréat. Tous ont donc eu des cours de mathématiques dans ce domaine. Combien après quelques années en ont encore quelques notions en mémoire ?

L’inconvénient dans l’enseignement des mathématiques reste souvent l’utilisation du jargon repoussoir, et l’utilisation de celles-ci comme moyen de sélection ce qui en fait une matière souvent détestée. C’est ce qu’affirme André JACQUART, Prix Nobel de Physique : « Les techniques de raisonnement regroupées sous le terme de mathématiques représentent un outil d'une telle efficacité que son usage se révèle nécessaire dans toutes les branches de la connaissance. Son apprentissage doit donc être entrepris le plus tôt possible et conduit de telle façon que, loin de rebuter, il provoque l'appétit de toujours aller plus loin. Ce qui est d'autant plus facile qu'il peut être présenté comme un jeu. Comble de contresens, dans l'enseignement, les maths sont présentées comme un obstacle à franchir et utilisées comme instrument de sélection. » Que dire de plus !

Ainsi, dans cet ouvrage, on essaiera d’utiliser le plus possible le langage quotidien et l’humour. Certes, on abordera les concepts fondamentaux du calcul des probabilités mais sans suivre véritablement l’orthodoxie mathématique le but étant d’en faire comprendre la signification. Les théorèmes ne seront pas forcément démontrés, mais on essaiera d’en tirer la substantifique moelle au travers de nombreux exemples.

Enfin, les mathématiques comme toute langue étrangère, possède un vocabulaire. Pour aborder une langue il faut posséder un minimum de vocabulaire. En mathématique, le vocabulaire est souvent symbolisé. Pour aider à la compréhension, on trouvera en annexe un tableau regroupant la plupart des symboles mathématiques, l’alphabet grec souvent utilisé, et nous essaieront le plus souvent possible de traduire en « bon français » les formules symbolisées.


























Chapitre 1 : Les espaces probabilisés




1- Introduction

La notion d’espace en mathématiques est un concept relativement flou pour le commun des mortels. En théorie des ensembles, nous dirons que cela peut être un patatoïde cacahuétiforme, ce qui ne nous avance guère. Disons que c’est un machin dans lequel il y a des choses.

Autre chose, en probabilités, on utilise souvent la notion de « hasard ». On lui attache le plus souvent le sens courant. Dans le domaine qui nous intéresse on l’associera à la notion d’ « expériences » dont certaines caractéristiques du résultat sont « variables », et donc, semblent échapper à toute possibilité de prévision. C’est le cas pour le tirage du loto, par exemple, ou du jet d’une pièce pour jouer à pile ou face. Prenons ce dernier exemple : on suppose que tout le monde est d’accord pour dire que le résultat du lancer d’une pièce en l’air est du au hasard. C’est pile ou face. La conception intuitive du hasard fait consensus, et on peut dire que pour une pièce lancée en l’air, retomber sur pile ou face est un évènement aléatoire , aléatoire est l’adjectif utilisé en mathématique pour exprimer ce qui est relatif au hasard.

Pour aller plus loin, nous devons établir un « modèle » mathématique des phénomènes aléatoires. Nous devons introduire trois notions de base : Tout d’abord, la notion d’ « épreuve », ce qu’on a appelé plus haut expérience : lancer une pièce, lancer des dès, tirer une carte d’un jeu de 52 cartes, tirer les boules du loto… Et celle d’ « évènement » : la pièce tombe sur pile, obtenir un double as, tirer le huit de carreau… Enfin, la notion de « probabilité » d’un événement aléatoire. La probabilité d'un événement est un nombre compris entre 0 et 1, 0 est la probabilité de l'événement impossible, et 1 est la probabilité de l'événement certain.
Plus la probabilité d'un événement est proche de 1, plus l'événement a des "chances" de se réaliser.

Revenons sur la notion de hasard. Finalement, contrairement au sens utilisé dans la vie courante, il apparaît en mathématique, que le hasard n’est pas n’importe quoi. On rattache la notion de hasard à des expériences (pas seulement scientifiques) et à priori, on considère que le résultat est variable et impossible à prévoir. C’est le bon sens même. Si je tire une carte d’un jeu de 52 cartes, il est impossible de prévoir quelle sera la carte tirée. Dans ce cas il s’agit d’une expérience unique. Par contre, si je répète l’expérience de nombreuse fois, on constate vite que la « fréquence » d’un évènement donné tend vers une valeur déterminée, appelée aussi fréquence limite. Cette fréquence limite comprise entre 0 et 1, représente la définition intuitive de la probabilité de l’évènement considéré.

Résumons : Epreuve : par exemple le jet d’un dé à six faces numérotées de 1 à 6 ; Evénement : on obtient un 6, Probabilité : la probabilité d’obtenir un six après un jet, p= 1/6 soit 0.17, que l’on peut traduire par, on a dix sept chances sur cent d’obtenir un 6.


2- Quelques définitions.

Bien. Evitons de nous faire peur. Les matheux parlent de définitions axiomatiques. Ou lala, kétokolé ? Pas de panique.
Un axiome désigne une proposition non démontrée, utilisée comme fondement d’un raisonnement ou d’une théorie mathématique. En gros, pour nous, c’est une règle du jeu, et pour jouer aux probas, des règles du jeu sont indispensables pour éviter ambigüités et contre-sens si courants quand on reste sur le mode intuitif.

D’autre part, nous allons avoir recours au vocabulaire de la théorie des ensembles. Aîe ! La panique s’installe, c’est le retour des patatoïdes cacahuétiformes bananoiesques. Rassurez-vous, représenter des ensembles ou des sous-ensembles ne pose pas plus de difficultés que de dessiner un grand rond dans lequel on fait 52 points pour représenter les 52 cartes d’un jeu de cartes, et prendre un crayon vert pour entourer les trèfles, un rouge pour les piques, un bleu pour les cœurs et un noir pour les carreau.

Allez, au boulot. Soit une « épreuve », c’est-à-dire une expérience aléatoire , on doit alors lui associer l’ensemble des résultats élémentaires qui peuvent se produire. On note cet ensemble Ω. C’est l’ espace fondamental.

Ayant l’espace fondamental, on définit ensuite un ensemble A d’évènements. On note P( Ω), qui est l’ensemble des parties de Ω. Il va de soit que A est inclus dans P(Ω). Dans notre étude, chaque fois que cela sera possible on prendra A = P( Ω). Soit un évènement A, A ⊂ Ω (on dit qu’À est inclus dans Ω). Si on effectue une épreuve et si on observe le résultat ω, avec ω ∈ Ω (petit oméga appartient à grand oméga), alors, on dit : L’évènement A s’est réalisé si ω ∈ A L’évènement A ne s’est pas réalisé si ω ∉ A Les évènements élémentaires {ω} sont formés chacun par un unique résultat « élémentaire » ω L’évènement certain est formé par Ω tout entier L’évènement impossible est formé par ∅ (l’ensemble vide)

La figure ci-dessous, illustre notre propos :

Figure n°1 : L’ensemble Ω avec A ⊂ Ω.

Prenons un exemple. Le lancer d’un dé à six faces est une expérience aléatoire d’espace fondamental : Ω = {1;2;3;4;5;6}. L’ensemble E1 = {2;4;6} est un événement. En français, cet événement peut se traduire par la phrase : « le résultat du dé est un nombre pair ». L’ensemble E = {1;2;3} est un autre événement. Ce second événement peut se traduire par la phrase : « le résultat du dé est strictement inférieur à 4 » Ces événements peuvent être représentés par un diagramme :


Les évènements doivent avoir chacun une probabilité, qui est un nombre compris entre 0 et 1. On définit une application 1 de l’ensemble des évènements dans l’intervalle fermé [0, 1]. Dans cette ouvrage elle sera notée P, elle est aussi appelée mesure de probabilité . Ceci nous amène à la définition suivante :


La probabilité d’un événement élémentaire est un nombre réel tel que: Ce nombre est compris entre 0 et 1 La somme des probabilités de tous les événements élémentaires de l’espace fondamental vaut 1.



Comme on veut que le calcul des probabilités fournisse des modèles mathématiques efficaces des phénomènes aléatoires concrets, il faut que notre application P possède quelques propriétés essentielles : P(Ω) = 1 A ⋂ B = ∅ , ⇒ P(A ⋃ B) = P(A) + P(B) ou en presque bon français, si les évènements A et B sont indépendants (qu’ils n’ont aucun impact l’un sur l’autre) la probabilité que les deux évènements se produisent est égale à la probabilité de l’un plus la probabilité de l’autre. Les matheux liront : si A inter B égal l’ensemble vide alors la probabilité de A union B = la probabilité de A plus la probabilité de B.

Cette formulation, d’un point de vue strictement mathématique n’est pas tout à fait complète, mais elle est amplement suffisante dans le cadre de cet ouvrage.

Des deux axiomes précédents découlent quelques propriétés : P( ∅ ) = 0 (la probabilité de l’ensemble vide égale zéro) P( ∁ A) = 1-P(A) (la probabilité du complémentaire de A est égale à 1 moins la probabilité de A) A ⊂ B ⇒ P(A) ≤ P(B) (si A est inclus dans B, la probabilité de A est inférieure à la probabilité de B). Si on prend l’exemple d’un jeu de 52 cartes, intuitivement, on comprend que la probabilité de tirer un roi de trèfle est plus faible que celle de tirer un trèfle tout court.

Pour le paragraphe suivant, si ça vous barbe, vous pouvez le sauter et aller directement au résumé. Mais pour les puristes, nous avons parlé de « l’ensemble des évènements » et non comme l’auraient fait les matheux de P(Ω), « l’ensemble de toutes les parties de Ω », car souvent et pour des raisons « techniques », il n’est pas possible d’attribuer une probabilité à tous les sous-ensembles de Ω. Que faire alors ? On va s’arranger et ne prendre en compte que trois cas (mais qui suffisent amplement à notre étude) : Comme Ω est un ensemble fini, on peut sans problème considérer que l’ensemble des évènements A est l’ensemble des parties de Ω, A = P(Ω). C’est ce que nous ferons systématiquement dans cet ouvrage. Ω étant un ensemble dénombrable, numérotable, qu’on peut chiffrer, ou comme disent les matheux qui peut être mis en bijection avec 2 de sorte que Ω = {ω 1 , ω 2 , …, ω n ,…}. On peut donc également prendre A = P(Ω). Si on prend Ω = (ensemble des réels 3 ), cet ensemble n’étant pas dénombrable, on ne peut pas prendre A = P( ).

Ce qu’il faut retenir :

Espace probabilisé (Ω, A, P), avec : Un espace fondamental Ω, ensemble de tous les résultats possibles ω Un ensemble A d’évènements, ensembles des évènements A probabilisables Une mesure de probabilité P : A ⟶ [0, 1] (pour l’ensemble A des évènements A, P est compris entre 0 et 1), et les propriétés suivantes : P( ∅ ) = 0 P(Ω) = 1 P( ∁ A) = 1-P(A) A ⋂ B = ∅ , ⇒ P(A ⋃ B) = P(A) + P(B) A ⊂ B ⇒ P(A) ≤ P(B)




Reprenons notre exemple :
On lance un dé à six faces. Ω = {1;2;3;4;5;6}. On note A l’événement : « obtenir un 6 » . On suppose que le dé est bien équilibré et que la probabilité de A est de 1/6 . La probabilité d’obtenir un résultat différent de 6 est alors :
P( ∁ A) = 1 – p(A) = 1 – 1/6 = 5/6


3- De l’art de bien choisir et la statistique.

Souvent dans la pratique, et dans cet ouvrage en particulier, on se réfère à des espaces probabilisés fabriqués à priori. Dans la réalité, on va être confronté à des phénomènes aléatoires concrets, et on va devoir construire un espace probabilisé qui soit un modèle adéquat et efficace. Dans un premier temps, il faudra définir Ω, et ce n’est pas toujours d’une grande évidence. En gros, il va falloir se torturer un peu les méninges. Prenons notre exemple du jeu de pile ou face. Deux Ω possibles s’offrent à nous : Ω = {pile, face} ou Ω = {pile, face, tranche}. Le choix dépend alors à la fois des conditions expérimentales, et de la finalité de l’étude. Dans notre exemple, l’utilisation d’une pièce adéquate élimine le résultat « tranche ».

De la même façon, il faudra définir l’ensemble A des évènements probabilisables, surtout pour se faciliter la vie dans le maniement des mathématiques.

La principale difficulté va être de choisir une mesure de probabilité. Heureusement, on va contourner un peu le problème en supposant que Ω est un ensemble fini, et que A = P(Ω), l’axiome des probabilités totales nous dit que si A ⋂ B = ∅ , ⇒ P(A ⋃ B) = P(A) + P(B), alors si la probabilité des évènements élémentaires est connue, la probabilité de tous les évènements est aussi connue. On est pas tout à fait arrivé pour autant. Comment connaître la probabilité des évènements élémentaires ? A ce stade, nous avons deux possibilités : La plus raisonnable, mais souvent difficile à réaliser d’un point de vue matériel, consiste à expérimenter le phénomène et définir la probabilité d’un évènement comme la limite de sa fréquence. Et quand on a dit ça, on est pas sorti de l’auberge, car cela impose d’avoir des renseignements concrets sur la manière dont la fréquence « tend » vers la probabilité, et il faudra alors faire appel à la loi des grands nombres , ce qu’on verra plus loin avec la notion de « convergence en probabilité », notion qui est loin d’être simple à admettre, voir à comprendre tout court. La deuxième façon de procéder, c’est ce qu’on fera le plus souvent, consiste à choisir des probabilités à priori adaptées à l’idée qu’on se fait du phénomène concret. Et l’un de ces choix à priori le plus fréquent dans la pratique est celui de l’ équiprobabilité entre tous les évènements élémentaires possibles. Ainsi, on ramène les calculs des probabilités des évènements à des calculs de dénombrements.

Vous allez me dire, « c’est bien joli, Coco, mais est-ce que ça marche, quelque soit ton choix, expérimentation ou choix à priori ? ». Eh, bien, non. Pas toujours. Des fois, on se plante. Il est donc indispensable de contrôler à postériori que l’espace probabilisé construit est un modèle adéquat du phénomène étudié, et que finalement on confirme qu’on n’a pas un QI de moule marinière. C’est très exactement l’objet de la statistique mathématique que de tester cette adéquation. La complémentarité entre calcul des probabilités et statistique mathématique, pour l’étude des phénomènes aléatoires est très claire : on peut dire que le calcul des probabilités étudie le « fonctionnement » des modèles probabilistes abstraits, la statistique mathématique fournit les critères de choix d’un modèle adéquat à la réalité et du contrôle de cette adéquation.
Maintenant, on respire un grand coup et on passe à la suite.


4- Probabilités totales et mesure.

Rappelons l’axiome des probabilités totales :

A ⋂ B = ∅ , ⇒ P(A ⋃ B) = P(A) + P(B),

A force, ça va rentrer.

On va maintenant « exploiter » à « donfe» cet axiome (cette règle du jeu) pour en déduire un certain nombre de formules simples d’usage courant. Mais, nous devons avant tout nous familiariser avec quelques expressions ou vocabulaires. On va par la suite utiliser deux types de vocabulaires. Tout d’abord le vocabulaire du langage courant, langage de la logique, mais il conviendra alors de préciser le sens des mots. Mais aussi le vocabulaire de la théorie des ensembles.

Voyons ce que ça donne : Si A est un évènement, son complémentaire est synonyme de non-A Si A et B sont deux évènements, leur réunion est synonyme de A ou B, c’est-à-dire soit A tout seul, soit B tout seul, soit A et B simultanément ; leur intersection est synonyme de A et B.

Notations ensemblistes
Notations logiques
Opérations
∁ A (complémentaire de A)
non-A
A ⋃ B (A union B)
A ou B
A ⋂ B (A inter B)
A et B
Relation
A ⊂ B (A inclus dans B)
A ⇒ B

Reprenons notre axiome des probabilités totales. On a défini comme disjoints des évènements A et B qui s’excluent, c’est-à-dire que A ⋂ B = ∅ . Alors P(A ⋃ B) = P(A) + P(B). On y revient. Par exemple, obtenir deux as et obtenir trois rois sont deux évènements disjoints, alors que obtenir deux as et obtenir un trèfle ne sont pas disjoints, car on peut tirer deux as dont un est du trèfle.

Si on généralise notre affaire, on peut dire que si A 1 , A 2 , A 3 , …, A k sont des évènements mutuellement disjoints et si on note que A = A 1 + A 2 + … + A k alors :
P(A) = P(A 1 ) + P(A 2 ) + … + P(A k )

ATTENTION : Quand on dit disjoints on sous-entend deux-à-deux disjoints, c’est-à-dire :
A 1 ⋂ A 2 = ∅ , A 1 ⋂ A 3 = ∅ , … A 2 ⋂ A 3 = ∅ , … A k-1 ⋂ A k = ∅ , et pas seulement: A 1 ⋂ A 2 ⋂ A 3 ⋂ A 2 … ⋂ A k = ∅ !!!

Ceci étant dit, il n’y a pas que des évènements disjoints. Prenons deux évènements A et B non-disjoints, la réunion de ces deux évènements non-disjoints, A ⋃ B, correspond en fait à la réunion de trois évènements disjoints, à savoir : A ⋂ ∁ B, (A inter complémentaire de B), A sans B B ⋂ ∁ A, (B inter complémentaire de A) B sans A A ⋂ B, (A inter B), A et B.

On en déduit la formule suivante :

P(A ⋃ B) = P(A) + P(B) – P(A ⋂ B)


Si vous voulez faire une pause, c’est maintenant, car dans le paragraphe suivant, on commence à entrer dans le dur.





5- Probabilités combinatoires.

Les probabilités combinatoires sont la technique utilisée pour calculer les probabilités des évènements dans un espace fini où l’on a décidé de considérer tous les évènements équiprobables (« qui ont la même chance d’arriver »).

Partons d’un principe simple : soit un espace fondamental fini Ω constitué par N évènements élémentaires ω 1 , ω 2 , … , ω n , et soit A un évènement constitués de k évènements élémentaires, si p est la probabilité d’un évènement élémentaire quelconque, alors :

(somme pour i =1 jusqu’à i = n)
D’où p = 1/N
Donc :

On dit : la probabilité de l’évènement A est égale au quotient du nombre k de « cas favorables » par le nombre N de « cas possibles ».

Revenons sur la notion d’équiprobalité. Globalement, on considère qu’on applique un principe de symétrie . En effet, on peut affirmer que géométriquement et mécaniquement, les deux côtés d’une pièce, les six faces d’un dé, les 52 cartes d’un jeu, etc., sont, en première approximation, identiques. Il est donc raisonnable d’attribuer à des évènements identiques « autant de chances » de se produire. C’est, au moins, proche de la réalité dans les cas simples qu’on vient d’évoquer. Par contre, dés qu’on travaille sur des cas plus complexes, ce principe de symétrie devient moins évident, mais on continue à considérer comme valable l’équiprobabilité. On en vient presque à une conception philosophique en adoptant ce que J. Bernoulli 4 appelait le principe de raison insuffisante , que l’on peut aussi traduire par principe d’Egale Ignorance . Faute de mieux, l’équiprobabilité est une hypothèse provisoire en attendant qu’une étude statistique de l’expérimentation du phénomène apporte une meilleure hypothèse.

Dans nombre de cas d’études de probabilités, l’équiprobabilité n’est pas affirmée explicitement, on devra la supposer.

Les probabilités combinatoires utilisent constamment des formules de combinatoire 5 . Nous n’en utiliserons que les principales.

Nombre d’ arrangements avec répétition de k objets pris dans un ensemble E de n objets :
Nbre = n k

Exemples : Soit E = {p, f}, on lance k fois une pièce, il y a alors 2 k suites différentes de pile ou face. On lance la pièce trois fois, il y a donc 2 3 = 8 suites différentes de piles ou faces : ppp, ppf, pff, pfp, fff, ffp, fpp, fpf, soit 8 suites possibles Soit E = {As, 2, 3, 4, 5, 6}, on jette k fois le dé, il y a donc 6 k résultats différents pour k jets de dé. Si on jette le dé 3 fois, il y a alors 6 3 = 216 résultats possibles. Soit E = {a, b, c …, z}, il y a donc 26 k mots différents de k lettres.

Un cas particulier :

Nombre de parties d’un ensemble K de k éléments : 2 k


Exemple : En morse, les mots sont écrits avec un alphabet de deux symboles ─ et ●. Soit k un entier naturel. Un mot de k lettres est un k-arrangement avec répétition de l'ensemble {─, ●}, donc il y a 2k mots d'exactement k lettres. Le binaire s’écrit avec 0 et 1, donc en informatique, un octet est une suite de 8 caractères 0 ou 1, il y a donc 2 8 octets possibles, soit 256 octets possibles. En mathématiques, une fonction caractéristique , ou fonction indicatrice, est une fonction définie sur un ensemble E qui explicite l’appartenance ou non à un sous-ensemble F de E de tout élément de E. Formellement, la fonction caractéristique d’un sous-ensemble F d’un ensemble E est une fonction avec
X : E = {0,1}
Et x ⟶ 1 si x ∈ à F
0 si x ∉ à F
Dit d’une autre façon, un cas particulier des arrangements avec répétition, on associe à une partie A ⊂ K sa « fonction caractéristique » X A , X A (x) = 0 si x ∉ A et X A (x) = 1 si x ∈ A.







Arrangements sans répétitions de k objets pris dans un ensemble E de n objets :


Autre présentation : est le nombre de manières différentes de ranger k objets « discernables » dans n boites avec au plus un objet par boite.

n! veut dire « factotielle n » 6 et représente le produit
nx(n-1)x(n-2)x … x2x1, donc 5 ! = 5x4x3x2x1

Prenons un exemple. Selon la première présentation :
pour k≤n ,
Soit E = {0, 1,…, 9}, alors il existe numéros de téléphone formés avec six chiffres différents

Autre exemple, mais en considérant la deuxième présentation :
Il faut choisir au sein d’une association de n membres, un bureau composé d’un président, d’un secrétaire et un trésorier (avec cumul des charges interdit, = sans répétiton = objets discernables, si un membre occupait deux fonctions, celles-ci ne seraient plus discernables), il y a alors

= n(n-1)(n-2)(n-3)...2.1/(n-3)...1
=n(n-1)(n-2) bureaux différents possibles
Cas particulier, pour k = n :
Nombre de permutations de n objets :

avec 0 !=1


Exemple : combien y-a-t-il de manières différents de placer 12 personnes autour d’une table ? C’est un cas classique de permutations, il y a donc 12 ! = 479 001 600 manières différentes de placer douze convives autour d’une table. On comprend mieux la détresse de ceux qui sont chargés des plans de tables lors d’une fête.

On a vu les arrangements avec répétitions, voyons maintenant les cas avec répétitions.

Combinaisons sans répétition de k objets pris dans un ensemble E de n objets :



est toujours un entier

Autre présentation : est le nombre de manières différentes de ranger k objets « indiscernables » dans n boites (k ≤ n) avec au plus un objet par boite.

Les s’appellent aussi les coefficients binomiaux et on une seconde notation : , qui se répend de plus en plus avec l’inversion de n et de k.

Propritété :




Autres présentations possibles :

est le nombre de sous-ensembles différents de k éléments d’un ensemble E de n éléments

De façon plus symétrique : est le nombre de manières différentes de partager n objets entre deux classes, contenant respectivement k et n-k objets.
Cette symétrie entraine la propriété






Rien ne vaut quelques exemples pour meiux intégrer ces notions :


Exemple n°1: au bridge une « main » contient 13 cartes. Combien de mains différentes peut-on faire avec un jeu de 52 cartes ? Les 52 cartes étant différentes, une main est une combinaison sans répétition, donc le nombre de mains est

Cherchons maintenant le nombre de mains différentes avec 4 as. On met de côté les 4 as, il reste à attribuer 9 cartes parmi les 48 restantes. Il y a donc mais différentes possibles avec 4 as. Je vous laisse la joie de faire le calcul.

Exemple n°2 : on veut réaliser un sondage sur un échantillon de 1750 individus. Combien d’échantillons de 1750 personnes peut-on extraire d’une population de 50 000 000 d’habitants ? Les habitants étant tous différents, chaque échantillon est constitué sans répétition. La solution est donc
N’essayez pas de faire le calcul, même Excel en reste perplexe. Cela ne vous rappelle rien ? Méditons sur les sondages actuels réalisés sur 900 personnes, échantillons soi-disant représentatifs.

Passons à quelques calculs de probabilités pour illustrer les différents items.

Exemple n°3 : Quelle est la probalilé de tirer un roi d’un jeu de 52 cartes ? On considère que chaque tirage est équiprobable et dans notre exemple chaque tirage à une probabilité de 1/52. On peut traduire cela par il y a N= 52 « cas possibles » et comme il y a quatre rois, on peut dire qu’il y a k = 4 « cas favorables ». Donc la probabilité de tirer un roi d’un jeu de 52 cartes est P=k/N soit 4/52, P=1/13 soit 0.08 (on a 8% de chances de tirer un roi.

Exemple n°4 : On joue aux dés, avec deux dés. Quel est la probabilité d’obtenir 5 comme somme des chiffres obtenus par un jet de deux dés ? Déterminons d’abord le nombre de cas favorables. Les résultats possibles pour un jet de deux dés sont décrit dans Ω = {(1, 1), (1, 2),…,(1, 6),(2, 1),(2, 2),…,(6, 6)}. Il s’agit d’un arrangement avec répétitions donc N=6² soit 36 cas possibles. Déterminons maintenant l’ensemble A des cas favorables soit les tirages dont la somme est 5 :
A = {(1, 4), (2, 3), (3, 2), (4, 1)}, donc k = 4. Donc P=4/36 soit 1/9 = 0.11. Il y a 11% de chance d’obtenir une somme de 5…

Exemple n°5 : Reprenons notre partie de bridge. Quelle est la probabilité d’obtenir 4 as dans une main ? Toujours la même méthode, on doit définir N le nombre de cas possibles et k le nombre de cas favorables.
Nombre de cas possibles, Ω = { tirages de 13 cartes parmi 52}, comme on l’a vu dans l’exemple n°1(combinaison sans répétition), N = .
Nombre de cas favorables : A {4 as plus les tirages des 9 cartes parmi 48 cartes restantes}, (combinaisons à nouveau sans répétition), donc k = .
Donc P = k/n ⇒ =11/4165#0.00264.
Même en éta nt très optimiste, il n’y a que 0.2 % de chance d’avoir 4 as servis dans une main au bridge !

Exemple n°5 : Nous jouons toujours au bridge. Mais nous sommes beaucoup moins optimistes que précédemment. Notre préocc upation est d’avoir au moins un as dans une main.
Deux problèmes se présentent à nous. Tout d’abord le diagnostic combinatoire, semblable au précédent, mais aussi le passage au complémentaire. En effet l’ex pression « au moins un » nous complique l’existence. En passant par le complémentaire, on voit qu’il est plus facile de calculer P(0 as) puis P(au moins 1 as) = 1 – P(0 as), plutôt que P(1 as) + P(2 as) + P (3 as) + P(4 as). Pour calculer P(0 as), on reprend la méthode de l’exemple précédent.
et donc


Exemple n°6 : Partons au cinéma. Malheureusement nous devons faire la queue. Il y a n personnes qui attendent et les organisateurs ont attribué au hasard un numéros d’ordre. Quel est dans ce cas-là la probabilité que deux amis soient distants de r places (ou séparés de r-1 personnes) ? Question liée, quelle est la distance la plus probable entre ces deux amis ?
Attention à l’intuition. Il y a deux façon de raisonner pour résoudre ce cas : On suppose que les deux amis sont « indiscernables » (pourquoi pas s’ils sont habillés de manière identique et que l’éclairage est faible), on a alors
Ω = { couples (n 1 , n 2 ) avec 1≤ n 1 < n 2 ≤n}
est le nombre de manières différentes de ranger 2 amis « indiscernables » dans n positions (2 ≤ n) avec au plus un ami par position soit n(n-1)/2. [détails du calcul : n !/k !(n-k) ! soit n(n-1)(n-2)(n-3)…./2 !(n-2)(n-3)… . On simplifie par
(n-2)(n-3)…. On obtient n(n-1)/2].
Nous reste à définir A l’ensemble des cas favorables. Si nos deux amis sont distants de r places, alors l’ami n 2 est à la place r + la place de n 1 , si n 1 est à la place 1, n 2 est à la place r+1. Donc les deux amis sont sur la place 1 et la place r+1, ou sur la place 2 et la place r+2, ou sur la place 3 et la place r+3,… , ou sur la place n-r et la place n. Ainsi A= {(1, 1+r), (2, 2+r)…,(n-r, n)}. Il en ressort que k = n-r et par conséquent la probabilité que les deux amis soit distants de r places est


Deuxième raisonnement : on suppose que les amis sont discernables, par exemple, un grand maigre et un petit gros. Alors Ω = { couples (n 1 , n 2 ) avec n 1 ≠ n 2} alors le nombre de cas possibles est


Et A= {(1, 1+r), (2, 2+r)…,(n-r, n)} ⋃ {(r+1, 1), (r+2, 2) …(n, n-r)}, don k = 2(n-r).
Ainsi n-r)/n(n-1). C’est la même probabilité. Surprise !


Le graphique ci-dessus est un exemple de calculs de p pour n = 9. Il y a 9 personnes dans la file d’attente.

Reprenons notre probabilité : P = 2(n-r)/n(n-1) alors pour r = 1, P = 2/n. En fait, quelque soit la grandeur de la file (donc quelque soit n) la probabilité que les deux amis soit à une distance r est la plus grande pour r = 1, c’est-à-dire quand les deux amis sont l’un derrière l’autre , alors que l’intuition nous aurait conduit à envisager une distance « moyenne » de n/2


6- Un exemple en guise de résumé des probabilités combinatoires

Prenons les 5 lettres : A, B, C, D, E
Combien y a-t-il de façons différentes de choisir 3 lettres parmi ces 5 ?
Posée ainsi, la question est ambiguë, on ne peut pas y répondre, sauf par d'autres questions :
La première qui vient à l'esprit est : "est-ce qu'on a le droit de prendre plusieurs fois la même ?", c'est à dire AAA ou ABA sont-ils des choix autorisés ?
Cette notion est évidemment fondamentale, c'est la notion de répétition ; reformulée, la question devient : "la répétition est-elle possible ?"
Eh bien, ça dépend, on peut autoriser la répétition ou non, ça nous fait donc deux problèmes à résoudre : avec et sans répétition.
Une remarque : autoriser la répétition revient à dire qu'on peut choisir plusieurs fois la même lettre, donc à dire qu'on la remet dans le "sac" après l'avoir tirée; la notion de choix avec répétition est donc très proche de la notion de tirage avec remise.
La seconde question qui doit vous venir à l'esprit est : "Est-ce que ABC et CBA c'est pareil?", autrement dit, en meilleur français : "Deux choix qui ne diffèrent que par l'ordre des lettres choisies sont-ils comptés comme 1 seul et même choix ou non ?"
On voit apparaître là la seconde notion fondamentale : l'ordre .
Là aussi, ça dépend, on peut décider que l'ordre ne compte pas (donc dire qu’ABC, ACB, BCA, BAC, CAB et CBA représentent un seul choix) ou, au contraire différencier des choix ne différant que par l'ordre.
On a donc 2 cas : avec ou sans répétition et 2 cas : avec ou sans ordre. Commençons donc à faire des dénombrements : ça nous donne...4 cas à examiner.
Pourquoi 4 ? Parce qu'il y a 2 cas pour la répétition et 2 cas pour l'ordre et qu'à chacun des cas pour la répétition correspondent les 2 cas pour l'ordre, ce qui donne : 2 x 2 = 4 !
On peut voir ça comme un tableau :

AVEC ORDRE
SANS ORDRE
AVEC REPETITION
Cas1
Cas 4
SANS REPETITION
Cas2
Cas 3
Donc, revenons à notre problème de départ que nous allons examiner dans chacun des 4 cas : combien y a-t-il de façons de choisir 3 lettres parmi A,B,C,D,E ?

Cas 1 : avec ordre et avec répétition
Ca veut dire que ABC et CBA ne sont pas pareils et qu'on peut avoir AAB. Il y a 5 lettres possibles quand on doit choisir la première lettre : A, B, C, D ou E. Une fois cette première lettre choisie, il y a toujours 5 possibilités de choix pour la deuxième, puisqu'on peut choisir la même (répétition autorisée).Il y aura enfin, encore 5 possibilités de choix pour la troisième lettre (pour la même raison que précédemment).

A chacun des choix possibles pour la première lettre, correspondent tous les choix de la seconde : Que la première soit A ou B ou C ou D ou E, la seconde peut être A ou B ou C ou D ou E; ça donne donc 25 (5x5) façons de choisir les deux premières lettres :

AA AB AC AD AE BA BB BC BD BE CA CB CC CD CE DA DB DC DD DE EA EB EC ED EE
Et ce sera pareil pour la dernière : 5 choix possibles (ABCDE) pour chacun de 25 cas précédents, donc au total 5 x25 = 125 choix possibles !
Remarque : 125 a été obtenu en multipliant 5 par 5 puis encore par 5, soit 5x5x5, soit 5 3
Si on généralise le problème, non plus à 3 lettres à choisir parmi 5, mais à p objets à choisir parmi n, par un raisonnement analogue, la réponse sera donc : n multiplié par n, puis par n, puis par n...(p fois), donc : n p
Le nombre de façons de choisir p objets parmi n avec ordre et répétition vaut : n p
Cas 2 : avec ordre mais sans répétition Quand la première lettre choisie est un A, la seconde ne peut plus être un A (puisque la répétition n'est pas autorisée), ça sera donc un B, un C, un D ou un E (4 possibilités de choix, 4 = 5 - 1, 5 possibilités au départ moins 1 puisqu'on ne peut pas choisir la même lettre une seconde fois). Il n'y aura ainsi plus que 3 possibilités de choix pour la troisième lettre qui ne pourra être aucune des deux premières. Comme tout à l'heure, à chaque choix de la première lettre, correspondent tous les choix de la seconde, ce qui nous donne 20 façons de choisir les deux premières (20 = 5x4) :
AB AC AD AE BA BC BD BE CA CB CD CE DA DB DC DE EA EB EC ED
Pour chacune de ces 20 configurations, on aura 3 possibilités de choix pour la troisième lettre, donc 20x3 = 60 = 5x4x3 façons de choisir 3 lettres parmi 5 avec ordre mais sans répétition.
Si on généralise le problème, non plus à 3 lettres à choisir parmi 5, mais à p objets à choisir parmi n, par un raisonnement analogue, la réponse sera donc : n multiplié par n-1, puis par n-2,.... puis par n-p+1 (p termes), donc :
nx(n-1)x(n-2)x(n-3)...x(n-p+1)
Arrangements :
Exemple : Combien y a-t-il de façons de choisir 6 lettres dans l'alphabet avec ordre mais sans répétition :
26 x 25 x 24 x 23 x 22 x 21 (6 termes décroissant à partir de 26)

Cas 3 : sans ordre et sans répétition
Pour résoudre ce cas-là, revenons au résultat obtenu dans le cas précédent : il y avait 60 façons de choisir 3 lettres parmi 5 sans répétition mais avec ordre :


ABC
BAC
CAB
DAB
EAB
ABD
BAD
CAD
DAC
EAC
ABE
BAE
CAE
DAE
EAD
ACB
BCA
CBA
DBA
EBA
ACD
BCD
CBD
DBC
EBC
ACE
BCE
CBE
DBE
EBD
ADB
BDA
CDA
DCA
ECA
ADC
BDC
CDB
DCB
ECB
ADE
BDE
CDE
DCE
ECD
AEB
BEA
CEA
DEA
EDA
AEC
BEC
CEB
DEB
EDB
AED
BED
CED
DEC
EDC
Quand l'ordre comptait, il y avait 60 façons de choisir; que se passe-t-il quand l'ordre ne compte plus : si on regarde dans le tableau, on s'aperçoit que, par exemple, il y a 6 cas correspondant au choix de A,B et C (ceci est vrai pout n'importe quelle combinaison de 3 lettres). Si 2 choix qui ne diffèrent que par l'ordre représentent un sul choix, il convient de compter ces 6 cas comme un seul et même cas, et de faire de même avec toutes les autres combinaisons de 3 lettres. On se trouve donc avec des combinaisons de 3 lettres toutes comptées 6 fois au lieu d'une seule. Pour répondre à la question, il faut donc prendre le résultat précédent : 60 et le diviser par 6 !
Il y a donc 60/6 = 10 façons de choisir 3 lettres parmi 5 sans ordre et sans répétition
Combinaisons :
Cas 4 : sans ordre et avec répétition
Pour résoudre ce cas, qui est de loin le plus difficile et qui est, de ce fait, rarement évoqué, il faut complètement changer de point de vue : dans ce cas, la seule chose qui compte est de savoir combien on choisit de A, de B, de C, de D, de E (0 choix possible) sachant que le total de choix est de 3.
Imaginez 5 boites : ABCDE et 3 jetons, cela revient donc à dénombrer le nombre de façons de mettre les 3 jetons dans les 5 boites.
Ainsi : ooIIIIo (les "o" pour les jetons et les "I" pour les séparations entre les boites) représenterait 2 jetons dans la première boite (A), pas de jeton dans le 3 boites suivantes BCD et 1 jeton dans E soit AAE
Comme l'indique la représentation, il faut donc ranger 3 jetons (cas général : p) et 4 "cloisons" (cas général : n-1) sur 7 places disponibles (cas général : n+p-1).
En remarquant que si l'on choisit la place des p jetons, les n-1 cloisons seront automatiquement placées, le nombre de choix est :

Chapitre II : Conditionnement et Indépendance.





1-Probabilités conditionnelles.

En théorie des probabilités , une probabilité conditionnelle est la probabilité d'un événement sachant qu'un autre événement a eu lieu. Par exemple, si une carte d'un jeu est tirée au hasard, on estime qu'il y a une chance sur quatre d'obtenir un cœur ; mais si on aperçoit un reflet rouge sur la table, il y maintenant une chance sur deux d'obtenir un cœur. Cette seconde estimation correspond à la probabilité conditionnelle d'obtenir un cœur sachant que la carte est rouge.

Pour introduire cette notion de probabilité conditionnelle, reprenons le cas d’un espace probabilisé (Ω, A, P) constitué par un nombre N fini d’évènements élémentaires équiprobables, tout ça sans respirer. Considérons maintenant un évènement fixé A (de probabilité non nulle) et remplaçons l’épreuve primitive décrite par (Ω, A, P) par une nouvelle épreuve « restreinte » à A. Dans la pratique cette nouvelle épreuve consiste à effectuer l’épreuve primitive mais à n’en retenir le résultat que si A s’est réalisé (sinon on recommence jusqu’à ce que A se réalise. Prenons un exemple : le jet de trois dés, et on ne s’intéresse qu’aux résultats où il y a au moins un as.

On note (Ω A , A A , P A ) l’espace probabilisé qui décrit la nouvelle épreuve et on se propose d’en exprimer les composants à partir de ceux de l’espace primitif. Comme une image vaut dix milles mots, observons les deux schémas ci-dessous :

Pour le nouvel espace fondamental, c’est simple :
Ω A ={ω ∈ Ω tels que ω ∈ A} (les ω appartiennent à A lui-même inclus dans Ω). Ainsi Ω A = A .

Pour les évènements, il s’introduit la notion d’ évènement conditionnel : c’est la réalisation d’un évènement B sachant que A est « déjà » réalisé, et on dit réalisation de B si A. On voit sur notre dessin que B si A est représenté par l’intersection de A et B, soit A ⋂ B. Et donc, A A = {A ⋂ B | B ∈ A }. Quant à la mesure de probabilité P A , le cas le plus simple que nous avons choisi pour aborder cette notion de probabilité conditionnelle permet de la déterminer facilement par le décompte du nombre de cas. Mais avant d’effectuer ce calcul, il importe de bien fixer les notations : la probabilité, dans le nouvel espace probabilisé (Ω A , A A , P A ), de l’évènement conditionnel B si A, se note P A (B), mais également P(B si A) ou encore P(B|A). Et maintenant, calculons.

On a dans Ω : Nombre de cas possibles : N Nombre cas favorables : k A , k A ⋂ B .

Et dans Ω A : Nombre de cas possibles : N A = k A Nombre de cas favorables : k B|A = k A ⋂ B

Ainsi :
P A (B) = P(B|A) = k B|A / N A = k A ⋂ B / k A = (k A ⋂ B /N)/( k A /N)
Et donc P A (B) = P(B|A) = P(A ⋂ B)/P(A).
Définition :

Si P(A) ≠ 0, la probabilité conditionnelle de l’évènement B si A est le quotien :
P(B|A) =


Discussion :
Nous allons utiliser la définition précédente en pratique. Mais il nous faut faire quelques commentaires. Tout d’abord, une interprétation de la probabilité qui utilise le concept d’information . Imaginons une situation où je m’intéresse à une expérience aléatoire et à un évènement B susceptible d’être réalisé. Mis à part le cas sans problème où l’expérience a été effectuée et où l’on sait si B s’est ou ne s’et pas réalisé, on peut envisager trois éventualités : L’expérience n’a pas encore été effectuée. Tout ce que je sais sur l’évènement B est qu’il possède une probabilité « a priori » P(B) de se réaliser dans le futur lorsque l’expérience sera effectuée. L’expérience a été effectuée mais je n’ai aucune information sur son résultat. Quoiqu’on le fasse souvent, il n’est plus possible maintenant -en toute rigueur- de parler de la probabilité de l’évènement B : il appartient au passé et sa réalisation n’a plus rien d’aléatoire (que je ne sache pas si elle a eu lieu ou non n’y change rien). Néanmoins, j’ai toujours une information sur l’évènement B : sa probabilité « a priori » P(B). Et si je dois, par exemple, prendre une décision qui nécessite un pari sur la réalisation de B, je tiendrai compte –parmi d’autre critères- de cette probabilité P(B) L’expérience a été effectuée et, sans savoir si B lui-même s’est réalisé, je sais cependant qu’un certain évènement A s’est réalisé. Je ne peux toujours pas parler de la probabilité de l’évènement B mais mon information s’est précisée. Et si je dois prendre comme précédemment une décision qui nécessite un pari sur la réalisation de B, je tiendrai compte non plus de p(B) mais de la probabilité conditionnelle P(B|A), qualifiée parfois de probabilité « a posteriori ».

Sauf exception, on utilisera la probabilité conditionnelle P A (B) (=P(B|A)) sans se référer explicitement à l’espace (Ω A , A A , P A ), ce qui explique l’usage de la notation P(B|A). La raison en est double : éviter la lourdeur de manipuler plusieurs espaces probabilisés simultanément, et surtout permettre l’utilisation de probabilités conditionnées par des évènements A 1 , A 2 ,… différents.

Mais, si la référence à (Ω A , A A , P A ), est omise, les probabilités conditionnelles restent des probabilités et se manipulent comme telles. Par exemple, si B, C sont disjoints,
P(B ⋃ C|A) = P(B|A) + P(C|A). Ou encore,
P( ∁ B|A) = 1 – P(B|A). On n’oubliera pas que, dans ces formules, il est indispensable que le conditionnement soit toujours pour le même évènement A.

Exemple n°7 :
On s’intéresse aux compositions possibles, en filles et garçons, des familles de deux enfants. Chaque composition est représentée par un doublet dont le premier élément est le sexe de l’aîné, le second celui du cadet. :
Ω = {(F, F), (F, G), (G, F), (G, G)}
Si on suppose qu’il y a environ la même proportion de fi lles et de garçons dans la pop ulation, et si l’on néglige l’influence de l’hérédité sur le sexe, l’hypothèse d’équiprobabilité représente une approximation expérimentale satisfaisante de la réalité.
Considérons les évènements suivants : A = « Il y a au moins une fille dans la famille » = {(F, F), (F, G), (G, F) B = « l’aîné est une fille » = {(F, F), (F, G)} C = « la famille est composée de deux filles » = {(F, F)}

Calculons les probabilités conditionnelles : P(C|A) = P(A ⋂ C)/P(A) = (1/4)/(3/4) = 1/3 (revoir la démo page 38) P(C|B) = P(B ⋂ C)/P(B) = (1/4)/(1/2) = 1/2

A travers cet exemple, regardons comment l’intuition nous aurait induit en erreur. Si on interroge de nombreuses personnes, intuitivement elles répondent que les deux probabilités sont d’1/2, en partant d’un raisonnement faux : dans le cas de A comme dans le cas de B, l’un des deux enfants de la famille est une fille, la probabilité que des deux soient des filles est égale à la probabilité « tout court » que l’autre soit une fille, soit donc 1/2. Donc méfiance vis-à-vis de l’intuition, Hercule POIROT lui-même se serait planté.

Dernière considération : l’interprétation sur cet exemple est très claire, l’information fournie par l’évènement B est plus forte que celle fournie par l’évènement A, car relativement à C, B restreint plus les possibilités que A.



2- Utilisation pratique.

On utilise les probabilités conditionnelles dans trois circonstances. La première, qui est la plus simple, est celle où les probabilités des évènements de l’espace probabilisé sont connues, et où l’on désire connaître certaines probabilités conditionnelles. Le calcul est sans difficulté grâce à l’application de la formule de définition
C’est le cas de l’exemple précédent.

Dans la deuxième circonstance, ce sont au contraire les probabilités conditionnelles qui sont connues et qui servent pour calculer la probabilité des intersections, au moyen de la formule des probabilités composées
, formule que l’on déduit de la formule de définition des probabilités conditionnelles en la mettant sous forme multiplicative.

Il est assez rare qu’un évènement dont on cherche la probabilité soit « directement » sous la forme d’une intersection utilisable. Il est par contre fréquent que l’on soit dans la situation suivante :
Etant donné un espace fondamental Ω, on connait une partition de Ω, c’est-à-dire une suite H 1 , H 2 , … , H n de sous-ensembles de Ω, deux à deux disjoints et dont la réunion est Ω tout entier. Alors pour toute partie A ⊂ H, la suite
A ⋂ H 1 , A ⋂ H 2 , … , A ⋂ H n est une partition de A (ils sont 2 à 2 disjoints et leur réunion est A), qui fournit un procédé efficace de calcul de P(A) :

FORMULE DU SAUCISSON

Soit un espace probabilisé (Ω, A, P)
Soit une partition H 1 , H 2 , … , H n de Ω avec
∀ i ∀ j : i≠j ⇒ H i ⋂ H j = ∅ et
Alors, pour tout A ∈ A :
P(A) = P(A ⋂ H 1 ) + P(A ⋂ H 2 ) + … + P(A ⋂ H n )
P(A) = P(H 1 )P(A|H 1 ) + P(H 2 )P(A|H 2 )+…+ P(H n )P(A|H n )

Certain A ⋂ H i peuvent être vide, cela ne perturbe pas l’application de la formule ; P(A

  • Accueil Accueil
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • BD BD
  • Documents Documents