//img.uscri.be/pth/fc36c5a1efb10003963bab4df78dbdb7c54cc23a
Cette publication ne fait pas partie de la bibliothèque YouScribe
Elle est disponible uniquement à l'achat (la librairie de YouScribe)
Achetez pour : 22,50 € Lire un extrait

Lecture en ligne (cet ouvrage ne se télécharge pas)

Raisonnements dans l'analyse de données expérimentales en sciences de l'éducation

De
308 pages
Des concepts et des procédures utilisés dans les démarches expérimentales sont ici revisités. La première partie engage le lecteur dans une réflexion sur l'activité scientifique en général et sur la place des outils formels dans les raisonnements. La deuxième partie est technique et se concentre sur une famille de techniques de statistiques non paramétriques qui fournissent aux chercheurs un garde-fou utile dans les études expérimentales en pédagogie ou en psychologie du développement.
Voir plus Voir moins

Raisonnements dans l’analyse
Luc-Olivier Pochon
de données expé Rimentales
en sciences de l’éducation
Cet ouvrage, né de l’interaction entre un mathématicien et des
psychologues, invite à revisiter certains concepts et procédures utilisés
dans les démarches expérimentales. Cette présentation est adaptée aux
étudiants en sciences de l’éducation ayant déjà quelques connaissances de
statistiques, public particulier dans la mesure où il est à la fois utilisateur
des outils mais aussi intéressé professionnellement à leur existence en tant
qu’objets de connaissance et d’enseignement.
De ce fait, l’exposé n’est pas traditionnel. Il mêle certains fondements Raisonnements dans l’analyse
logiques à des méthodes pragmatiques et des pratiques établies. Son
propos est principalement de faire réféchir à propos d’outils et de leurs de données expé Rimentales
usages plutôt que d’offrir de façon péremptoire des outils, procédures et
des façons de faire. en sciences de l’éducationLa première partie engage le lecteur dans une réfexion sur l’activité
scientifque en général et sur la place des outils formels, notamment les
outils statistiques, dans les raisonnements qui accompagnent cette activité.
Les principaux protocoles de test d’hypothèse sont passés en revue. Une
incursion est faite dans les sciences de la complexité pour situer à leur
juste place certains concepts relativement « nomades ».
La deuxième partie est technique et se concentre sur une famille de
techniques de statistiques non paramétriques souvent peu valorisées
mais qui fournissent aux chercheurs un garde-fou utile dans les études
expérimentales en pédagogie ou en psychologie du développement.
Des activités « pour réféchir » accompagnent chaque partie de
l’ouvrage.
Luc-Olivier Pochon, mathématicien de formation, a été collaborateur
scientifque à l’Institut de recherche et de documentation pédagogique à
Neuchâtel (Suisse) en charge du dossier de l’évaluation de l’enseignement
mathématique à l’école obligatoire. Actuellement retraité de cette institution,
il maintient une activité en tant que chercheur associé à l’Institut de
psychologie et éducation de l’université de Neuchâtel.
ISBN : 978-2-336-00378-8
30 €
Raisonnements dans l’analyse
de données expé Rimentales Luc-Olivier Pochon
en sciences de l’éducation








Raisonnements dans l’analyse
de données expérimentales
en sciences de l’éducation


Figures de l’Interaction
Collection dirigée par Alain Trognon et Michel Musiol

Les ouvrages publiés ressortent principalement du champ des
interactions langagières et des actions de communication. La
perspective est pluridisciplinaire mais l’approche est résolument micro-
sociale. De plus en plus de travaux qui concernent à la fois les
interactions et la cognition fleurissent dans le paysage scientifique et
répondent au moins partiellement à la demande sociale qui aspire à une
meilleure compréhension de phénomènes aussi complexes et divers que
l’apprentissage dans et par le groupe en pédagogie, ou bien encore les
processus de coordination de l’action en psychologie du travail et en
psychologie sociale. En plus d’enrichir les connaissances relatives à
l’interaction comme domaine empirique, la collection proposera des
instruments de travail novateurs et critiques à destination des experts
d’un maximum de domaines d’application correspondants.
C’est en faisant interagir les disciplines, leurs concepts et leurs
méthodes, que l’on veut réinterroger les comportements aux confins du
paradigme de l’interaction. Un dialogue fructueux naîtra de la
confrontation de la psychologie et ses sous-disciplines avec
l’intelligence artificielle, la philosophie, la linguistique, la logique et la
neurobiologie.

Dernières parutions

Edith SALES-WUILLEMIN, Psychologie sociale expérimentale
de l’usage du langage. Représentations sociales, catégorisation
sociale et attitudes : perspectives nouvelles, 2005.
PERRET Jean-François, PERRET-CLERMONT Anne-Nelly,
Apprendre un métier dans un contexte de mutations technolo-
giques (nouvelle édition mise à jour), 2004.
COLLECTIF, Apprendre à parler: influence du mode de garde,
2004.
Benoît SCHNEIDER (dir.), Emotions, interactions et développe-
ment, 2002.
A-N. PERRET-CLERMONT et M. NICOLET, Interagir et
connaître, 2001.
Virginie LAVAL, La promesse chez l'enfant, 1999.
Haydée MARCOS, De la communication prélinguistique au
langage : formes et fonctions, 1998.
Luc-Olivier Pochon










Raisonnements dans l’analyse
de données expérimentales
en sciences de l’éducation












































































































































































© L’Harmattan, 2012
5-7, rue de l’Ecole-Polytechnique, 75005 Paris

http://www.librairieharmattan.com
diffusion.harmattan@wanadoo.fr
harmattan1@wanadoo.fr

ISBN : 978-2-336-00378-8
EAN : 9782336003788
Introduction générale
La science est un dialogue avec la nature …
Toute prise de mesure, préalable à la création
de connaissance, présuppose la possibilité
d’être affecté par le monde, que ce soit nous qui
soyons affectés ou nos instruments. (I. Prigo-
gine, 1996:177).
Cet ouvrage invite à une relecture des différents types de
« raisonnements » qui interviennent dans l’analyse de données.
Cette présentation est adaptée aux étudiants en sciences de
l’éducation ayant déjà quelques connaissances en statistique, public
particulier dans la mesure où il est non seulement utilisateur des
outils, mais aussi intéressé professionnellement à leur existence en
tant qu’objets de connaissance et d’enseignement.
De ce fait, l’exposé n’est pas traditionnel. Il mêle des fondements
logiques à des méthodes pragmatiques et des pratiques établies.
Son but est principalement de faire réfléchir sur des méthodes et
l’usage d’outils plutôt que d’offrir ces méthodes et outils de façon
péremptoire. Plus particulièrement, ce sont quatre objectifs qui
vont structurer cette présentation.
Le premier objectif concerne la présentation de quelques concepts
fondamentaux liés à la pratique du jugement statistique et des tests
d’hypothèses. Le parti pris est de se concentrer sur des techniques
non-paramétriques, c’est-à-dire qui ne mettent pas en œuvre de
distributions théoriques sous-jacentes et ne font appel qu'à des
outils ensemblistes et probabilistes élémentaires. Cette simplicité
cache cependant quelques difficultés qui sont souvent passées sous
silence dans les présentations classiques. Des hypothèses implicites
simplificatrices peuvent être adoptées. Par ailleurs, le statut des
distributions théoriques utilisées dans les techniques non-
paramétriques n’est pas toujours clair. Il sera mis en évidence que
ces théoriques constituent un artefact de calcul. Elles
n’interviennent pas dans l'élaboration du modèle de façon essen-
tielle.
Les techniques combinatoires élémentaires utilisées dans ce cadre
offrent également un point de départ à des méthodes plus symboli-
ques d’analyse de données. Elles favorisent également des retours
5aux « sources » qui permettent de mieux situer ce qui est modèle et
ce qui constitue un « artifice » simplificateur des calculs.
Le deuxième objectif a trait à l'usage de la statistique par les cher-
cheurs en sciences de l’éducation. La constitue une
technique, voire une technologie invisible pour reprendre Postman
(1993) qui évoque les traces laissées par les manipulations techni-
ques dans l’esprit du chercheur. On peut donc, dans le sens donné
par Jacques Perriault (1989) à cette expression, en étudier la logi-
que de l'usage. Comment les propositions des statisticiens et mé-
thodologues sont-elles interprétées par les utilisateurs ? Diverses
façons d'aborder les coefficients de signification seront passées en
revue. Cette question offre une ouverture à une « opération-
nalisation », proposée par Rabardel (1995), des travaux de Vygots-
ki (et son école) dans le monde des technologies intellectuelles.
Le troisième objectif est d’attirer l’attention du lecteur sur le trai-
tement symbolique des données. Les outils statistiques classiques
offrent une « mécanique » utile dans la mesure où ils permettent au
chercheur de synthétiser des données et de prendre du recul par
rapport aux résultats obtenus en les confrontant à des prédictions
(théoriques ou plus simplement spéculatives). Mais ils n’entrent
pas dans la logique des fonctionnements réels. Pour pénétrer dans
la « boîte noire » des fonctionnements, les outils informatiques
actuels sont à même de répondre en partie à cette interrogation.
Sans aller jusqu’à des simulations complexes, ils permettent des
1pratiques en dehors des modèles prédéfinis , des manipulations
combinatoires ou ensemblistes ad hoc qui ne semblent pas encore
2
faire partie des usages courants .
De façon générale, l’augmentation de la puissance de calcul et les
multiples possibilités offertes par les outils informatiques pour

1 C’est un lieu commun de relever que les techniques statistiques ont été cons-
truites pour répondre à des besoins particuliers, puis ont donné lieu à des normes
d’usage. Leur accumulation favorise une pratique qui consiste à sélectionner une
technique connue (quitte à adapter la recherche en conséquence) et à s’épargner le
travail de réflexion sur la signification des opérations effectuées.
2 En 1987, deux numéros de la revue « Mathématiques et sciences humaines »
présentaient des techniques combinatoires pour l’analyse de données. A l’époque,
il était difficile de les mettre en œuvre avec des moyens informatiques standard.
Ces techniques restent d’actualité bien qu’elles ne semblent pas jouir d’une
grande notoriété.
6représenter et « simuler » la réalité mènent à de nouvelles façons
d’utiliser des données et de nouveaux types de raisonnements.
L’ordinateur façonne l’activité scientifique et n’est pas sans in-
fluence sur la manière de penser le monde.
Le quatrième objectif est de présenter quelques éléments des
« sciences » de la complexité. Il prolonge le précédent. Si les mises
en œuvre connues de ces techniques sont assez difficiles à résumer
dans une présentation générale, il semble utile de connaître les
concepts de base et d’offrir une ouverture à ces pratiques. En
sciences humaines, la systémique semble uniquement associée à
des pratiques thérapeutiques, alors qu’elle peut être mise à contri-
bution dans de nombreux autres domaines.
Ce document étant rédigé à des fins de formation, il contiendra des
suggestions d’approfondissement, des thèmes de réflexion et des
possibilités de mise en pratique de quelques techniques sous forme
« d’exercices ». Il propose aussi un choix d’instruments de la sta-
tistique non-paramétrique inspiré des ouvrages de Meddis (1984) et
de Leach (1979). Il constitue une introduction à la lecture d'ouvra-
ges plus complets et techniques, qui, par ailleurs, n’évitent pas tous
les écueils discuter ici. Ils sont cités en cours de texte ou dans les
« activités pour réfléchir ».
L’ouvrage est organisé en deux parties. La première partie est théo-
rique. Après quelques considérations générales (Chapitre I.1) pré-
cisant le champ couvert par l’ouvrage, elle situe quelques « outils »
utilisés dans les raisonnements en sciences (Chapitre I.2) : logique,
calcul des probabilités, statistique, théorie de l’information. Le
chapitre suivant (Chapitre I.3) propose une vision générale de
l’activité scientifique dont découlent quelques conséquences prati-
ques (Chapitre I.4). La démarche basée sur des modèles de statisti-
que, descriptive ou inductive, est traitée en détail dans le chapitre
suivant (Chapitre I.5). Le chapitre I.6 passe en revue différents
outils de validation d’hypothèses basés sur les probabilités. Un
retour à des considérations générales à propos de la démarche in-
ductive est ensuite proposé (Chapitre I.7). La première partie se
termine (Chapitre I.8) par une brève introduction aux sciences de la
complexité.
La deuxième partie est technique. Elle présente un choix de tests
statistiques simples utiles dans des dispositifs relevant de l’étude
7de petits groupes. Elle s’achève par un chapitre consacré à
l’entropie. Des annexes détaillent des aspects techniques qui peu-
vent être omis en première lecture.
Des développements plus techniques constituent une troisième
partie mise à disposition sous forme électronique sur le site de
1l’Institut de psychologie et éducation de l’université de Neuchâtel .
Ces sont destinés à des publics divers. Ils fournis-
sent des exemples, rappellent les étapes de certains processus ou
précisent l’aspect formel de quelques modèles. On y trouvera aussi
une description détaillée des fonctions du logiciel « R » mises à
disposition pour réaliser les analyses proposées dans l’ouvrage. La
« bibliothèque » de ces fonctions est disponible à la même adresse.
Remerciements
Cet ouvrage rassemble des éléments qui ont été abordés lors de
cours donnés de 2007 à 2010 à l’Institut de psychologie et éduca-
tion de l’Université de Neuchâtel. Il a donc profité des remarques
des étudiants. Il reprend également une grande partie du contenu,
revue et corrigée, du dossier de psychologie 38 paru en 1991 qui,
selon l’introduction de l’époque, est le compte-rendu d'une inte-
raction entre une équipe de psychologues et un mathématicien. Ce
dialogue a été encouragé par Anne-Nelly Perret-Clermont et a bé-
néficié de l’apport des collaborateurs de son Institut. Finalement,
plusieurs parties techniques ont été mises au point grâce aux
contributions d'Alain Favre. Que tous soient ici remerciés.
Avertissement
Les références à l’encyclopédie Wikipedia sont diversement appré-
ciées selon les auteurs (Gourdain, O’Kelly, Roman-Amat, Soulas
& al, 2007). L’expérience montre toutefois que le coup d’oeil jeté à
cette encyclopédie, toujours à portée de souris, est une pratique
courante. Dans cet ouvrage, cette encyclopédie sera citée chaque
fois que les renseignements apportés complètent utilement et di-
dactiquement, dans la version consultée, les informations exposées
dans le texte.

1 http://www2.unine.ch/ipe/page-8565.html.
8Première partie : Raisonnements
Le scientifique praticien d’une [telle] science
n’est pas l’illustration glorieuse de l’esprit cri-
tique et de la rationalité lucide que des philo-
sophes tentaient de caractériser à travers lui. Il
fait ce qu’il a appris à faire. Il traite des phé-
nomènes qui semblent relever de sa discipline,
selon un « paradigme », un modèle pratique et
théorique à la fois, qui s’impose à lui avec évi-
dence, par rapport auquel il a un minimum de
recul. (Stengers, 1995:12 ; repris de Kuhn,
1983).Chapitre I.1. Introduction
Les progrès scientifiques sont toujours subordonnés
à la possibilité d’un instrument mental qui permette
d’exprimer les correspondances, les régularités des
choses. (Thom, 1993:96).
Les recherches en éducation mêlent plusieurs domaines et registres
de connaissances. Aux différentes disciplines qui participent aux
sciences de l’éducation (psychologie, didactique, informatique,
etc.), il faut ajouter les domaines auxquels s’applique l’aspect édu-
catif étudié. Cela nous conduit à émettre quelques remarques à
propos du « nomadisme » des concepts et à préciser ce que nous
entendons par raisonnements dans l’analyse de données pour dis-
tinguer cette démarche parmi d’autres opérations argumentatives.
Les concepts nomades
Ce thème a été largement exploré par une équipe sous la direction
d’Isabelle Stengers (1987) qui montre la difficulté des travaux
interdisciplinaires. Les « emprunts » faits par les chercheurs d’un
domaine donné à d’autres traditions scientifiques peuvent conduire
à des incompréhensions croisées.
La première tâche à laquelle se trouve confrontée une équipe pluri-
disciplinaire est de « construire » des concepts de base communs
dont l’établissement de liens synonymiques entre les termes utilisés
par les uns et les autres. L'hypothèse du psychologue, par exemple,
correspond à la conjecture du mathématicien, l'hypothèse étant
pour lui le premier terme (formel) d'un théorème. Le dictionnaire le
plus courant signale en général ces diverses acceptions selon divers
registres langagiers (langue, métalangue).
Ce travail demande évidemment de recenser les « faux amis ». Un
exemple frappant est le terme de modèle qui possède toute une
panoplie d’acceptions dont certaines se révèlent à première vue en
opposition. En effet, dans les sciences empiriques, un modèle est
souvent une représentation simplifiée, schématique d’une réalité,
d’un mécanisme ou de l'automatisation de processus. Mais le mo-
dèle peut être au contraire l’exemple « concret » qui valide une
théorie formelle axiomatisée. C’est notamment le cas en logique ou
en mathématiques (voir Grize, 1967, pour des définitions rigoureu-
ses). On parle ainsi de modèles de géométries non-euclidiennes à
11propos des travaux de Bolay et Lobatchevski. Armatte (2005) parle
à ce propos de réversibilité, opération que d’autres auteurs repèrent
également. Toutefois, un examen plus attentif montre que les deux
concepts se recoupent si l’on conserve au modèle un état intermé-
diaire entre « réalité » et « formalisation » comme objet médiateur
entre théorie et observations. La situation peut se représenter de
façon caricaturale en imaginant l’empilement : réalité, modèle,
formalisation. Avec cette image, les « formalistes » « descendent »
vers le modèle en négligeant le plus souvent la réalité qui lui a
donné naissance (selon un processus complexe). Les « empiristes »
1« montent » au modèle depuis la « réalité » et espèrent parfois en
extraire des formalisations.
Les « habitus » des chercheurs varient également d’un domaine à
l’autre. Une différence entre l’approche d’un empiriste et d’un
théoricien (imaginons par exemple le dialogue entre un psycholo-
gue et un mathématicien à propos de l’analyse factorielle) est que
l’empiriste va justifier des propriétés de ses outils de calcul à partir
de propriétés des objets étudiés. Les arguments avancés ne vont
pas satisfaire le théoricien, mais celui-ci aura de la peine à
convaincre l’empiriste de se lancer dans des calculs formels.
Pour situer modèle et dialogue, il est possible d’utiliser le méta-
modèle des trois mondes proposé par K. R. Popper et repris par
Brookes (1980). Le monde I est le monde physique. A ce monde
correspondent toutes sortes « d’états mentaux » chez les individus.
Cet espace « subjectif » (ou intersubjectif) constitue le monde II.
Le monde III reçoit le nom de connaissance objective (ou objecti-
vée). Il est constitué en particulier de descriptions, d’énoncés, de
faits avérés, de lois, contenus dans les articles, livres et autres sup-
ports. Ce schéma élémentaire (figure 1), au relent positiviste cer-
tain, peut, en mettant l’accent sur le monde II, servir un point de
vue constructiviste. Il clarifie le statut de quelques difficultés liées
à l’usage de modèles et de théories formelles.
L’intérêt est évidemment d’étudier les relations qu’entretiennent
ces trois mondes. On constate en particulier que le lien entre le
monde III et le monde I est fortement ancré dans le monde II qui
est particulièrement intéressant, mais peu étudié par Popper, son

1 La notion de modèle fera l’objet d’une analyse plus précise dans le chapitre I.8.
12intérêt se focalisant sur le monde des énoncés. Par ailleurs, la fron-
tière entre le monde I et le III n’est pas tranchée. Elle est
formée d’une série de strates constituées d’énoncés de degré de
formalisation divers. La distance entre ces deux mondes est
d’ailleurs toujours loin d’être perçue. Elle est souvent
1l’aboutissement d’un long processus socio-cognitif (l’étape du
« microcosme » définie par Engeström). Chevallard & Mathieu-
Wozniak (2006, dans une note critique consacrée à l’ouvrage de
Bernard Courtebras paru en 2006 également) font également une
remarque qui rejoint ce propos : « Alors que le calcul des probabi-
lités est d’emblée mathématisé, les savoirs statistiques sont une
frontière qu’il faut continuellement conquérir à la mathématisa-
2tion » .
Monde III Monde II
(connaissance (connaissance
« subjective »)« objective »)
Monde I
(physique)
fig 1. Les trois mondes de Popper

1 Un exemple historique est l’acquisition du nombre 0. L’évolution de la percep-
tion de la place de l’analyse factorielle, des « vecteurs de l’esprit » à la structure
de données est un autre exemple qui sera repris ultérieurement.
2 Et même l’affirmation concernant le calcul des probabilités mériterait d’être
tempérée. Si la mathématisation de ce est certainement achevée, son adé-
quation au monde réel ne va pas de soi pour de nombreux utilisateurs.
13Sans compter que les formalisations se réfèrent souvent à des cas
idéaux (les gaz parfaits, les déplacements sans frottement, etc.).
Comme le suggère cet aphorisme attribué à Albert Einstein : « Tant
que les lois des mathématiques traitent de la réalité, elles ne sont
pas certaines ; et dès qu'elles sont certaines, elles ne traitent pas
de la réalité ». En cours de texte, l’attention du lecteur sera attirée
sur des exemples qui illustrent ce schéma des trois mondes.
Ce schéma situe l’embarras, évoqué précédemment, né de la ren-
contre de l’empiriste, dont l’activité est centrée sur le monde I, et
celle du théoricien, centrée sur le monde III. Le terme de monde
évoque également des entités relativement indépendantes les unes
des autres. Par conséquent, il est possible d’associer (opération liée
au monde II) un élément du monde III à un élément du monde I
différent de celui auquel il était associé primitivement. La méthode
axiomatique présentée par Gonseth (1936) illustre cette indépen-
dance des mondes I et III. Plusieurs de ces croisements sont dénon-
cés sous le terme assez polémique « d’impostures » par Sokal &
Bricmont (1998). Dans leur analyse, les auteurs oublient, comme
Popper d’ailleurs, d’évoquer le rôle du monde II qui peut donner
1sens à ces « emprunts » .
Il est toutefois vrai que les rapprochements, l’utilisation
d’analogies en tant qu’arguments, doivent être maniés avec pré-
caution et ne pas se limiter à des aspects superficiels. Il existe des
lois analogues du point de vue formel (on dira des « méta-lois » ou
des « méta-schémas de raisonnements » lorsque ces lois relèvent
du domaine du raisonnement logique), mais qui peuvent relever de
phénomènes de natures différentes. Ainsi, par exemple, le principe
d’incertitude d’Heisenberg est parfois associé au fait que
2l’expérimentateur clinicien influence l’observé . Quelques consé-

1 Wikipedia renseigne sur les suites données à « l’affaire » Sokal
(http://en.wikipedia.org/wiki/Sokal_Affair, consulté : janvier 2007).
2 Ce principe est parfois évoqué à propos de l’effet Pygmalion bien que le principe
d’incertitude ne soit pas une prophétie autoréalisatrice au même titre que, par
exemple, l’annonce de la baisse du cours d’une action en bourse (bien que le
physicien voit ce qu’il cherche, corpuscule ou onde selon le cas). Par contre il est
intéressant de noter que, selon Ralph Balez (communication personnelle, 21 fé-
vrier 2008) à propos des travaux qu’il a menés sur l’effet Pygmalion, les étudiants
en physique sont plus enclins à admettre l’influence de l’observateur que leurs
camarades psychologues. Dans l’appréciation de l’influence de l’observateur, il
14quences peuvent être inférées de cette correspondance analogique.
Toutefois, dans le cas de la mécanique quantique, ce n’est pas le
comportement de l’observateur (si ce n’est que sa théorie oriente
son regard) qui influence l’observé, mais ses instruments (la lu-
mière en tant que transport de l’information interagit avec
l’observé, les deux étant d’essence commune). Hofstadter (1988)
montre, en prenant cet exemple, que ces parallélismes restent sou-
vent très superficiels. Ils peuvent occulter de nombreuses incom-
préhensions. Le théorème d’incomplétude de Gödel est un autre
exemple qui sert de référence, souvent fallacieuse, en dehors de
son champ d’application.
Des notions à pouvoir évocateur, théorie des catastrophes, théorie
du chaos, peuvent également être à la base d’analogies abusives.
Information, entropie sont également des notions dont il s’agit de
1bien préciser le champ d’application . Il faut se méfier de la com-
préhension qui peut résulter de mises en relations sommaires.
Raisonnement et raisonnements
Le raisonnement est un processus cognitif qui permet d'obtenir de
nouveaux résultats ou de vérifier un fait en faisant appel à diffé-
rentes « lois » ou expériences en élaborant des chaînes
« d’inférences ». Les domaines d’application sont multiples : ma-
thématiques, système judiciaire, physique et chimie (méthode ex-
périmentale), pédagogie, la vie de tous les jours, etc. On distingue
ici, le raisonnement en général et les raisonnements, parties cons-
titutives de l’activité du scientifique, opérations ou actions, selon
2les cas, au sens de la théorie de l’activité .

faut encore préciser le protocole expérimental adopté. En effet, il s’agit de
s’assurer que les effets sont réels (objectivables) et non le fruit d’une illusion ou
d’ une projection de l’attente de l’observateur sur le comportement du sujet (voire
de l’objet).
1 Voir à ce propos le chapitre I.8 Introduction aux sciences de la complexité et à
la théorie des systèmes : nouvelle science ou nouveau langage ?
2 La théorie de l’activité (initiée par le psychologue russe Léontiev) distingue trois
niveaux d'activités : les activités proprement dites, les actions et les opérations.
Une activité est orientée par un but, menée par des opérations, elles-mêmes
concrétisées par des actions. La théorie propose deux types de régulation : cogni-
tive (liée à « l’apprentissage » du sujet) et fonctionnelle (liée à la modification du
contexte).
15Selon Richard (1990), on peut classer les activités de raisonnement
à partir de deux critères. Le premier critère est leur finalité ; le
raisonnement peut être orienté vers la compréhension de phénomè-
nes ou alors vers l’élaboration de décisions d’actions. Le deuxième
critère est la direction, c’est-à-dire que les inférences produites
peuvent être plus générales que les informations initiales (générali-
sation) ou alors plus spécifiques (particularisation). Ce critère re-
couvre les grandes catégories d’induction ou de déduction. Il
s’agirait également distinguer les cas où il y a production de propo-
sitions et ceux où l’activité se borne à une vérification (c’est-à-dire
à la production d’une valeur de vérité). Toutefois, un raisonnement
global est souvent constitué de plusieurs types d’opérations menées
de front : production d’hypothèses spéculatives, suivie
d’évaluations heuristiques entrecoupées d’arguments formels.
Cette description recouvre une large classe d’activités, des raison-
nements scientifiques à l’argumentation. C'est d’ailleurs une des
raisons pour lesquelles il est difficile de percevoir les exigences
propres d'une démonstration mathématique. Un raisonnement dé-
ductif et une argumentation emploient souvent les mêmes connec-
teurs et se traduisent par des manifestations linguistiques très voi-
sines bien qu’ils ne fonctionnent pas, du point de vue cognitif, de la
même manière (Duval, 1991). Selon cet auteur, les difficultés pro-
viennent des confusions entretenues entre l’intérêt pour le contenu
et la valeur de vérité des propositions.
Il est possible de préciser encore plus avant la distinction entre
raisonnements et argumentation.
Raisonnements et argumentation
Un raisonnement dans l’analyse de données est une démarche que
l’on peut rapprocher d’une démonstration en tant qu’opération en
partie standardisée et codifiée. Il s’applique dans un cadre différent
de celui où peut se déployer une argumentation. Une définition
reprise sur le site « Argumentum » montre que le champ de
l’argumentation est plus large et plus « pragmatique » que celui de
la démonstration.
« La démonstration intervient dans le discours scientifique quand
il s’agit d’établir non pas une seule donnée empirique, qui est telle
mais pourrait être différente (le fait que la maison appartienne à x
16plutôt que y; le fait que Martine soit mariée ou pas; le fait qu’un
peuple fasse la guerre à un autre ou soit tranquillement en paix; le
fait qu’un juge condamne ou absolve…), mais quand il s’agit
d’établir la structure de la réalité (l’accélération constante des
poids en chute libre, les rapports entre les angles d’un triangle et
les côtés opposés, la vitesse de la lumière, la vitesse du son...).
L’argumentation est la raison appliquée à la vie, dans sa dimen-
sion pragmatique: elle ne concerne pas tant le savoir mais plutôt
l’agir. Et l’action n’opère pas dans la sphère des principes géné-
raux et des structures stables de la réalité, mais dans le champ de
ce qui peut être changé, créé, ou détruit par l’intervention hu-
maine. Je ne peux pas changer les horaires du soleil, mais je peux
produire de la lumière artificielle; je ne peux pas changer les sai-
sons, mais je peux produire du chaud et du froid; je peux cons-
truire des maisons, réaliser des systèmes informatifs, léser ou aider
mon prochain, favoriser ou nuire à l’équilibre naturel, favoriser un
consensus sain ou pervers, résoudre un conflit ou le provo-
1quer… » .
Brièvement résumé, si une démonstration ou un raisonnement (au
sens strict) peuvent être erronés, une argumentation peut être falla-
cieuse.
Pour réfléchir
Comment situez-vous les notions suivantes : théorie, hypothèse,
déduction, conjecture, calcul des probabilités, information, modèle,
modèle statistique, simulation.

1 http://www.argumentum.ch/ (consulté : janvier 2009).
17Chapitre I.2. Un arsenal de techniques : les bases
Le but de ce chapitre est de présenter les outils de base de l’analyse
de données. Tout d’abord, on rappelle brièvement, « pour mé-
moire », quelques éléments de logique, technique trop souvent
oubliée alors qu’elle sert à organiser les raisonnements. Le calcul
des probabilités vient ensuite. L’objectif dans ce cas est de présen-
ter diverses approches possibles. Pour fixer certains termes et
schémas, la partie suivante est consacrée à la statistique. Finale-
ment la dernière partie est une introduction à la « théorie » de
l’information, une autre manière d’approcher « l’incertitude ».
Cette présentation veut tenir compte d’une particularité de ses
techniques. Si elles permettent d’étudier des faits « psycho-
logiques », elles en constituent également des manifestations non
dépourvues d’intérêt au plan cognitif (difficultés rencontrées avec
la notion de probabilité, par exemple), social (adoption de procédu-
res) ou pédagogique (didactique des sciences).
Cette vision de co-développement des différentes approches de la
compréhension de la réalité, en boucle, s'oppose à un système de
classification « imperméable » des diverses activités scientifiques.
Des théories plus générales, notamment la théorie de la confirma-
tion et la théorie de la validation, seront présentées ultérieurement.
Logique
La logique n’est pas une théorie, mais une image réfléchie
du monde. (Wittgenstein, 1961, proposition 6.13).
La logique est l’étude des conditions formelles de vérité.
(Piaget, 1967b:4).
L'homme possède, entre autres facultés, le pouvoir de raisonner.
Tous les hommes sont capables de raisonnements sous des formes
qui semblent relativement peu varier d'une époque à l'autre, d'une
culture à l'autre bien que leur imbrication dans d’autres processus
sociaux (langage notamment) demande de considérer l’universalité
des modes de raisonnements avec certaines précautions. Depuis
longtemps des penseurs se sont intéressés à cette faculté particu-
lière et ont tenté d'en codifier le fonctionnement. Cette activité de
codification constitue la logique formelle dont on attribue la créa-
tion à Aristote (384-322 av. J.-C.). D'autres penseurs grecs se sont
également consacrés à cette étude. Leur préoccupation était princi-
19palement liée à l'art de convaincre, que ce soit en politique ou en
mathématiques. On peut caractériser la science logique de cette
époque comme l'identification des cas de figure utilisés dans l'ar-
gumentation qui paraissent « intuitivement logiques », intuition
liée à des relations d’appartenance et d’inclusion. Aristote étudie
principalement le syllogisme dont l'exemple le plus fameux affirme
la mortalité de Socrate :
Tous les hommes sont mortels, or Socrate est un homme, donc
Socrate est mortel.
Cette théorie va rester inchangée pendant près de 17 siècles. Les
continuateurs reprennent les formes d'Aristote en les utilisant
même parfois de façon exagérée. Ainsi, l'oeuvre des sophistes
e(école de logiciens du V siècle) garde une connotation péjorative.
Leibniz (1646-1716) marque un renouveau fondamental en propo-
sant d'introduire des idées algébriques en logique. Il proposait de
constituer un alphabet des pensées humaines et, en combinant de
façon mécanique ces symboles entre eux, d'obtenir toutes les pro-
positions vraies.
Toutefois c'est Boole (1815-1864) et l'école des logiciens anglais
qui sont considérés comme les inventeurs de la logique symbolique
moderne. Néanmoins, de nombreuses méthodes adoptées dans les
sciences et techniques (diagrammes de Carroll ou diagrammes de
Karnaugh, par exemple) relèvent de conceptions pré-booléennes.
Les recherches ultérieures portent sur les logiques à plus de deux
valeurs (logiques modales), les logiques avec incertitude, logique
floue, etc. Un grand nombre de ces recherches sont liées au déve-
loppement des systèmes automatiques dont les systèmes-experts,
systèmes informatiques qui simulent une forme de raisonnement
humain. Ces travaux ont demandé de classifier et de préciser diffé-
rents types de raisonnements non seulement selon leur structure,
mais aussi selon des contextes plus généraux. L’hypothèse du
monde clos, par exemple, adopté par des langages informatiques,
dont Prolog, admet que toute information inconnue (non directe-
ment déductible) est fausse.
Les techniques courantes, du citoyen de tous les jours, ne font re-
cours qu’à des principes logiques simples, du sens commun, no-
201tamment le modus ponens utilisé dans l’expression concernant la
mortalité de Socrate. La théorie de la confirmation qui sera briè-
vement abordée fait intervenir des concepts et des symbolismes
plus spécialisés.
Après faculté de l’esprit et science formelle, la logique est égale-
ment un outil indispensable à la constitution de théories. Que cet
outil soit lui-même un objet « psychologique » susceptible d’étude
interpelle particulièrement les psychologues. En tant que concept,
2il participe en quelque sorte à sa propre construction .
En particulier, il est intéressant d’évoquer la genèse du raisonne-
ment en quelques traits en prenant comme référence l’ouvrage de
J.-F. Richard (1990), notamment la deuxième partie :
« Raisonnements formels et raisonnements en situation ».
Les travaux qui portent sur les inférences dans le raisonnement
inductif concernent principalement la formation d’hypothèses, leur
évaluation et la recherche d’informations pour leur vérification.
Une conclusion principale est que les enfants forment plus facile-
ment une hypothèse sur la nature d’une relation à partir d’une si-
tuation où les termes en présence sont vérifiés. Par exemple : la
relation « Si P alors Q » est privilégiée lorsque P et Q sont vérifiés.
Donc, pour tester une hypothèse, ils cherchent une situation où l’on
3a des chances d’obtenir des termes vérifiés. Cette situation est
préférée à une autre qui procède à une vérification par exclusion de
l’hypothèse alternative. Cela peut expliquer, en partie, les diffi-
cultés d’un raisonnement basé sur la logique de la réfutation. En
effet, il ne faut pas négliger, chez les adultes, les difficultés dues au
fait que cette logique implique de travailler avec des négations et
nécessite des enchaînements plus longs (liés notamment à l’usage
de raisonnements hypothétiques).
En ce qui concerne le raisonnement déductif, c’est-à-dire les infé-
rences dont la finalité est la compréhension, mais dont la direction
est la particularisation, les principales recherches montrent que les

1
De P et de « P implique Q » on déduit Q ; formellement P et (P → Q) ⇒ Q .
2 En particulier, on notera que la rigueur mathématique a évolué au cours de
l’histoire des mathématiques.
3 La stratégie qui en découle est nommée par Klayman & Ha (cité par Richard,
1990) « positive test strategy ».
21règles formelles de raisonnements ne sont pas mises en œuvre (sauf
chez les sujets entraînés au raisonnement logique) à l’exclusion du
modus ponens qui semble être un outil cognitif naturellement dis-
ponible. Les processus utilisés recourent plutôt à des schémas
pragmatiques généraux que l’on particularise à la situation pré-
sente. Une procédure fréquemment rencontrée procède en montrant
la fausseté de toutes les alternatives possibles.
Pour réfléchir
Voici quelques questions de logique qui montrent que certaines
formes de raisonnements sont plus familières que d’autres. Essayez
d’y répondre en notant votre première réaction, la manière de justi-
fier, les hésitations, les rectifications (travaillez à deux).
Le chat de Lewis Carroll
Commentez le raisonnement tiré d’une édition de 1994 d’Alice au
1pays des merveilles de Lewis Carroll :
« Et comment savez-vous que vous êtes fou ?
- Pour commencer, est-ce que tu m'accordes qu'un chien n'est pas
fou ?
- Sans doute.
- Eh bien, vois-tu, un chien gronde lorsqu'il est en colère, et remue
la queue lorsqu'il est content. Or, moi, je gronde quand je suis
content, et je remue la queue quand je suis en colère. Donc, je suis
fou.
- Moi j'appelle ça ronronner, pas gronder.
- Appelle ça comme tu voudras [...]. »
2Vérification d’une implication
Quatre cartes ont chacune un signe au recto et au verso. Vous les
voyez ainsi :
A D 4 7
Quelles cartes faut-il retourner au minimum pour vérifier la règle :
« S’il y a une voyelle d’un côté, alors il y a un chiffre pair de
l’autre côté » ?

1 D’autres exemples se trouvent à profusion dans Carroll (1966).
2 Selon Wason (1977).
221Pratique du modus ponens et du modus tollens
Pour chacun des quatre cas, considérez les prémisses comme ab-
solument vraies et décidez laquelle des conclusions proposées en
italique est « logiquement » correcte.
A. Si on se gare mal, on a une B. Si on se gare mal, on a une
amende. Léo s’est mal garé. amende. Léa n’a pas eu
d’amende.
- Léo a eu une amende - Léa s’est mal garée
- Léo n’a pas eu d’amende - Léa ne s’est pas mal garée
- On ne peut pas savoir - On ne peut pas savoir
C. Dans un casino : Tous les D. Dans un casino : Tous les
buveurs sont fumeurs. Tous les fumeurs sont buveurs. Aucun
fumeurs sont joueurs joueur n’est fumeur
- Aucun buveur n’est joueur - Aucun buveur n’est joueur
- Certains buveurs ne sont pas - Certains buveurs ne sont pas
joueurs joueurs
- Tous les buveurs sont joueurs - Tous les buveurs sont joueurs
- Certains buveurs sont joueurs - Certains buveurs sont joueurs
Le raisonnement par exclusion, le problème des prisonniers
Dans une prison, il y a trois prisonniers. On leur met à chacun un
béret pris parmi cinq dont ils savent que trois sont rouges et deux
sont noirs. Le premier détenu qui pourra dire à coup sûr la couleur
de son béret sera libéré.
On leur met à chacun un béret rouge (chacun ne voit que les bérets
des autres).
Au bout d’un laps temps, un des prisonniers dit : « j’ai un béret
rouge ». Quel a été son raisonnement ?
2Argumentum ad consequentiam
Cette argumentation se base formellement sur le modus ponens (ou
modus tollens) dans une forme fallacieuse. Celui qui argumente

1 Inspiré de Politzer & Bonnefon (2005).
2 Pour d’autres cas, consulter : http://skepticwiki.org/ (consulté : juillet 2012).
23prétend qu’une proposition est vraie (ou fausse) puisque ses consé-
quences sont hautement désirables (ou non désirables).
Analysez de ce point de vue les arguments suivants :
- Dieu existe parce que autrement le monde n’aurait aucun sens.
- Si la théorie de l’évolution était exacte, les humains ne seraient
pas mieux que les animaux.
A méditer
« La proposition montre ce qu’elle dit, la tautologie et la contra-
diction montrent qu’elles ne disent rien. (…) La tautologie et la
contradiction sont vides de sens. (…) (Je ne sais par exemple rien
au sujet du temps qu’il fait lorsque je sais qu’il pleut ou qu’il ne
pleut pas). » (Wittgenstein, 1961, proposition 4.461).
Le calcul des probabilités
Pour imiter le hasard, il faut porter attention à ne
pas porter attention… Une tâche complexe pour
l'esprit humain ! (Jean Hamman).
Although randomness can be precisely defined and
can even be measured, a given number cannot be
proved to be random. This enigma establishes a limit
to what is possible in mathematics. (Chaitin, 1975).
Le calcul des probabilités est un sujet souvent jugé difficile par les
étudiants au niveau de la maturité. Les origines de cette difficulté
sont probablement à chercher dans l’interaction qui s’introduit
entre les mondes I et III de Popper. Qui commande, la réalité ou le
calcul formel des probabilités ? C’est avec cette question à la clé
que cette partie passe en revue quelques concepts de base, notam-
ment celui de probabilité bayésienne.
La première notion unificatrice est celle d’épreuve aléatoire, expé-
rience possiblement mentale, dont les issues, appelées événements
élémentaires, sont obtenues au « hasard ». Les événements sont des
conjonctions d’événements élémentaires. Ainsi, si l’épreuve aléa-
toire est le lancer d’un dé, on peut considérer les événements ex-
primés sous la forme de propositions. « Obtenir un nombre pair »
est un événement, alors que « obtenir un 6 » est un événement élé-
mentaire.
24Il est souvent utile de donner un habillage ensembliste à cette si-
tuation. On définit alors un « univers » U = {e , e ,…, e } ensem-1 2 n
1ble (fini) dont les parties E, F, … sont les événements et les sin-
gletons {e }, {e },…, {e } les événements élémentaires. On identi-1 2 n
fie e et {e }.i i
Lorsqu’ils sont assimilés à des propositions, il est possible de com-
biner les événements à l’aide des conjonctions « ou », « et » et de
la négation « non ». Lorsque c’est le langage des ensembles qui est
adopté, les événements se combinent à l’aide des opérations en-
semblistes : union, intersection et complémentaire.
Etant donnés deux événements E et F, on considère alors E + F
(union correspondant au « ou »), E • F (intersection correspondant
au « et »), E’ (complémentaire correspondant à la négation, la non-
réalisation de E).
fig 2. L’univers U, deux événements E et F et leur conjonction E • F
Un opérateur supplémentaire peut rendre service : E – F (qui cor-
respond au « sauf » et qui est défini formellement par E • F’). Avec
cette notation, on peut écrire l’égalité : E’ = U – E.
U est l’événement « certain » et son complémentaire, l’ensemble
vide Ø = U’, est l’événement « impossible ».
Les diagrammes ensemblistes aident souvent à représenter la situa-
tion (figure 2).

1 Il est possible de ne considérer qu’un sous-ensemble des parties de U stable par
union, intersection et complémentaire. Le cas des probabilités offre un exemple de
deux strates du monde III : celle qui se réfère à l’épreuve aléatoire, relativement
abstraite qui va ensuite conduire à la définition d’une variable aléatoire comme
une fonction attachée à cette épreuve. Une autre strate, plus formelle va utiliser
des ensembles mesurables, des σ-algèbre, etc.
25Fonctions probabilité
1Les axiomes dégagés par le mathématicien russe Kolmogorov
rendent compte de ce que l’on attend d’une probabilité. Ces axio-
mes sont les suivants :
Une fonction probabilité p est une fonction de l’ensemble des par-
2ties de U, noté P(U), à valeurs dans l’intervalle [0,1], telle que :
- p(U) = 1 ;
- p(E + F) = p(E) + p(F) si E et F sont deux parties de U disjointes
(E • F = Ø).
On exprime la relation E • F = Ø par « les événements E et F sont
incompatibles ».
De ces axiomes primitifs, il est possible de déduire d’autres lois
souvent utilisées dans la pratique :
- Loi du complémentaire : p(E’) = 1 - p(E) ;
- Loi de l’addition générale : p(E + F) = p(E) + p(F) - p(E • F).
Avec le modèle ensembliste, il est possible de se représenter la
probabilité p(E) comme la « superficie » du domaine E (figure 2)
rapportée à celle de U.
Il est important de faire remarquer que le choix de la lettre « p » est
pratique, mais pas obligatoire. C’est le nom d’une fonction et non
l’abréviation du mot probabilité !
La probabilité d’un événement ne correspond pas toujours à ce que
l’intuition attend de la mesure de l’incertitude. Le degré de vrai-
3semblance d’un événement E est parfois mieux adapté pour cela.
Ce degré de vraisemblance est donné par le rapport :
p(E) p(E)
=
p(E') 1−p(E)

1 Cette approche axiomatique peut entrer dans l’approche poppérienne (voir page€
55). Ensuite, il s’agira de soumettre ce choix « théorique » à la critique empirique.
Quant au mathématicien, il se contentera souvent de la cohérence interne du sys-
tème.
2 On peut se limiter à un sous-ensemble de P (U), un espace probabilisable, stable
par réunion, intersection et prise du complémentaire.
3 C’est un cas particulier du rapport de vraisemblance entre deux événements E et1
E donné par p(E ) / p(E ).2 1 2
26Probabilité conditionnelle
Soient U un univers, E et F des événements et p une fonction de
probabilité sur U. Si F est un événement non impossible (donc p(F)
est non nulle), on peut considérer la nouvelle fonction de probabi-
lité donnée par :
p(F •E)
p (E) =
F p(F)
Cette fonction représente la probabilité de E sachant que F s’est
réalisé. L’événement F représente le nouvel univers, le nouvel
événement certain. €
fig 3. Probabilité conditionnelle : passage de l’univers U à l’univers F
La figure 3 permet de se représenter la probabilité de E (d’abord
représentée comme le rapport des « surfaces » E et U) lorsque que
F devient le nouvel univers. Elle correspond au rapport de
l’étendue de F • E à celle du nouvel univers F.
1La notation habituelle pour p (E) est p(E | F) (« probabilité de EF
sachant que F est réalisé »). De la définition, on en déduit la for-
mule du produit :
p(E • F) = p(F) x p(E | F) = p(E) x p(F | E) (I.2.I)
On dit que les événements E et F sont indépendants si
p(E | F) = p(E). Dans ce cas p(E • F) = p(E) x p(F).
Cette relation peut être prise comme définition de l’indépendance
des événements E et F.

1 A noter l’aspect boiteux de cette notation historique. Axée sur l’aspect pratique
du calcul, elle cache l’aspect fonctionnel de la définition.
27Probabilité des causes
La formule I.2.I permet d’établir la formule de la probabilité des
causes. Dans une présentation classique, celle-ci apparaît d'abord
sous la forme suivante (tirée de Borel & al, 1964) :
p(C )p(E|C ) p(C )i i ip(C |E) = = p(E|C ) (I.2.II)
i ip(E) p(E)
Si plusieurs causes C , C , … C , peuvent provoquer un événement1 2 n
E, cette formule donne la probabilité que E soit dû à la cause C .i
L’exemple académique par excellence est le suivant : connaissant€
la répartition de jetons noirs et rouges dans un certain nombre
d’urnes, et tirant au hasard un jeton noir d’une urne choisie au ha-
sard, il s’agit de calculer la probabilité que le jeton provienne d’une
des urnes particulières.
Comme la probabilité p(E) n'est pas connue directement, indépen-
damment des causes qui ont conduit à l’événement E, elle peut se
calculer en utilisant l’égalité :
E = E • (C + …+ C ) = E • C + …+ E • C .1 n 1 n
Si les causes sont indépendantes, la formule I.2.II est alors trans-
formée en :
p(C )p(E|C )
i ip(C |E) = (I.2.III)
i ∑ p(C )p(E|C )
j j
j =1...n
Dans cette formule, la lettre p est une abréviation de « probabilité »
et non le nom d’une fonction bien identifiée définie sur deux espa-
ces probabilisables différents (celui des événements et celui des€
causes). Pour distinguer ces deux fonctions, il est préférable
d’écrire la formule avec deux lettres différentes, par exemple :
℘(C )p(E|C )
i i℘(C |E) = (I.2.IIIbis)i ℘(C )p(E|C )∑ j j
j =1...n
Ce qui permettra ultérieurement de différencier les probabilités
d’autres d’autres coefficients d’incertitude.
€ Définition de fonctions de probabilité
Popper parle de probabilité logique lorsqu’il se réfère aux proprié-
tés formelles de la fonction probabilité sans s'occuper de la dimen-
28sion psychologique ou pratique du concept. Le problème est de
trouver des réalisations concrètes, qui « s’adaptent » à la réalité, de
fonctions probabilité conformes à la spécification « abstraite ».
Trois approches sont possibles, exprimées parfois avec quelques
nuances.
1. Probabilité « théorique » : elle est donnée par la formule :
Card(E) k nb. cas favorables
p(E) = = =
Card(U) n nb. cas possibles
Cette définition a priori (monde III) évite les définitions circulaires
qui précisent d’abord la notion d’équiprobabilité. Au contraire, elle
en favorise la définition et le contrôle par réfutation selon un€
schéma poppérien (voir page 55).
Pour l’utilisation de cette définition, il s’agit de bien identifier les
événements élémentaires. Si l’expérience aléatoire est, par exem-
ple, le lancer de deux dés, les événements élémentaires ne sont pas
les différentes sommes que l’on peut obtenir, erreur courante, mais
l’ensemble des configurations de valeurs des deux dés.
L’événement « obtention d’une somme égale à 5 », est constitué de
4 événements élémentaires : 1 et 4, 2 et 3, 3 et 2, 4 et 1. La proba-
bilité finale vaut donc 4/36 = 1/9.
2. Probabilité « fréquentiste » : dans certains cas pratiques com-
plexes, il est fait appel à des estimateurs statistiques. Les fréquen-
ces observées tiennent lieu de probabilités (par exemple : établis-
sement de tables de survie).
1Ces deux premières définitions établissent des fonctions probabi-
lité qualifiées d’objectives. Elles sont apparentées à travers la loi
2des « grands nombres » (énoncée par Jacques Bernoulli à la fin du
eXVII siècle) à cheval entre les mondes I et III de Popper.

1 Valli (1982) distingue ces deux catégories avec quelques nuances. La première
conception, associée à Pascal, est caractérisée de « fréquentielle classique ». La
deuxième conception est nommée « conception statistique ». Elle introduit expli-
citement la notion de hasard. La troisième conception qu’il considère, subjective,
mesure le degré de confiance d'un sujet en l'occurrence d'un événement donné.
2 Si l'on répète un grand nombre de fois une même expérience aléatoire dont le
résultat est une valeur numérique, alors la moyenne des résultats obtenus tend à se
rapprocher de l'espérance mathématique de l'expérience, c’est-à-dire de la somme
29