La théorie de l information en psychologie expérimentale - article ; n°2 ; vol.53, pg 463-476
15 pages
Français

La théorie de l'information en psychologie expérimentale - article ; n°2 ; vol.53, pg 463-476

-

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
15 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

L'année psychologique - Année 1953 - Volume 53 - Numéro 2 - Pages 463-476
14 pages
Source : Persée ; Ministère de la jeunesse, de l’éducation nationale et de la recherche, Direction de l’enseignement supérieur, Sous-direction des bibliothèques et de la documentation.

Informations

Publié par
Publié le 01 janvier 1953
Nombre de lectures 67
Langue Français

Extrait

J.-M. Faverge
II. La théorie de l'information en psychologie expérimentale
In: L'année psychologique. 1953 vol. 53, n°2. pp. 463-476.
Citer ce document / Cite this document :
Faverge J.-M. II. La théorie de l'information en psychologie expérimentale. In: L'année psychologique. 1953 vol. 53, n°2. pp.
463-476.
doi : 10.3406/psy.1953.30119
http://www.persee.fr/web/revues/home/prescript/article/psy_0003-5033_1953_num_53_2_30119II
LA THÉORIE DE L'INFORMATION
EN PSYCHOLOGIE EXPÉRIMENTALE
par. J. M. Faverge.
La théorie quantitative de l'information a été principalement
développée par Shannon afin de servir à l'étude des communications
télégraphiques et téléphoniques. Elle utilise un appareil mathémat
ique complexe; mais nous tenons à rassurer dès maintenant le
lecteur, ces développements ne seront pas étudiés ici pour la raison
qu'ils n'ont pas encore été l'objet d'applications à la psychologie
expérimentale. Le psychologue pourra cependant consulter avec fruit
le livre de Shannon et Weaver (1) : la partie écrite par Weaver ne
fait pas appel au symbolisme mathématique et constitue une bonne
initiation au langage des communications, certains paragraphes de
Shannon sont aussi abordables par chacun et ils renferment la subs
tance directement utilisable.
C. Burt (2) a exprimé l'opinion que le langage de la théorie de
l'information était particulièrement adapté aux situations stimuli-
sujet-réponses, familières aux psychologues. Les stimuli sont des
signaux, émis par une source d'informations, le sujet est la voie de
communication et les réponses les signaux transmis par la voie. On
verra que, dans la suite, il s'agit toujours d'un tel schéma.
Notion de quantité d'information.
Une source d'informations émet des signaux. Supposons qu'il y
ait n signaux différents Sj(t = 1, 2, ..., n) et que la probabilité qu'a
le signal S» d'être émis soit pt".
Pour être plus concret, imaginons l'exemple suivant :
Un panneau porte trois lampes, une lampe rouge R, une verte
V, une jaune J. Les lampes s'allument et s'éteignent successivement.
On obtiendra ainsi une séquence, par exemple :
RVVRJRJVV R... REVUES CRITIQUES 464
II y a toujours au plus une seule lampe allumée. Lorsqu'une lampe
s'allume, un des trois signaux R, V, J est émis :
Ici, n = 3.
Avant l'apparition d'un signal, on ne sait pas quel signal appar
aîtra. Ou tout au moins on ne le sait pas entièrement; il se peut
que les signaux ne soient pas également probables et, si l'une des
probabilités est voisine de un, on pourra miser sur le signal
correspondant. On sera peu informé s'il apparaît. Si la probabilité
d'un signal est grande, il y a peu d'information émise lorsqu'il se
produit. Si, au contraire, un signal rare se produit, une grande info
rmation est émise. D'une façon générale, la quantité d'information i
est fonction décroissante de p. On choisit :
i = — log p.
Le choix de cette fonction est, en particulier, justifié si l'on veut
que la quantité d'information apportée par la réalisation simultanée
de deux événements indépendants soit la somme des quantités
d'information apportées par chacun d'eux.
Si, en effet :
P = P1P2
on a :
i = ij + i2.
On choisit 2 comme base des logarithmes, afin que l'information
1
soit égale à l'unité lorsque p = -. Cette unité d'information s'ap-
pelle bit (contraction de biunitary digit). C'est l'information appor
tée par l'un des deux symboles équiprobables dans le système de
numération binaire.
Entropie ou valeur moyenne de V information.
Supposons que les états successifs de la source soient indépendants.
Ceci signifie que les probabilités d'occurrence des signaux E,- à un
moment donné sont indépendantes de la séquence antérieure des
signaux apparus. Ainsi le symbole R a toujours la même probabilité
de se présenter tout au long de la série.
Avant la production d'un signal, on ne sait pas quelle information
sera émise; ce sera — log px, si c'est le signal Sj qui apparaît; — log/?2
si c'est S2, etc. La valeur moyenne de l'information émise au moment
de la production d'un signal est donc :
H = — Pi log Pi — P2 log Pi ••• — Pn log n
ou : H = — 2 p log p
H est une mesure de l'incertitude où l'on est du signal qui appar
aîtra. H est nul à la condition que tous les p soient nuls, sauf un qui M. FAVERGE. LA THEORIE DE L'INFORMATION 465 J.
égale l'unité. Dans ce cas, il n'y a pas incertitude. H est maximum
1
;si tous les p sont égaux. Ils valent alors - et
H = log n.
Si x est la variable aléatoire aux n éventualités St- avec les probab
ilités pi, on adopte la notation H (a;); on remarquera que les éven
tualités de x ne sont pas nécessairement numériques; ainsi on pourra
avoir les trois éventualités xx ou R, x2 ou V, x3 ou J.
Le lecteur qui a étudié la théorie cinétique des gaz reconnaîtra
• dans l'expression de H la fonction que Boltzman a appelée «entro
pie ». Pour cette raison, on appelle encore entropie cette valeur
moyenne H de l'information. Nous pouvons dire qu'une source à
états successifs indépendants émet en moyenne, lorsqu'un état se
produit, H bits d'information.
Dans la pratique, on remplace les probabilités par les fréquences
d'apparition des signaux — . La quantité d'information émise avec
le signal S est :
i = — log — * = — log rii + log N
lo§ §io
log10 2
ou log10 2 = 0,30103.
On a de même :
H = i (— Sn; log th + N log N).
Les calculs sont faits en utilisant une table des produits n log n.
Information transmise.
L'homme ne transmet pas toute l'information qu'il a reçue avec
les signaux. Il dégrade l'information, cette dégradation correspond
au bruit dans la voie de communication téléphonique.
Reprenons l'exemple des lampes R, V et J. Supposons que le sujet
doive répondre de façon spécifique à chacun des trois signaux. Il
arrivera qu'il fasse des erreurs et réponde, par exemple, R au signal V.
On pourra représenter les résultats dans un diagramme tel que le
■suivant : ■
j CRITIQUES 466 REVUES
Stimulus x
Total R V J
R 41 4 7 52 s»
«13
3 19 2 24
a,
K
16 24 J 6 2
50 25 Total . 25 100
On a supposé que la séquence était constituée par 100 signauxr
50 rouges, 25 verts et 25 jaunes. La présence d'erreurs dans le di
agramme traduit la dégradation de l'information. Appelant x la
variable stimulus et y la variable réponse, cette dégradation peut,
d'après Shannon, être mesurée par Hy (x) valeur moyenne des entro
pies partielles de x à y constant.
L'entropie partielle de x pour y = R serait :
- (- 41 log 41 4 log 4 — 7 log 7 + 52 log 52).
En la multipliant par — 52 — - et en ajoutant les deux termes ana-
100
logues relatifs à y = V et J, on obtient Hy(x).
L'information transmise R est la différence entre l'information»
émise par la source et l'information dégradée, ou :
R = U(x) — Uy(x).
On peut démontrer les égalités suivantes :
R = H(y) - Hx(y)
= H{x) — Hy{z)
= U(x) + H(y) - H(x, y).
Pour le calcul pratique de R, on opère de la façon suivante : tous les nombres n du diagramme, on fait le produit n log10 n..
Il ne s'agit pas seulement des effectifs qui sont à l'intérieur du tableau
mais aussi des totaux de lignes et de colonnes et du total général.
Dans l'exemple, il y a 16 effectifs. On fait la somme algébrique des
produits obtenus; par algébrique, il faut entendre que les produits
relatifs aux cases du tableau et au total général sont affectés du
signe + et que les produits relatifs aux totaux marginaux sont affec
tés du signe — . Ici on aurait :
T = 41 log 41 + 4 log 4 + 7 log 7 + 3 log 3 + 19 log 19 + 2 log 2
+ 6 log 6 + 2 log 2 + 16 log 16 — 52 log 52 — 24 log 24
— 24 log 24 — 50 log 50 — 25 log 25 — 25 log 25 + 100 log 10O
On utilise bien entendu une table de n log10 n.
On divise ensuite T par N log10 2, ici par 30,103. Le résultat est R. J. M. FAVERGE. LA THEORIE DE i/lNFORMATION 467
a" expérimentation. Le matériel
La quantité d'information i est fonction de la probabilité p. Cepen
dant,

  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents