//img.uscri.be/pth/3134a12b4355f729a38dd520373cf14d775ce05f
Cette publication ne fait pas partie de la bibliothèque YouScribe
Elle est disponible uniquement à l'achat (la librairie de YouScribe)
Achetez pour : 13,13 € Lire un extrait

Lecture en ligne (cet ouvrage ne se télécharge pas)

Lois générales et variabilité cognitive

De
204 pages
L'une des questions centrales et récurrentes en psychologie cognitive est celle de savoir ce que fait réellement le sujet, quelle procédure, quelle stratégie il met en oeuvre lorsqu'il exécute une tâche expérimentale donnée. Les réponses à cette question fondamentale dépendent de la manière dont on considère la variabilité des mesures. L'auteur propose une approche différentielle de la psychologie générale qui se démarque des deux autres par la place qu'elle accorde à l'analyse qualitative autant que quantitative de la variabilité des mesures et par le type de modèles moyens qu'elle élabore.
Voir plus Voir moins

Lois générales et variabilité des mesures en psychologie cognitive

Psycho - logiques Collection dirigée par Alain Brun et Philippe Brenot
Sans exclusives ni frontières, les logiques président au fonctionnement psychique comme à la vie relationnelle. Toutes les pratiques, toutes les écoles ont leur place dans Psycho - logiques.

Marcel FRYDMAN, Violence, indifférence ou altruisme?; 2005. Serge RAYMOND, Pathobiographies judiciaires. Journal clinique de Ville-Evrard, 2005. Jacques HUREIKI, Ethnopsychiatrie compréhensive, 2005. Jean HUCHON, L'être logique. Le principe d'anthropie, 2005. Paul CASTELLA, La différence en plus, 2005. Marie-Pierre OLLIVIER, La violence des croyances. Point de vue d'une psychologue clinicienne, 2004. P.-A. RAOULT, De la disparition des psychologues cliniciens. Luttes et conflits entre cliniciens et cognitivistes, entre universitaires et praticiens, entre médecins et psychologues, 2004. Jacques WITTWER, Mots croisés et psychologie du langage, 2004. Bernard MAROY, La dépression et son traitement. Aspects méconnus,2004. Guy Amédé KARL, La passion du vide, 2004. Régis VIGUIER, Le paradoxe humain, 2004. Sarah EBOA-LE CHANONY, La psychologie de l'Individuation. L'Individu, la Personne et la Crise des 28 Ans, 2004.

Monique ESSER (dir.), La programmation neuro-linguistique
en débat, 2004. Georges KLEFTARAS, La dépression: approche cognitive et comportementale, 2004. De CHAUVELIN Christine, Devenir des processus pubertaires, 2004. BALKEN Joséphine, Mécanismes de l'hypnose clinique, 2004. BALKEN Joséphine, Hypnose et psychothérapie, 2003. MALA WIE Christian, La carte postale, une oeuvre. Ethnographie d'une collection, 2003. WINTREBERT Henry, La relaxation de l'enfant, 2003. ROBINEAU Christine, L'anorexie un entre deux corps, 2003.

Josette Marquer

Lois générales et variabilité des mesures en psychologie cognitive
L'exemple des stratégies cognitives

L'Harmattan 5-7, rue de l'École-Polytechnique; FRANCE
L'Hannattan Hongrie Espace L'Harmattan Kinshasa

75005 Paris

L'Harmattan

Italia
15

L'Harmattan
12B2260

Burkina Faso
villa 96 12

Konyvesbolt Kossuth L. u. 14-16

Fac. Sciences. BP243, Université

Soc, Pol. et Adm. KIN XI - RDC

Via Degli Artisti, 10124 Torino ITALIE

1200 logements

Ouagadougou FASO

1053 Budapest

de Kinshasa

BURKINA

www.1ibrairieharmattan.com e-mail: harmattan1@wanadoo.fr cgL'Harmattan, 2005 ISBN: 2-7475-9116-6 EAN : 9782747591164

INTRODUCTION:

LA PROBLEMATIQUE

L'une des questions centrales et récurrentes en psychologie est celle de savoir ce que fait réellement le sujet, quelle procédure, quelle stratégie il met en œuvre lorsqu'il exécute une tâche expérimentale donnée. Une autre question porte sur les relations entre psychologie générale et variabilité des mesures. La troisième concerne les conséquences, sur l'interprétation d'un même ensemble de données, du choix de telle méthode d'analyse plutôt que de telle autre. Ces trois questions sont en fait étroitement liées. L'exemple suivant permettra de mieux cerner la problématique générale de cet ouvrage, ainsi que les relations entre les trois questions précédentes. Le traitement de la négation a suscité un grand nombre de recherches qui ont eu recours à des paradigmes variés. L'un de ces paradigmes est celui de la vérification de phrases. Ce type de tâche consiste à reproduire en laboratoire une situation très courante dans notre vie quotidienne: comparer deux informations qui nous sont présentées sous des formats différents. Ainsi, le paradigme de vérification de phrases de Clark & Chase (1972) demande au sujet de décider si une information non linguistique (par exemple, un dessin) est correctement décrite, ou non, par une phrase. Cette phrase peut être affirmative ou négative et juste ou fausse par rapport au dessin. Il ressort des nombreuses recherches menées à l'aide de ce paradigme qu'il existe une relation quasiconstante entre les moyennes de temps de traitement des deux types possibles de phrases négatives: en moyenne, les phrases négatives qui sont fausses par rapport au dessin (NF) sont traitées plus rapidement que les phrases négatives qui sont vraies (NV). Cette inégalité rendrait compte d'une plus grande complexité des NV : pour reprendre un exemple de Carpenter & Just (1975), une phrase du type "les points ne sont pas rouges" est, bien entendu, "fausse" si elle est accompagnée d'un dessin représentant des points de même couleur et "vraie" si elle est accompagnée d'un dessin représentant des points d'une autre couleur. La non-identité

de couleur entre phrase et dessin requerrait un temps de traitement supplémentaire par rapport au traitement de leur identité: le "temps de falsification" (Clark & Chase, op. cit.), qui, dans le cadre d'un modèle sériel de traitement de l'information, serait égal à la différence entre le temps de traitement moyen des NY et celui des NF. La relation "temps de traitement moyen des négatives fausses inférieur au temps de traitement moyen des négatives vraies" (NF < NV) a été établie pour la forme la plus simple du paradigme de vérification: la phrase est présentée en même temps que le dessin sur un écran d'ordinateur; on compte le temps de traitement total du couple phrase-dessin (temps de vérification ou TRV) depuis l'apparition des stimuli sur l'écran jusqu'à la réponse du sujet, réponse qu'il donne en appuyant sur le bouton approprié. Cependant, lorsqu'on modifie le paradigme en présentant la phrase seule - pendant un temps fixe de 2 secondes ou pendant un temps libre, selon les recherches - avant de présenter le dessin, les moyennes des temps de vérification, mesurés cette fois uniquement pendant la présentation du dessin, s'ordonnent dans un ordre différent de l'ordre attendu: NY < NF, au lieu de NF < NY. Cette inversion de l'ordre entre les temps de traitement des phrases négatives peut donner lieu à des interprétations différentes de ce que font les sujets pendant la tâche expérimentale.

Trois interprétations

du même fait expérimental

Carpenter & Just (1975) interprètent cette inversion comme traduisant la mise en œuvre par tous les sujets d'une stratégie de recodage de la négation en affirmation: les sujets, qui ne voient que la phrase pendant un temps relativement long, peuvent procéder à cette simplification de l'information linguistique. Le recodage de la négation fait que les négatives vraies deviennent des affirmatives vraies (AV) et que les négatives fausses deviennent des affirmatives fausses (AF). Pour reprendre l'exemple précédent, en le simplifiant au cas où les points ne peuvent prendre que deux couleurs (rouge ou vert), la phrase "les points ne sont pas rouges" va être recodée en "les points sont

6

verts". Si cette phrase est suivie de la présentation de points verts, elle est donc passée du statut de NV à celui d'A V ; si les points sont rouges, la NF est devenue une AF. La relation inhabituelle NV < NF n'est qu'apparente et ne fait que reproduire, en fait, la relation habituelle AV < AF. MacLeod, Hunt & Mathews (1978) interprètent cette inversion comme une conséquence du mélange de deux sousensembles de sujets, chacun de ces sous-ensembles mettant en œuvre une stratégie différente: pour l'un des deux groupes, une stratégie linguistique sans recodage de la négation pendant le temps d'exposition à la phrase seule, stratégie qui se traduit donc par la relation habituelle NF < NV ; pour l'autre groupe, une stratégie de recodage imagé qui transforme, pendant le temps d'exposition à la phrase, les affirmatives comme les négatives en dessins, supposés toujours "affirmatifs", ce qui revient donc à un recodage des négatives en afftrmatives et, par conséquent, se traduit par l'ordre inhabituel NV < NF. Avec Maria Pereira (par exemple, Marquer & Pereira, 1987, 1990a, 1990b), nous avons proposé d'expliquer cette inversion comme résultant du mélange entre temps de réaction de tout un ensemble de groupes de sujets utilisant des stratégies très diverses, stratégies qui diffèrent, en particulier, par la manière de traiter la négation et/ou le moment où se produit ce traitement. On peut ainsi distinguer, d'une part, des stratégies diverses ayant pour point commun de ne pas traiter la négation pendant le temps

de lecture de la phrase - stratégies qui vont de pair avec la relation
NF < NV - et, d'autre part, des stratégies, très diverses également, mais qui ont pour point commun de traiter la négation pendant le temps de lecture de la phrase - stratégies qui vont de pair avec la relation NV < NF. Ces interprétations différentes sont méthodes d'analyse des données différentes. associées à des

7

Trois méthodes d'analyse des données, appliquées au même fait expérimental
Carpenter & Just (1975) calculent les moyennes des temps de traitement des 4 types de phrases sur l'ensemble des sujets qui ont participé à une expérience de vérification dans laquelle la phrase était présentée seule pendant 500 millisecondes. Ils constatent que les moyennes des temps de vérification des phrases négatives, temps mesurés pendant la présentation du dessin, s'ordonnent selon la relation inhabituelle NV < NF. Les auteurs rapprochent cette relation de celle, identique, trouvée par Young & Chase (1971, cité par Carpenter & Just, 1975) lorsqu'ils ont demandé explicitement à leurs sujets d'adopter une stratégie de recodage des phrases négatives en phrases affirmatives. Carpenter & Just font alors l'hypothèse que leurs propres sujets ont adopté spontanément cette stratégie de recodage et confirment cette hypothèse en estimant l'adéquation, à leurs propres données, du modèle de recodage qu'ils ont élaboré à partir des données de Young & Chase. MacLeod et al. (1978) constatent, eux aussi, la relation inhabituelle NV < NF sur les moyennes de l'ensemble de leur échantillon, au cours d'une expérience de vérification dans laquelle les sujets traitent d'abord la phrase seule pendant un temps libre. Ils font l'hypothèse que les sujets ne procèdent pas tous de la même manière. Ils semblent postuler que cette diversité est fidèlement traduite par celle des patterns individuels de temps de traitement. Ils considèrent donc les patterns individuels de temps de vérification et calculent le degré d'adéquation du modèle sans recodage (allant donc de pair avec NF < NV) de Carpenter & Just (1975) à chacun de ces patterns individuels. Ils fonnent ainsi trois sous-ensembles de sujets: 1/ un groupe de sujets pour lesquels les TRV individuels sont en forte corrélation positive avec les prédictions du modèle, groupe qui présente donc, en moyenne, l'ordre NF < NV 2/ un groupe de sujets pour lesquels les TRV individuels sont en corrélation faible ou négative avec les prédictions du modèle, groupe qui présente, en moyenne, l'ordre inverse NV < NF 3/ un groupe "intennédiaire" fonnés de sujets dont les TRV individuels sont en corrélation "moyenne" et

8

positive avec les prédictions du modèle; ce groupe est écarté de la suite de l'analyse. Les auteurs, semblant postuler que les deux premiers groupes sont formés de sujets qui adoptent tous le même comportement, proposent deux modèles moyens différents pour rendre compte des relations entre les moyennes de TRV de chacun de ces groupes et valident ces modèles à l'aide de divers indices. Avec Maria Pereira, en reprenant le paradigme de MacLeod et al. (1978), nous vérifions que, pour les moyennes de l'ensemble de notre échantillon, nous retrouvons bien la relation inhabituelle NV < NF. Nous faisons également l'hypothèse que tous les sujets ne se comportent pas de la même manière mais nous adoptons une procédure d'identification des stratégies différente de celle de MacLeod et al. : nous établissons un modèle de traitement par sujet à partir des protocoles verbaux, nous regroupons les sujets dont les modèles individuels sont proches, nous établissons un modèle moyen pour chacun des sousensembles de sujets ainsi constitués et nous testons la validité de ces modèles au moyen de diverses sources d'information. Ainsi, le même fait expérimental - l'inversion de l'ordre habituel entre les temps de traitement moyens des deux types de phrases négatives - peut donner lieu à des interprétations différentes, associées à des méthodes différentes de traitement des données. Il ne s'agit pas seulement d'une question de niveau d'analyse allant de pair avec des niveaux de généralité différents des modèles proposés, modèles qui pourraient s'organiser, par exemple, selon une relation d'inclusion lorsqu'on passe de la première interprétation à la troisième: dans le cadre de ce troisième type d'interprétation, on retrouve, parmi d'autres, au niveau individuel, les stratégies correspondant aux deux autres. Ces interprétations ne sont pas seulement différentes, elles sont également incompatibles: en soumettant le même ensemble de résultats, établi sur un seul échantillon de sujets, aux trois méthodes d'analyse précédemment définies, on peut constater qu'un même sujet peut se voir attribuer des stratégies différentes (cf. chapitre II).

9

Ces interprétations différentes d'un même fait, associées à des méthodes différentes d'analyse des mêmes données, apportent donc des réponses différentes à la question cruciale de la stratégie réellement adoptée par les sujets au cours d'une tâche expérimentale donnée. Il semble que le choix entre ces interprétations et ces méthodes dépend surtout du statut que les auteurs accordent aux différences individuelles et, par conséquent, découle des conceptions, plus ou moins implicites, qu'ils ont des lois générales et des modèles moyens de la psychologie cognitive.

10

-1LOIS GENERALES, MODELES MOYENS ET STATUT DE LA VARIABILITE DES MESURES
La variabilité des mesures peut être interprétée de diverses manières, selon l'hypothèse que l'on émet - ou le postulat que l'on adopte - sur l'homogénéité ou l'hétérogénéité des stratégiesl mises en œuvre par les différents sujets pour exécuter une même tâche expérimentale. En simplifiant, on peut dire que trois approches sont possibles2 (1Vfarquer,1995).

PREMIERE APPROCHE: CELLE DE LA PSYCHOLOGIE GENERALE TRADITIONNELLE
On postule que, pour exécuter une tâche expérimentale donnée, tous les sujets - ou la quasi-totalité - adoptent la même stratégie. On cherche donc à exprimer des lois générales à partir des caractéristiques des performances moyennes et on propose un modèle moyen pour rendre compte de ce comportement commun. Les sujets étant échantillonnés au hasard dans une population donnée, on considère la variabilité interindividuelle des mesures comme entièrement aléatoire.

La variabilité des moyennes
Cette première approche établit des lois générales à partir de moyennes de mesures, en recourant fréquemment à l'analyse
1 En psychologie cognitive, les termes "procédure", "stratégie", "méthode" sont parfois employés comme synonymes, parfois employés avec des acceptions différentes. Au cours de ce travail, c'est de "stratégie" qu'il sera essentiellement question. "Stratégie" sera utilisé au sens où l'entendent Kail & Bisanz (1982) qui relèvent deux points communs aux différentes acceptions de ce terme: 1/ une stratégie est constituée par une séquence d'activités 2/ les stratégies sont modifiables et flexibles. J'emploierai quelquefois, à la place de "stratégie", le terme "procédure", comme le font d'ailleurs Kail & Bisanz, essentiellement pour éviter des répétitions; je parlerai aussi parfois de "méthode", mais ce sera, en général, dans des cas particuliers. 2 Ces trois approches ne recouvrent pas les trois interprétations évoquées précédemment pour la relation entre temps de traitement des deux types de phrases négatives: la première interprétation relève bien de la première approche mais les deux autres relèvent de la troisième.

Il

de la variance. Chaque moyenne correspond à une des modalités, ou combinaison de modalités, des facteurs qui varient systématiquement dans l'expérience. Les lois générales s'appuient sur les régularités observées dans les relations entre moyennes, donc sur certaines des caractéristiques qualitatives et quantitatives de la dispersion de ces moyennes autour de la moyenne générale. Ces relations entre moyennes sont censées refléter le comportement commun à tous les sujets. Le constat de régularités dans les relations entre les moyennes, lorsque l'on considère les résultats d'un ensemble d'expériences recourant au même paradigme, est fréquemment à l'origine de modèles moyens "à voie causale unique" (Reuchlin, 1978) qui rendent compte de ce comportement commun. Ainsi, Carpenter & Just (1975) partent du constat que, dans les études expérimentales utilisant le paradigme de vérification de phrases de Clark & Chase (1972), le temps de traitement moyen de la négation est soit le double, soit le quadruple du temps moyen nécessaire pour traiter une non-concordance entre un élément de la phrase et un élément du dessin ("temps de falsification", cf. supra). Ils en déduisent que ces deux temps de traitement moyens
-

temps de "négation" et temps de "falsification" - sont

déterminés par une seule et même opération mentale répétée un nombre de fois plus ou moins grand, selon la complexité du couple phrase-dessin. Ce principe est la clé de voûte de leur modèle de vérification, qui est censé rendre compte d'un comportement "universel" : pour comparer deux informations présentées sous des formats différents, les sujets les coderaient d'abord sous forme de propositions et utiliseraient ensuite une procédure sérielle et itérative de comparaison consistant à répéter, autant de fois que nécessaire, une même opération mentale de comparaison entre élément du codage de la phrase et élément correspondant du codage du dessin (cf. chapitre II). Souvent, les relations entre les moyennes observées servent également de test pour l'adéquation du modèle moyen dans une curieuse démarche circulaire qui conduit naturellement à une concordance quasi-parfaite entre résultats prédits par le modèle et résultats observés. Avec ce procédé, Carpenter & Just (1975) trouvent que leur modèle de vérification rend compte,

12

selon les recherches, de 95,5 à 99,8

%

de la variance des

moyennes observées; Clark & Chase (1972), pour leur part, avaient trouvé que leur modèle rendait compte de 97,4 à 99,8 0/0 de cette variance.

La variabilité interindividuelle

des mesures

La variabilité des mesures ~a dispersion des mesures individuelles autour des moyennes de chaque modalité ou combinaison de modalités des facteurs) reflète la plus ou moins grande efficacité avec laquelle des sujets différents adoptent le comportement commun. Les différences individuelles n'apparaissent alors que dans la variabilité de certains paramètres des lois générales ou des modèles moyens. Pour reprendre l'exemple du modèle de vérification de Carpenter & Just (1975), tous les sujets ne vont pas aussi vite pour effectuer les opérations de comparaison élémentaire lors de la comparaison phrase-dessin. Cette différence d'efficacité apparaît dans la dispersion des valeurs individuelles que peuvent prendre les deux paramètres du modèle: la durée moyenne d'une opération élémentaire (paramètre "a") et la durée moyenne de traitement du couple phrase-dessin le plus simple - une phrase aff1t111ativeet un dessin "vrai" par rapport à la phrase (paramètre "k") - qui sert de référence pour la durée de traitement des couples phrase-dessin plus complexes. Ces différences interindividuelles d'efficacité sont considérées comme aléatoires. Cela signifie, bien entendu, que les valeurs individuelles des mesures peuvent être considérées comme tirées au hasard parce que les sujets eux-mêmes sont censés avoir été tirés au hasard dans leur population. La variabilité interindividuelle n'est cependant pas considérée uniquement comme du "bruit" : elle est indispensable pour quantifier les variations aléatoires figurant au dénominateur de certaines statistiques de test! En effet, c'est souvent le seul moyen dont on dispose pour estimer, moyennant certaines pondérations, la variabilité, résultant du hasard, des moyennes observées autour de leur moyenne parente (erreur-type).

13

La variabilité intra-individuelle n'est, elle, quasiment jamais prise en compte puisque la variable dépendante est en fait constituée, la plupart du temps, des moyennes - voire des médianes - individuelles. On peut dire que le souci principal de ce premier type d'approche, caractéristique de la psychologie générale traditionnelle, réside sans doute dans le choix, entre modèles moyens concurrents, de celui qui rend le mieux compte des relations stables entre moyennes de mesures. Quant aux différences individuelles, elles sont essentiellement considérées d'un point de vue quantitatif. Le fait que, dans une même situation, certains sujets puissent adopter une autre stratégie que celle qui est compatible avec le modèle moyen retenu n'est en général même pas évoqué et si, par exemple, les entretiens postexpérimentaux révèlent que de nombreux sujets semblent avoir mis en œuvre une stratégie différente de la stratégie attendue, c'est la validité des verbalisations qui est le plus souvent remise en cause et non le bien-fondé du modèle.

DEUXIEME APPROCHE: CELLE DE LA PSYCHOLOGIE DIFFERENTIELLE CORRELA TIONNELLE TRADITIONNELLE
On postule, souvent de manière plus implicite qu'avec la première approche, que, pour exécuter une tâche expérimentale donnée, tous les sujets - ou la quasi-totalité - adoptent la même stratégie, mais on s'intéresse essentiellement à la variabilité des mesures autour des indices de tendance centrale. On propose de rendre compte d'une partie de la variabilité de certains paramètres des lois ou des modèles généraux par la variabilité concomitante de certaines caractéristiques des sujets. La variabilité interindividuelle des mesures est donc considérée comme en partie systéma tique et en partie aléatoire.

14

De la "psychologie individuelle" à la recherche des "corrélats cognitifs des aptitudes"
Cette deuxième approche, caractéristique de nombreux travaux de psychologie différentielle que l'on peut qualifier de "corrélationnels", n'est guère différente de celle de la "psychologie individuelle" définie par Binet & Henri (1895), dans un texte que l'on peut sans doute considérer comme la première étude consacrée entièrement à la définition de ce qui deviendra plus tard la psychologie différentielle. D'après ces auteurs, la frontière entre psychologie générale et psychologie individuelle semble parfaitement définie: "La psychologie générale étudie les propriétés générales des processus psychiques3, qui sont par conséquent communes à tous les individus; la psychologie individuelle, au contraire, étudie celles des propriétés des processus psychiques qui varient d'un individu à l'autre, elle doit déterminer ces propriétés variables et puis étudier jusqu'à quel point et comment elles varient suivant les individus" (Binet & Henri, 1895, p. 411). Ainsi, précisent ces auteurs, dans l'étude de la mémoire, la psychologie générale va s'intéresser au fait - vrai, quel que soit le sujet - que le temps d'acquisition d'une liste d'items est d'abord proportionnel au nombre de stimuli, avant de croître beaucoup plus vite. La psychologie individuelle, elle, va étudier si cette rupture de rythme se produit au même moment chez tous les individus; elle va étudier aussi l'ampleur de la variation de ce "seuil" et les conditions dans lesquelles cette ampleur peut, elle aussi, varier; elle pourra également se demander si la variabilité de ce phénomène a quelque chose en commun avec celle d'autres phénomènes. C'est toujours cette approche qui est prédominante dans la plupart des travaux actuels sur les différences individuelles dans le fonctionnement de la mémoire de travail (de Ribaupierre, 1995). C'est également cette approche que l'on retrouve dans certaines des études qui ont tenté de mettre en relation la psychologie générale de l'apprentissage et la psychologie
3 L'expression "processus psychique" doit être entendue dans un sens bien plus large que l'acception actuelle de "processus" dans le cadre du traitement de l'information: Binet et Henri citent, comme exemple de "processus psychique", la mémoire.

15

différentielle (pour une revue de ces travaux, cf. Glaser, 1967, ou, plus récemment, Jonassen & Grabowski, 1993). On peut citer les travaux bien connus de Fleishman (cf. Fleishman, 1967, pour une présentation synthétique de ces travaux) sur le rôle de différentes aptitudes dans un apprentissage moteur. Par exemple, Fleishman & Rich (1963) séparent leur échantillon de sujets en "forts" ou "faibles" en aptitude spatiale, sur la base des scores obtenus (supérieurs ou inférieurs à la médiane) à un test d'orientation spatiale. En établissant la courbe moyenne d'apprentissage de chacun des deux groupes à partir de leurs performances à une tâche de coordination des deux mains, les auteurs trouvent deux courbes qui ont la même forme, celle d'une courbe logarithmique. Cependant, ces deux courbes sont nettement séparées en début d'apprentissage - les fffaibles ff en spatial sont moins performants que les "forts" - puis se rapprochent graduellement, pour se confondre sur les derniers blocs d'essais. Si l'on dichotomise le même échantillon en ff forts ff ou ff faiblesff en sensibilité kinesthésique, par rapport à la médiane des scores obtenus à une tâche classique de psychophysique, on trouve le phénomène inverse: les deux courbes moyennes d'apprentissage sont d'abord confondues puis elles se dissocient graduellement, pour finir nettement séparées, les" faibles" en sensibilité kinesthésique étant moins performants que les ff forts ff. Pour Fleishman & Rich, ces résultats montrent que les aptitudes liées à la tâche de coordination des deux mains n'interviennent pas au même moment de l'apprentissage. On peut ajouter, bien que les auteurs n'analysent pas leurs données de cette manière, que cette étude ne met pas en cause la loi générale: quelle que soit la dichotomie effectuée sur l'échantillon, on trouve toujours que le nombre de bonnes réponses croît proportionnellement au logarithme du nombre d'essais. Cependant, la variabilité des paramètres de cette loi générale est liée à celle d'autres variables: le point de départ des courbes et la vitesse d'apprentissage diffèrent selon le niveau en aptitude spatiale; la vitesse d'apprentissage et le point d'arrivée des courbes diffèrent selon le niveau en sensibilité kinesthésique. C'est cette approche que l'on retrouve aussi dans de nombreux travaux de psychologie cognitive différentielle qui peuvent se rattacher au courant que Pellegrino & Glaser (1979)

16

nomment la recherche des "corrélats cognitifs des aptitudes"4. Ce courant, dont le chef de file est Earl Hunt, s'efforce de mettre en relation la variabilité interindividuelle des scores obtenus à certains tests d'aptitudes, essentiellement verbale et spatiale, avec la variabilité des performances obtenues par les mêmes sujets grâce aux principaux paradigmes de la psychologie cognitive. Parmi ces paradigmes, on peut citer, par exemple: le paradigme d'appariement de lettres de Posner & Mitchell (1967) (Hunt, Frost & Lunneborg, 1973 ; Hunt, 1976 ; 1978 ; 1980) ; le paradigme de blocage de l'auto-répétition en mémoire à court terme de Brown (1958) et Peterson & Peterson (1959) (Hunt, Lunneborg & Lewis, 1975 ; Hunt, 1980); le paradigme de catégorisation du rappel libre de Bousfield (1953) (Hunt et al., 1973 ; Hunt, 1980) ; le paradigme de vérification de phrase de Clark & Chase (1972) (MacLeod, Hunt & Mathews, 1978 ; Mathews, Hunt & MacLeod, 1980 ; Hunt, 1980) ; le paradigme de balayage de l'information en mémoire à court terme de S. Sternberg (1967, 1969) (Hunt, 1978) ; le paradigme de levée de l'inhibition proactive de Wickens (1972) (Hunt et al., 1973 ; Hunt, 1976). Ce courant de recherche des "corrélats cognitifs des aptitudes"S ne remet pas en cause les modèles moyens élaborés pour rendre compte du traitement de l'information dans chacun de ces paradigmes; il s'intéresse, ainsi que le préconisaient Binet & Henri (1895), à la variabilité des paramètres de ces modèles et la mettent en relation avec celle d'autres variables. Cependant, ce courant semble plus centré sur la notion d'aptitude que sur les paramètres des lois générales ou des modèles moyens, en cherchant surtout à donner ce qu'on peut appeler "un contenu cognitif" à cette notion d'aptitude, ainsi qu'en témoignent les titres de certains des articles les plus connus de Hunt: What doesit mean to be high verbal?(Hunt, Lunneborg & Lewis, 1975) ; The mechanicsof verbal abiliry (Hunt, 1978) ; The fOundations of verbal (:omprehension (Hunt, 1980).
4 Ce courant de recherche a évolué, pour certains auteurs, vers une approche différente que l'on retrouve dans la troisième approche vis-à-vis de la variabilité des mesures et des modèles moyens (cf. infra). 5J'évoquerai brièvement, pp. 20-21, l'autre courant de la psychologie cognitive différentielle que Pellegrino & Glaser (1979) qualifient d"'analyse componentielle des scores d'aptitudes", en justifiant pourquoi je ne lui accorde pas plus de place dans cette analyse.

17

Etude de la variabilité interindividuelle indices de tendance centrale

autour des

Ainsi, pour ceux qui adoptent cette deuxième approche, le caractère "universel" du comportement adopté pour exécuter la tâche expérimentale n'est pas remis en cause alors que l'est le caractère purement aléatoire de la variabilité interindividuelle. En d'autres termes, bien que, souvent, cela ne soit pas dit explicitement, le recours à un modèle moyen "à voie causale unique" n'est pas contesté, mais une part de la variabilité des paramètres de ce modèle est prise en compte par une ou des variables caractérisant les sujets. Ces variables sont, fréquemment, le niveau en certaines aptitudes mais elles peuvent être également l'âge, le style cognitif, certains traits de personnalité ou encore le niveau initial de connaissances, etc.. Par rapport à la première approche, caractéristique de la psychologie générale traditionnelle, le centre d'intérêt se déplace donc de la variabilité des mesures moyennes issues de la tâche expérimentale, autour de leur moyenne générale, à la variabilité des mesures individuelles autour de ces mesures moyennes. La part systématique des variations interindividuelles peut être mesurée au moyen de différentes techniques. Je présenterai les plus fréquemment utilisées, en soulignant la manière dont chacune permet - ou devrait permettre - de lier les différences individuelles aux lois générales ou aux modèles moyens, sans refaire la comparaison habituelle des avantages et des inconvénients de ces différentes techniques.

Etude des intercorrélations entre variables "cognitives" et variables caractérisant les sujets
Une des techniques les plus courantes consiste à calculer, sur un même échantillon, des intercorrélations entre variables issues de la tâche expérimentale et variables caractérisant les sujets. Si la ou les variables caractérisant les sujets sont constituées par les scores qu'ils obtiennent dans certains tests d'aptitudes, cette liaison est interprétée, la plupart du temps, en termes de communauté dans la nature des processus cognitifs mis

18

en œuvre dans les deux types de tâches, la tâche expérimentale et le test psychométrique6. Pour reprendre l'exemple de la vérification de phrases, on peut citer MacLeod, Hunt & Mathews (1978) qui mettent en relation les deux paramètres, "a" et "k", précédemment défris, du modèle de vérification de Carpenter & Just, ainsi que les temps de traitement des différents types de couples phrase-dessin, avec deux scores d'aptitudes composites, un score d'aptitude verbale et un d'aptitude spatiale. Ils déduisent des résultats de cette mise en relation que la tâche de vérification ne met pas seulement en œuvre des processus linguistiques mais aussi - ainsi qu'on aurait pu s'y attendre - des processus spatiaux. A partir des corrélations, on peut calculer la "part de variance commune" entre certains paramètres des lois ou des modèles généraux et certaines caractéristiques des sujets. D'un point de vue descriptif, si cette part est importante - ce qui est rarement le cas7 - on peut en conclure que la variabilité de l'efficacité avec laquelle les sujets mettent en œuvre un comportement supposé commun est fortement liée à la variabilité du niveau des sujets dans ces caractéristiques. D'un point de vue inférentiel, si la valeur du coefficient de corrélation est supérieure ou égale à celle qui résulte du hasard seul, on conclura qu'il existe, pour la population dont est issu l'échantillon de sujets, une relation linéaire8 systématique entre les deux types de variables. Quel que soit le point de vue considéré, on ne peut, bien entendu, parler de relation de causalité entre ces variables. Cependant, ainsi que je l'ai souligné précédemment, cette co-variation est en général interprétée dans un sens privilégié, en considérant essentiellement la régression des mesures" cognitives" sur les
6 Cette interprétation peut être contestée (cf. par exemple, Perruchet, 1981 ; Huteau; 1995). 7 En général, les corrélations trouvées dans les études sur la recherche des" corrélats cognitifs des aptitudes" sont faibles, de l'ordre de .30, soit moins de 10% de variance commune. De plus, dans la plupart de ces études, c'est le caractère significatif ou non des corrélations qui est pris en compte alors que ce devrait plutôt être la part de variance commune aux deux types de variables: il paraît plus intéressant de connaître la "part de variance" interindividuelle partagée par les deux variables que de savoir si une corrélation existe ou non entre ces deux variables, au niveau parent. 8 La plupart du temps, on ne s'intéresse qu'à la relation linéaire qui peut exister entre les variables expérimentales et les variables caractérisant les sujets, alors que d'autres formes de régression sont possibles. Par exemple, une régression quadratique peut se produire lorsque les variables caractérisant les sujets sont constituées par des mesures de motivation ou d'anxiété.

19

scores d'aptitude:

on trouve plutôt des conclusions du type plus les

st!jets sont forts en verbal etplus ils accèdent vite à tel tYPede codage que des conclusions du type plus les sUJ"etsont rapides pour accéder à tel rype de s codage et plus ils sont forts en verba~ ou, encore, ce qui serait plus exact, il existe une co-variation des scores d'aptitude verbale et des vitesses individuelles d'accès à tel rype de codage, co-variation qui suit une règle linéaire.

Prolongements

du calcul des intercorrélations

Le calcul de telles intercorrélations peut se prolonger par une analyse de régression multiple qui pourrait permettre de chiffrer, par exemple, la contribution de différentes caractéristiques des sujets à la variabilité de certains paramètres des lois ou des modèles généraux ou à celle de mesures de performances plus globales, comme le temps moyen d'un essai. Ainsi, Egan & Gomez (1985) analysent la variabilité de différents indices mesurant le niveau de maîtrise d'une tâche complexe (apprendre à utiliser un logiciel de traitement de texte) en entrant ces variables dépendantes comme critères dans des équations de régression multiple dans lesquelles les prédicteurs sont l'âge, le score en mémoire spatiale et le score en lecture. Cependant, cette méthode semble peu utilisée, même en prenant les scores d'aptitude comme critère, dans le cadre de la recherche des "corrélats cognitifs des aptitudes", peut-être en raison de la faiblesse des corrélations ainsi que du caractère relativement restreint des échantillons de sujets sur lesquels sont réalisées les études de ce courant. Au contraire, l'analyse de régression multiple est centrale dans les études relevant de l'autre courant de psychologie cognitive différentielle, celui que Pellegrino & Glaser (1979) qualifient d'''analyse componentielle" des scores d'aptitudes. Au départ, avant d'évoluer, comme le courant qui s'intéresse aux "corrélats cognitifs des aptitudes", vers une étude des différentes stratégies, ces recherches supposent, en général, que tous les sujets procèdent de la même manière pour exécuter les items de certains tests psychométriques. Cette procédure commune est modélisée sous la forme d'une séquence d'étapes de traitement de

20