Cet ouvrage fait partie de la bibliothèque YouScribe
Obtenez un accès à la bibliothèque pour le lire en ligne
En savoir plus

Méthodes d'analyse causale - article ; n°1 ; vol.6, pg 24-43

De
23 pages
Revue française de sociologie - Année 1965 - Volume 6 - Numéro 1 - Pages 24-43
Les méthodes d'analyse causale actuellement utilisées en sociologie, comme l'analyse multivariée de Durkheim-Lazarsfeld ou l'analyse de Simon-Blalock, ne permettent de traiter que des structures causales relativement simples, comportant un faible nombre de variables et munies de certaines propriétés formelles. De toutes manières, elles ne permettent pas de définir une mesure de dépendance causale. Par ailleurs, les techniques statistiques comme l'analyse de régression ne peuvent être tenues pour des instruments d'analyse causale que si on considère des structures particulières ; elles ne permettent de définir une mesure de dépendance causale qu'à propos de ces structures. Une méthode plus puissante que les méthodes en usage peut être formulée à partir d'hypothèses naturelles. Elle est appelée ici analyse de dépendance. Elle représente une extension de l'analyse de régression. Son fondement logique ne peut être compris que si on se réfère à l'analyse de régression et aux modèles de causalité étudiés par les économistes. A partir des résultats obtenus, on peut présenter une classification causale en fonction des caractéristiques formelles des structures causales considérées, et des hypothèses qui fondent ces méthodes.
Raymond Boudon : Methoden der Kausalanalyse.
Die heute in der Soziologie angewandten Methoden der Kausalanalyse (z.B. die von Lazarsfeld oder von Simon-Blalock) konnen nur relativ einfache (mit wenigen Merkmalen versehene und uber bestimmte formelle Eigenschaften verfiigende) Kausalstrukturen behandeln und lassen keine Messung kausaler Abhängigkeit zu. Andererseits können statistische Techniken, wie die Regressionsanalyse, nur dann als kausalanalytische Instrumente betrachtet werden, wenn sie besondere Strukturen behandeln : nur bei solchen lâsst sich ein Mass der kausalen Abhängigkeit definieren. Man kann aber auf Grund naturlicher Hypothesen eine wirksamere Methode darlegen, die hier « Abhängigkeitsanalyse » genannt wird. Es handelt sich um eine Ausdehnung der Regressionsanalyse, die befähigt allgemeinere Koeffizienten zu definieren. Ihre logische Grundlage kann nur in Beziehung auf Regressionsanalyse und ökonometrische Kausalitätsmodelle begriffen werden. Erzielte Resultate erlauben, die Methoden der Kausalanalyse nach den formellen Merkmalen der betrachteten Kausalstruktur und nach den diesen Methoden zugrunde liegenden Hypothesen zu klassifizieren.
Raymond Boudon : Métodos de análisis causal.
Los métodos de análisis causal que se utilizan actualmente en sociologia, como el análisis multivariado de Lazarsfeld o el análisis de Simon-Blalock, permiten tratar sólo de las estructuras causales relativamente simples, que abarcan un numero reducido de variables, y que están provistas de ciertas propiedades formales. De todas maneras, no permiten definir una medida de dependencia causal. Por lo demás, las técnicas estadisticas tal como el análisis de regresión pueden ser consideradas como instrumentes de análisis causal sólo cuando se consideran estructuras particulares; no permiten définir una medida de dependencia causal sino cuando se trata de esas estructuras. Un método más poderoso que los métodos en práctica puede ser formulado basándose en hipótesis naturales. Aquí se la llama análisis de dependencia. Representa una extension del análisis de regresión y permite définir coeficientes más générales que esta. Su fondamiento lógico se comprende sólo cuando se refiere al análisis de regresión y a los modelos de causalidad que estudian los economistas. Con los resultados conseguidos, es posible presentar una clasificación de los métodos de análisis causal por respecte de las caracteristicas formales de las estructuras causales consideradas y de las hipótesis que originan estes métodos.
R. Boudon : Methods of causal analysis.
The methods of causal analysis actually employed in sociology such as Lazarsfeld's multivariate analysis or Simon-Blalock's analysis allow only the treatment of relatively simple causal structures, including a small number of variables and possessing certain formal characteristics. By no means do they allow to define a measure of causal dependence. Moreover, statistical techniques such as regression analysis can be considered as instruments of causal analysis only if particular structures are examined : they allow to define a measure of causal dependence only relative by to these structures. A stronger method than those in use can be formulated from natural hypotheses. It is called here : dependence analysis. It represents an extension of regression analysis and allows to define more general coefficients than those defined by the latter. Its logical basis can be understood only by reference to regression analysis and causal models studied by economists. From the results obtained a classification of the methods of causal analysis in relation to the formal characteristics of causal structures and to the hypotheses on which these methods are based can be established.
Будо Рэмо: Методы причинного анализа.
Методы причинного анализа употребляются в данный момент в социологии, как многоизменный анализ Лазарфельда и анализ Симона-Блалока, который даёт возможность практовать только довольно простые причинные структуры, заключающие в себе слабое количество переменных величин и наделёнными свойствами. Во всяком случае, они дают возможность определить меру причинной зависимости. В других случаях статистический навык, как например анализ регрессии, может считаться орудием причинного анализа только в том случае, если взять во внимание особенные структуры. Метод более эффективный, чем употребляемые методы, может истекать из естественных гипотез. Здесь он называется анализом зависимости. Этот метод воспроизводит анализ регрессии и даёт возможность определить коэфициенты более общего по- рядка, чем этот последний. Его логическое основание становится понятным только тогда, когда обращаются к анализу регрессии и к моделям причинности, изученной экономистами. Из полученных результатов можно представить классификацию методов причинного анализа в зависимости от определённых характеристик причинных структур, взятых во внимание, и от гипотез, на которых основываются эти методы.
20 pages
Source : Persée ; Ministère de la jeunesse, de l’éducation nationale et de la recherche, Direction de l’enseignement supérieur, Sous-direction des bibliothèques et de la documentation.
Voir plus Voir moins

Raymond Boudon
Méthodes d'analyse causale
In: Revue française de sociologie. 1965, 6-1. pp. 24-43.
Citer ce document / Cite this document :
Boudon Raymond. Méthodes d'analyse causale. In: Revue française de sociologie. 1965, 6-1. pp. 24-43.
http://www.persee.fr/web/revues/home/prescript/article/rfsoc_0035-2969_1965_num_6_1_1836Résumé
Les méthodes d'analyse causale actuellement utilisées en sociologie, comme l'analyse multivariée de
Durkheim-Lazarsfeld ou l'analyse de Simon-Blalock, ne permettent de traiter que des structures
causales relativement simples, comportant un faible nombre de variables et munies de certaines
propriétés formelles. De toutes manières, elles ne permettent pas de définir une mesure de
dépendance causale. Par ailleurs, les techniques statistiques comme l'analyse de régression ne
peuvent être tenues pour des instruments d'analyse causale que si on considère des structures
particulières ; elles ne permettent de définir une mesure de dépendance causale qu'à propos de ces
structures. Une méthode plus puissante que les méthodes en usage peut être formulée à partir
d'hypothèses naturelles. Elle est appelée ici analyse de dépendance. Elle représente une extension de
l'analyse de régression. Son fondement logique ne peut être compris que si on se réfère à l'analyse de
régression et aux modèles de causalité étudiés par les économistes. A partir des résultats obtenus, on
peut présenter une classification causale en fonction des caractéristiques formelles des structures
causales considérées, et des hypothèses qui fondent ces méthodes.
Zusammenfassung
Raymond Boudon : Methoden der Kausalanalyse.
Die heute in der Soziologie angewandten Methoden der Kausalanalyse (z.B. die von Lazarsfeld oder
von Simon-Blalock) konnen nur relativ einfache (mit wenigen Merkmalen versehene und uber
bestimmte formelle Eigenschaften verfiigende) Kausalstrukturen behandeln und lassen keine Messung
kausaler Abhängigkeit zu. Andererseits können statistische Techniken, wie die Regressionsanalyse, nur
dann als kausalanalytische Instrumente betrachtet werden, wenn sie besondere Strukturen behandeln :
nur bei solchen lâsst sich ein Mass der kausalen Abhängigkeit definieren. Man kann aber auf Grund
naturlicher Hypothesen eine wirksamere Methode darlegen, die hier « Abhängigkeitsanalyse » genannt
wird. Es handelt sich um eine Ausdehnung der Regressionsanalyse, die befähigt allgemeinere
Koeffizienten zu definieren. Ihre logische Grundlage kann nur in Beziehung auf Regressionsanalyse
und ökonometrische Kausalitätsmodelle begriffen werden. Erzielte Resultate erlauben, die Methoden
der Kausalanalyse nach den formellen Merkmalen der betrachteten Kausalstruktur und nach den diesen
Methoden zugrunde liegenden Hypothesen zu klassifizieren.
Resumen
Raymond Boudon : Métodos de análisis causal.
Los métodos de análisis causal que se utilizan actualmente en sociologia, como el análisis multivariado
de Lazarsfeld o el análisis de Simon-Blalock, permiten tratar sólo de las estructuras causales
relativamente simples, que abarcan un numero reducido de variables, y que están provistas de ciertas
propiedades formales. De todas maneras, no permiten definir una medida de dependencia causal. Por
lo demás, las técnicas estadisticas tal como el análisis de regresión pueden ser consideradas como
instrumentes de análisis causal sólo cuando se consideran estructuras particulares; no permiten définir
una medida de dependencia causal sino cuando se trata de esas estructuras. Un método más
poderoso que los métodos en práctica puede ser formulado basándose en hipótesis naturales. Aquí se
la llama análisis de dependencia. Representa una extension del análisis de regresión y permite définir
coeficientes más générales que esta. Su fondamiento lógico se comprende sólo cuando se refiere al
análisis de regresión y a los modelos de causalidad que estudian los economistas. Con los resultados
conseguidos, es posible presentar una clasificación de los métodos de análisis causal por respecte de
las caracteristicas formales de las estructuras causales consideradas y de las hipótesis que originan
estes métodos.
Abstract
R. Boudon : Methods of causal analysis.
The methods of causal analysis actually employed in sociology such as Lazarsfeld's multivariate
analysis or Simon-Blalock's analysis allow only the treatment of relatively simple causal structures,
including a small number of variables and possessing certain formal characteristics. By no means do
they allow to define a measure of causal dependence. Moreover, statistical techniques such as
regression analysis can be considered as instruments of causal analysis only if particular structures areexamined : they allow to define a measure of causal dependence only relative by to these structures. A
stronger method than those in use can be formulated from natural hypotheses. It is called here :
dependence analysis. It represents an extension of regression analysis and allows to define more
general coefficients than those defined by the latter. Its logical basis can be understood only by
reference to regression analysis and causal models studied by economists. From the results obtained a
classification of the methods of causal analysis in relation to the formal characteristics of causal
structures and to the hypotheses on which these methods are based can be established.
резюме
Будо Рэмо: Методы причинного анализа.
Методы причинного анализа употребляются в данный момент в социологии, как многоизменный
анализ Лазарфельда и анализ Симона-Блалока, который даёт возможность практовать только
довольно простые причинные структуры, заключающие в себе слабое количество переменных
величин и наделёнными свойствами. Во всяком случае, они дают определить меру
причинной зависимости. В других случаях статистический навык, как например анализ регрессии,
может считаться орудием причинного анализа только в том случае, если взять во внимание
особенные структуры. Метод более эффективный, чем употребляемые методы, может истекать
из естественных гипотез. Здесь он называется анализом зависимости. Этот метод воспроизводит
анализ регрессии и даёт возможность определить коэфициенты более общего по- рядка, чем
этот последний. Его логическое основание становится понятным только тогда, когда обращаются
к анализу регрессии и к моделям причинности, изученной экономистами. Из полученных
результатов можно представить классификацию методов причинного анализа в зависимости от
определённых характеристик причинных структур, взятых во внимание, и от гипотез, на которых
основываются эти методы.R. franc. Sociol., VI, 1965, 24-43
Méthodes d'analyse causale
par Raymond Boudon
« L'esprit de l'homme ne peut concevoir un effet sans
cause, de telle sorte que la vue d'un phénomène éveille tou
jours en lui une idée de causalité. Toute la connaissance
humaine se borne à remonter des effets observés à leur
cause. »
Claude Bernard, Introduction à l'étude de la médecine
expérimentale.
Résumé.
Les méthodes d'analyse causale actuellement utilisées en sociologie, comme l'ana
lyse multivariée de Durkheim-Lazarsfeld ou l'analyse de Simon-Blalock, ne permet
tent de traiter que des structures causales relativement simples, comportant un faible
nombre de variables et munies de certaines propriétés formelles. De toutes manières,
elles ne permettent pas de définir une mesure de dépendance causale. Par ailleurs,
les techniques statistiques comme l'analyse de régression ne peuvent être tenues
pour des instruments d'analyse causale que si on considère des structures parti
culières; elles ne permettent de définir une mesure de dépendance causale qu'à
propos de ces structures. Une méthode plus puissante que les méthodes en usage
peut être formulée à partir d'hypothèses naturelles. Elle est appelée ici analyse de
dépendance. Elle représente une extension de l'analyse de régression. Son fondement
logique ne peut être compris que si on se réfère à l'analyse de régression et aux
modèles de causalité étudiés par les économistes. A partir des résultats obtenus, on
peut présenter une classification causale en fonction des caractéristiques formelles
des structures causales considérées, et des hypothèses qui fondent ces méthodes.
I. — Introduction (#)
Nous traiterons ici de l'inférence causale dans l'observation instantanée,
c'est-à-dire dans cette situation particulièrement fréquente en sociologie où,
ayant observé au même moment un certain nombre de caractéristiques d'une
population, on désire, soit vérifier un schéma causal théorique à partir de
cette information, soit découvrir le implicite — le modèle
causal — permettant d'expliquer cette information (a). Concrètement,
(*) Les lettres entre parenthèses renvoient aux notes en bas de page, les chiffres
entre crochets carrés aux équations et les chiffres entre parenthèses aux références bibli
ographiques en fin d'article.
(a) En fait, la distinction entre observation instantanée et observation diachronique n'est
qu'une des distinctions possibles. Mentionnons pour mémoire, sans donner les définitions
formelles, la distinction due à Wold (25) entre systèmes récursifs et systèmes interdépen
dants. Voir aussi (18) et (26).
24 Méthodes d'analyse causale
cette situation est celle qu'on rencontre chaque fois qu'on veut expliquer
une variable dépendante à partir d'un ensemble de variables indépendantes,
que les observations proviennent de questionnaires, de données statistiques,
ou de toute autre source.
La logique de l'inférence causale a été étudiée séparément par un bon
nombre de méthodologues de disciplines diverses, tels que des économistes,
des sociologues et des biologistes. Les premiers ont surtout analysé le pro
blème de Г « identification » des structures causales linéaires, dont on verra
ci-dessous la formulation (7, 8, 10, 11, 12, 14, 25, 26); les seconds se sont
notamment préoccupés de la détermination des relations de causalité authent
iques par opposition aux relations fictives déduites des « corrélations falla
cieuses », en même temps que de l'interprétation des relations causales par
l'introduction de variables qualificatrices (1, 2, 3, 4, 6, 9, 13, 16, 17, 22) ;
les troisièmes ont présenté des méthodes permettant non seulement d'inférer
à l'absence ou à la présence de relations de causalité entre variables, mais
aussi de mesurer la dépendance causale (24, 27, 28).
Lorsqu'on étudie les travaux des méthodologues de ces diverses disci
plines, on a l'impression de se trouver devant une absence de cohérence
logique. Un signe de ce manque d'unité est la perception que ces auteurs
ont les uns des autres : évoquant les travaux de Zeisel (29), Kendall et
Lazarsfeld (9, 13) sur ces problèmes, Simon constate simplement que l'ana
lyse de confluence de Frisch (14) et la littérature économétrique sur le
problème de l'identification et les relations structurelles sont « quelque peu
différents bien que fort proches » de ces travaux. Lorsqu'il affirme ensuite
que « le pont entre le problème de l'identification et celui des corrélations
fallacieuses peut être jeté à partir d'une définition précise et opérationnelle
de la causalité », on ne voit pas que ce qu'il présente ensuite soit autre
chose qu'une juxtaposition (&). Son article « Causal ordering and identifia-
bility » (21) est un essai pour définir formellement les structures linéaires
identifiables dans le cas des modèles sans erreurs, c'est-à-dire des modèles
où toutes les sources de variation sont supposées connues; par ailleurs,
« Spurious correlation, a causal interpretation » reproduit l'analyse causale
de Durkheim-Lazarsfeld (6, 9, 13) dans le cas particulier où les relations
sont de forme linéaire (22). La lecture des deux articles de Simon n'évince
guère l'impression que les travaux des économistes et l'analyse multivariée
de reflètent seulement deux perspectives « distinctes
quoique proches ».
Quant à Blalock, dont les nombreux articles (1, 2, 3, 4) sont une explo
ration de la spécification linéaire imposée par Simon à l'analyse de Durkheim-
Lazarsfeld, il est étonnant de constater qu'il cite Wright (4), dont les tr
avaux datent du premier quart du siècle, mais ne se préoccupe pas de
déterminer le lien logique entre la méthode de Wright et celle de Simon.
Wright lui-même, lorsqu'il donne en 1954 un nouvel exposé de sa
méthode (28), semble ignorer les résultats obtenus par l'économétrie dans
la décade précédente.
Nous montrerons ci-dessous que ces « perspectives » différentes peuvent
être déduites d'un modèle général unique par l'introduction d'hypothèses
particulières. On verra notamment que, si on utilise la seule hypothèse
de linéarité, on se trouve, dans des situations formellement définissables,
devant l'impossibilité d'identifier les paramètres du modèle visant à mesurer
l'influence causale. En revanche, l'introduction d'une hypothèse naturelle
(b) Voir (22).
25 Revue française de sociologie
sur les facteurs non explicites permet d'éliminer dans tous les cas ces pro
blèmes d'identification, et de mesurer l'influence causale. Le modèle qu'on
obtient ainsi peut être considéré comme une extension de l'analyse de
régression.
Les considérations qui suivent sont de nature nécessairement abstraites :
le problème de l'inférence causale est un problème formel. Cependant, le
lecteur ne perdra pas de vue qu'elles visent essentiellement une fin pra
tique. Il s'agit, répétons-le, étant donné une information sur diverses carac
téristiques d'une population recueillie à un instant déterminé du temps, de
vérifier ou d'induire la structure causale sous-jacente. Le problème est de
grande importance en sociologie, où on voit souvent que, par facilité ou
ignorance méthodologique, une théorie est bâtie à partir de la seule consi
dération des corrélations simples entre variables prises deux à deux, quand
l'introduction de variables supplémentaires peut, comme on le sait depuis
Durkheim, modifier considérablement l'interprétation.
II. — Inference causale sans modèle
Durkheim (6, 18) et, à sa suite, Lazarsfeld (9, 13) ont contribué à résou
dre la question suivante : sachant, en vertu d'une connaissance préalable que a
est antérieur à b et ayant observé une corrélation entre a et b, quand peut-on
valablement conclure à la proposition « a cause de b » ? La réponse de
Lazarsfeld est connue et nous nous contenterons de la résumer : une corré
lation entre deux variables, supposées pour la simplicité dichotomiques,
peut s'analyser, quand on introduit une troisième variable 2, en une somme
pondérée de trois termes, dont les deux premiers sont les covariances condi
tionnelles de x et de y dans les sous-populations distinguées par z
et dont le troisième est le produit des covariances entre z et chacune des
variables primitives. On supposera x antérieur à y. Symboliquement, la
« formule d'élaboration » s'écrit :
[1] cov (xy) = cov (xy;z) ф cov (xy;zr) ф cov (xz) cov (yz).
On obtient alors quatre structures remarquables en combinant les deux
alternatives suivantes : 1. z antérieur à x ou intermédiaire entre x
et y ; 2. cov (xz) = o, les covariances conditionnelles étant non-nulles ou
cov (xz) 9^ o, les covariances conditionnelles étant nulles. On dira que x
est cause de y, si, pour tout z antérieur à x, les covariances conditionnelles
par rapport à z sont différentes de zéro. La formule ci-dessus permet ainsi
de distinguer divers schémas de causalité possibles entre trois variables.
On notera cependant qu'elle n'est pas d'un grand secours pour vérifier cer
taines structures comme : z cause de x et de y et x cause de y; en effet, elle
implique seulement dans ce cas qu'aucun des trois termes du membre de
droite n'est nul. Mais la difficulté la plus sérieuse, qui a été maintes fois
remarquée, réside dans l'extension de l'analyse à plus de trois variables : en
effet, si on introduit un nouveau facteur, soit u, chaque terme du membre
de droite s'analyse à son tour en un ensemble de trois composantes. Ainsi,
[2] cov (xy;z) = cov (xy;zu) ф cov (xy;zu') ф cov (xu;z) cov (yu;z).
Il devient alors très difficile de dégager un nombre limité de, structures
26 Méthodes d'analyse causale
causales significatives, de sorte que l'analyse multivariée, dont l'essence est
résumée dans la formule [i], peut difficilement être utilisée lorsqu'on
désire considérer une structure causale comportant plus de trois variables.
III. — Modèles de causalité linéaires
Bien que l'analyse de Durkheim-Lazarsfeld soit un instrument de recherche
fondamental, sa limitation peut être parfois gênante. Le prix de son extension
à des structures comportant plus de trois variables doit être payé par l'intr
oduction d'hypothèses supplémentaires; la plus simple de ces hypothèses
consiste à imposer aux relations une forme linéaire. Elle conduit à une
méthode moins générale que celle de Lazarsfeld, puisque cette dernière est
applicable quelle que soit la forme des relations; en revanche, elle permet de
traiter de cas plus complexes.
Supposons une structure causale comme celle de la figure ci-dessous :
Les équations correspondant à cette structure s'écrivent, dans le cas où
les relations sont linéaires
x2 =
[3] *я =
х4 = а14хг + a3ix& + eá.
Les termes de la forme et symbolisent l'action de facteurs non explicités
dans la structure causale. Ainsi, conformément à la figure ci-dessus, la pre
mière équation signifie que la variable x2 dépend de xx et de facteurs non
explicites, mais non de xs et x±. En d'autres termes, la structure présente
est traduite dans les équations de [3] par certaines restrictions a priori (c) :
ainsi, les coefficients o32 et o42, qui indiqueraient une dépendance de x2
respectivement par rapport à xz et à jr4, sont supposés nuls dans la première
équation; de même, a43 dans la deuxième équation et 024 la troisième
sont supposés nuls, car, en vertu des hypothèses, xé n'affecte pas directement
xs et x2 n'affecte pas directement лг4.
Comment un modèle de ce type peut-il être utile à l'analyse causale ? La
réponse à cette question est aisée lorsque le modèle causal se réduit à une
équation unique. Elle est, on le verra, beaucoup plus complexe dans les
autres cas.
Examinons d'abord le cas simple. Supposons qu'on considère, au lieu du
système [3] sous sa forme complète, la première équation de ce système.
Dans ce cas, on sait que le coefficient a^ est le coefficient de régression
(c) Conditions a priori signifie ici, non pas conditions indépendantes de l'expérience,
mais conditions imposées au modèle, le plus souvent en vertu de l'expérience.
27 française de sociologie Revue
de x2 par rapport à X\. Par ailleurs, la quantité ui2<Ji/<s2 n'est autre que le
coefficient de corrélation r12. Comme le carré du coefficient de corrélation
entre deux variables mesure la proportion de la variance de l'une expliquée
par l'autre, ou, plus exactement, par la régression sur l'autre, la quantité
ai2°i/<T2Peut être interprétée comme une mesure de l'influence causale d'une
des variables sur l'autre. Quant au sens de la liaison causale, il ne peut,
dans ce cas, être déterminé que par la connaissance a priori qu'on peut avoir
sur la nature des deux variables.
La même interprétation est valable dans les situations où une variable
dépend, non d'une, mais de plusieurs variables. Ainsi, si on considère isol
ément la deuxième équation du système [3], les coefficients a13 et о2з repré
sentent les coefficients de régression partiels de x3 sur x2 lorsque la valeur
de xt est fixée, et de x3 sur хъ lorsque la valeur de x2 est fixée. Comme
précédemment, les coefficients de régression d'une variable dépendante sur
une variable indépendante, lorsque les valeurs des autres variables sont
fixées, sont liés aux de corrélation par une formule faisant inter
venir les écarts-types des deux premières. La seule nouveauté est que les
coefficients de corrélation qu'on considère alors sont les coefficients de
corrélation partiels et les écarts-types, des écarts-types liés. Ainsi, l'écart-
type de x2 lié par xz dans l'équation considérée se note <т2.з et mesure
la dispersion de x2 lorsque x3 a une valeur fixée. Les coefficients de corré
lation partiels mesurent pour leur part, comme on sait, la liaison statistique
entre deux variables données, lorsque les autres ont une valeur fixée. Le
coefficient de corrélation partiel entre x± et x3 se note, dans le cas présent
r13 2- De nouveau, 7-13.2 mesure l'influence causale de x± sur .r3 obtenue
en éliminant l'effet de x2', de même, Г23.2 mesure l'influence de x2 sur л"3
lorsque la valeur de xx est fixée.
Appelons « structures causales simples » les structures auxquelles cor
respondent des modèles à équation unique. Les considérations précédentes
permettent d'énoncer la proposition : dans une structure simple, les carrés
des coefficients de corrélation sont une mesure de dépendance causale. On
notera que, de façon équivalente, on peut définir les structures simples
comme les structures où une variable est supposée dépendre d'un certain
nombre de variables qui ne dépendent pas elles-mêmes les unes des autres.
La mesure de dépendance causale est le carré du coefficient de corrélation
total de Bravais-Pearson, dans le cas où l'ensemble des variables indépen
dantes se réduit à un seul élément, et le carré des coefficients de corréla
tion partiels dans les autres cas.
Cependant, toutes les structures causales ne sont pas des structures sim
ples, comme en témoigne la structure de la figure précédente : les variables
ne peuvent être classées en indépendantes et dépendantes; ainsi, x2 est
dépendante par rapport à x± et indépendante par rapport à xs. De même,
la structure ne peut être décrite par une équation unique. La question qui
se pose alors est la suivante : peut-on étendre la logique de l'analyse de
régression, et définir une mesure de la dépendance causale dans le cas des
structures à équations multiples que, par opposition aux précédentes, nous
appellerons « structures complexes » ?
IV. — Le problème de l'identification
Considérons de nouveau le système [3], sous sa forme complète cette
fois, et réêcrivons-le de manière à ce que les membres de droite des équa-
28 Méthodes d'analyse causale
tions ne contiennent que les termes correspondant aux facteurs non expli
cites :
[4]
La première équation définit dans l'espace de coordonnées xx et x2 une
droite au voisinage de laquelle les observations empiriques doivent se situer
si b12 est bien représentatif du système étudié. De la même façon, la
seconde et la troisième équations définissent respectivement dans les espaces
de coordonnées (х1г x2, x3) et (xlt xs, лг4) des plans dans le voisinage des
quelles les observations empiriques doivent se situer.
Supposons maintenant qu'ayant observé les éléments d'une population sur
les variables xlt x2, xb, дг4, on ait pu en déduire les valeurs des coefficients
^12» ^i3> &23> &14» ^34- Comme, par hypothèse, ces satisfont les
équations de [4], on obtiendra, en sommant, par exemple, les deux premières
équations, une nouvelle équation évidemment compatible avec le système,
car on peut toujours sommer un nombre quelconque d'équations, membres
à membres.
On obtient ainsi l'équation
[5] (&12 + &i3> *\ + (&23 + О *2 + xz — е'г •
Mais cette équation définit, comme la deuxième équation de [4], un sous-
ensemble de points compatibles avec les observations dans l'espace de coor
données хъ x2, x3. Cependant, puisque b12 + b13 est évidemment différent
de bis et b23 + 1 différent de b23, le plan défini par l'équation [5] ne coïn
cide pas avec le plan défini par la seconde équation de [4]. On verrait de
même, plus généralement, que tous les couples de coefficients de forme
b12 + />12&1з et pi2 + b23, où />12 peut avoir une valeur quelconque, définis
sent des plans compatibles avec le système, au même titre que les coefficients
originaux de la seconde équation de [4]. Ceci revient à dire qu'il existe,
dans l'espace de coordonnées xx, x2, xs, un nombre infini de plans compatibles
avec la structure postulée. En conséquence, les coefficients de la deuxième
équation de [4] ne peuvent être déterminés de manière unique et sont dits
non-identifiables.
Afin de simplifier les développements ultérieurs, il est utile de traduire le
système [4] sous forme matricielle (cř). En posant
'&12 1 о
В = I bí3 &23 x = ( es
h* о Ь84 \*4
le système [4] s'écrit :
[6] Bx = e
(d) Rappelons que pour obtenir l'élément de la i-ème ligne et de la /-ème colonne du
produit de deux matrices, on multiplie chaque élément de la i-ème ligne de la première
par l'élément correspondant de la /-ème colonne de la seconde et on additionne les pro
duits ainsi obtenus. De cette définition il résulte que deux matrices ne peuvent être mult
ipliées entre elles que si la première a autant de colonnes que la seconde a de lignes.
29 française de sociologie Revue
Définissons, d'autre part, la matrice P comme ci-dessous
P=
Si В est telle que l'équation [6] soit satisfaite, étant donné un ensemble
d'observations, alors
[7] PB* = Fe = e'
sera également satisfaite, quelle que soit la matrice P, pourvu seulement
qu'elle ait un nombre convenable de lignes et de colonnes. De plus, si P
est définie comme ci-dessus, non seulement [7] sera satisfaite, mais la
matrice PB aura même structure que la matrice В : on voit, en effet, en
calculant le produit, que les cases nulles de la matrice PB se superposent
à celles de la matrice B. Ceci signifie que les coefficients de la matrice PB
sont compatibles avec la structure causale hypothétique, au même titre que
ceux de B. Nous retrouvons ainsi le résultat obtenu ci-dessus : il n'est pas
possible d'identifier tous les coefficients du système [4]. Partant, on ne peut,
sans hypothèses supplémentaires, mesurer la dépendance causale de x& par
rapport à xx et x2.
En résumé, une structure causale ne peut être complètement identi
fiable que s'il est impossible de combiner linéairement deux équations quel
conques sans contredire les hypothèses a priori sur la nullité des coeffi
cients. En d'autres termes, une structure causale est complètement identifiable
s'il n'existe pas de matrice non-diagonale P, telle que PB ait même structure
que B. Ainsi, dans l'exemple précédent, la seconde équation de [4] peut
être remplacée par une combinaison linéaire de la première et de la seconde
équation sans contradiction avec les hypothèses structurelles de cette der
nière, selon lesquelles x± ne dépend pas directement de x3, ou &43 est nul.
De même, il est possible de trouver une matrice P, telle que sa seconde
ligne ne puisse appartenir à une matrice diagonale. En revanche, on voit
que la première, ainsi que la troisième équation de [4] ne peuvent être
combinées avec aucune des deux équations restantes sans que leur structure
soit modifiée. Dans le langage matriciel, ceci signifie qu'on ne peut trouver
de matrice P, telle que PB ait même structure que В et où la première et
la troisième lignes soient « non-diagonales », c'est-à-dire ne puissent appar
tenir à une matrice diagonale. Il en résulte que les coefficients de la première
et de la troisième équation de [4] sont identifiables et peuvent être déter
minés par les méthodes habituelles de l'analyse de régression, comme la
méthode des moindres carrés.
V. — L'hypothèse de non-corrélation des facteurs implicites
La section précédente montre qu'on ne peut étendre en toute généralité
l'analyse de régression à l'ensemble des structures causales complexes. Alors
que les structures simples sont toutes identifiables, les structures complexes
peuvent être, soit identifiables, soit non-identifiables. Dans ce dernier cas, il
est impossible, sans hypothèse supplémentaire, de mesurer la dépendance
causale de certaines variables par rapport à certaines autres. Ainsi, dans
ЗО

Un pour Un
Permettre à tous d'accéder à la lecture
Pour chaque accès à la bibliothèque, YouScribe donne un accès à une personne dans le besoin