Analyse de dépendance, régression et corrélation - article ; n°3 ; vol.10, pg 318-332
17 pages
Français

Découvre YouScribe en t'inscrivant gratuitement

Je m'inscris

Analyse de dépendance, régression et corrélation - article ; n°3 ; vol.10, pg 318-332

Découvre YouScribe en t'inscrivant gratuitement

Je m'inscris
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus
17 pages
Français
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

Revue française de sociologie - Année 1969 - Volume 10 - Numéro 3 - Pages 318-332
Jacqueline Feldmann-Högaasen : Dependence analysis : regression and correlation.
This article presents the dependence analysis, and different formulas relating dependence, regression and correlation coefficients. It gives a brief discussion of the cases where structural zeros or cycles are present. This type of analysis supposes the (causal) ordering of the variables given. Conversely, it is possible, starting with the observed correlation coefficients, to deduce an order on the variables, using appropriate criteria. Two examples are given.
Жаклин Фелдман-Гогаасен. — Анализа зависимости : регрессия и корреляция.
Эта статья излагает анализ зависимости и различные формулы соединяющие коэфиценты регрессивоной и корреляционной завимости. Она вкратце обсуждает случай структуральных нолей и циклов. В этом типе анализа предполагается что дано ряд (причинный) переменных. Наоборот, можна было бы, исходя из коэфицентов эмпирической корреляции, вывести ряд переменных по соответствующим критериям. Приводится два примера.
Jacqueline Feldman-Hogaasen : Abhängigkeitsanalyse. Regression und Korrelation.
In diesem Artikel werden die Abhängigkeitsanalyse und verschiedene Formeln, welche Abhängigkeits-, Regressions- und Korrelationskoeffiziente zusammensetzen, besprochen. Der Fall der strukturellen Nullen und der Zyklen wird kurz erörtert. Diese Art Analyse setzt eine gegebene (kausale) Ordnung der Variabeln voraus. Umgekehrt konnte man, anhand geeigneter Kriterien, die Ordnung der Variabeln von den empirischen Korrelationskoeffizienten ableiten.
Jacqueline Feldmann-Hogaasen : Análisis de dependencia : regresión y correlación.
Présente ese artículo el análisis de dependencia y las diversas formulas que relacionan los coeficientes de dependencia, de regresión y de correlación. Examina brevemente el caso de los ceros estructurales y el de los ciclos. En ese tipo de análisis, se supone ya dado un orden (causal) de las variables. Inversamente desde los coeficientes empiricos de correlación se podria deducir el orden de las variables segun criterios adecuados. Se ofrecen dos ejemplos de eso.
15 pages
Source : Persée ; Ministère de la jeunesse, de l’éducation nationale et de la recherche, Direction de l’enseignement supérieur, Sous-direction des bibliothèques et de la documentation.

Sujets

Informations

Publié par
Publié le 01 janvier 1969
Nombre de lectures 13
Langue Français

Extrait

Jacqueline Feldman-Högaasen
Analyse de dépendance, régression et corrélation
In: Revue française de sociologie. 1969, 10-3. pp. 318-332.
Citer ce document / Cite this document :
Feldman-Högaasen Jacqueline. Analyse de dépendance, régression et corrélation. In: Revue française de sociologie. 1969, 10-
3. pp. 318-332.
http://www.persee.fr/web/revues/home/prescript/article/rfsoc_0035-2969_1969_num_10_3_1545Abstract
Jacqueline Feldmann-Högaasen : Dependence analysis : regression and correlation.
This article presents the dependence analysis, and different formulas relating dependence, regression
and correlation coefficients. It gives a brief discussion of the cases where structural zeros or cycles are
present. This type of analysis supposes the (causal) ordering of the variables given. Conversely, it is
possible, starting with the observed correlation coefficients, to deduce an order on the variables, using
appropriate criteria. Two examples are given.
резюме
Жаклин Фелдман-Гогаасен. — Анализа зависимости : регрессия и корреляция.
Эта статья излагает анализ зависимости и различные формулы соединяющие коэфиценты
регрессивоной и корреляционной завимости. Она вкратце обсуждает случай структуральных
нолей и циклов. В этом типе анализа предполагается что дано ряд (причинный) переменных.
Наоборот, можна было бы, исходя из коэфицентов эмпирической корреляции, вывести ряд
переменных по соответствующим критериям. Приводится два примера.
Zusammenfassung
Jacqueline Feldman-Hogaasen : Abhängigkeitsanalyse. Regression und Korrelation.
In diesem Artikel werden die Abhängigkeitsanalyse und verschiedene Formeln, welche Abhängigkeits-,
Regressions- und Korrelationskoeffiziente zusammensetzen, besprochen. Der Fall der strukturellen
Nullen und der Zyklen wird kurz erörtert. Diese Art Analyse setzt eine gegebene (kausale) Ordnung der
Variabeln voraus. Umgekehrt konnte man, anhand geeigneter Kriterien, die Ordnung der Variabeln von
den empirischen Korrelationskoeffizienten ableiten.
Resumen
Jacqueline Feldmann-Hogaasen : Análisis de dependencia : regresión y correlación.
Présente ese artículo el análisis de dependencia y las diversas formulas que relacionan los coeficientes
de dependencia, de regresión y de correlación. Examina brevemente el caso de los ceros estructurales
y el de los ciclos. En ese tipo de análisis, se supone ya dado un orden (causal) de las variables.
Inversamente desde los coeficientes empiricos de correlación se podria deducir el orden de las
variables segun criterios adecuados. Se ofrecen dos ejemplos de eso.Rev. franc. Sociol., X, 1969, 318-332
Jacqueline FELDMAN-HÔGAASEN
Analyse de dépendance,
régression et corrélation
L'analyse de dépendance, introduite par R. Boudon [1, 8, 9] (*), a suscité
beaucoup d'intérêt parmi les sociologues. Elle s'apparente aux modèles
de causalité discutés aux États-Unis par Simon et Blalock [2, 3]. Elle est
d'autre part reliée à la méthode du biométricien S. Wright introduite en
1931 et très largement utilisée encore [4, 7], ainsi qu'aux modèles récursifs
des économistes [10].
Cet article se veut une présentation élémentaire de cette méthode. Pour
cela, on a été conduit à restreindre son champ d'application, afin d'y gagner
en clarté. C'est ainsi que l'analyse sera centrée sur les modèles linéaires
(rappelons que Boudon introduit des termes non linéaires pour tenir compte
des effets d'interaction), récursifs (évitant ainsi le problème général de l'iden
tification traité de manière extensive dans la littérature économétrique [10]),
ceci dans un cadre essentiellement descriptif, c'est-à-dire ne faisant appel
à aucun modèle probabiliste.
1) Matrice des données et matrice des covariances
La matrice des données [11] offre un point de départ approprié. Soient
p le nombre d'unités d'observations et n le nombre de variables. Une
donnée Xt(j) est la valeur de la variable Xt pour l'unité d'observation j.
Unités
Variables 1 2 ... p
Fig. 1. — La matrice des données.
Le nombre total des données dont dispose le sociologue est donc : np'
(*) Les chiffres entre crochets carrés renvoient aux références bibliographiques
en fin d'article.
318 Jacqueline Feldman-Hogaasen
Pour simplifier l'exposé, nous supposerons comme il est habituel de le
faire, que les variables sont centrées à leur valeur moyenne :
= 0 i = 1, ...,n (1.1)
La matrice des covariances С(ХЪ X2, . . . , Xn) est déduite de la matrice des
données en calculant la co variance des variables deux à deux.
CytfTx, X2, ..., Xn) = N Cov ДОГ,) = ^ №Щк) (1.2)
l^/c 'P
C'est une matrice symétrique, caractérisée par ^ ~T — - éléments. Dans la
plupart des cas, le nombre d'observations p est plus grand que le nombre de
variables n.
Ainsi, Yanalyse de la matrice des covariances porte sur un nombre de
données inférieur à celui de la matrice des données, la différence étant :
P П + Í—1\ (1.3) /1 -5Л
A quoi correspond cette perte d'information? On s'en rend compte
le plus facilement en utilisant la représentation géométrique suivante :
on considère, dans l'espace euclidien à p dimensions, les n vecteurs
X1} X2, . . ., Xn, dont les composantes sont précisément les valeurs prises par
les variables pour les p unités d'observations. Voici le lexique de la corre
spondance :
Matrice des données Représentation géométrique
Variables Xh i — 1, . . . , n Vecteur Xt,i = 1, . . . , n
Unité d'observation/, y = 1, . . .,p de base y, y = 1, ...,/>
Donnée Xid) je composante du vecteur Xt
N. Cov {Xt . X:) Produit scalaire X{ о X,
N. VarC*7) Carré Xt o Xt= \Х^ de la
longueur (ou norme).
La condition (1.1) exprime que chaque vecteur est dans l'hyperplan
passant par l'origine défini par
Si les variables sont standardisées, les vecteurs correspondant sont des rayons
de la « sphère » unité. Les covariances qui sont alors égales aux corrélations
d'ordre 0, sont les cosinus des angles formés par les vecteurs.
La matrice des covariances donne les normes des vecteurs et leurs pro
duits scalaires, c'est-à-dire leurs longueurs et leurs positions les uns par
rapport aux autres. Elle ne donne pas leur position par rapport aux axes.
C'est là le sens de la réduction d'information mentionnée.
Lorsqu'on se restreint à l'analyse de la matrice des covariances, on
oublie la façon dont les variables sont reliées aux unités d'observation,
pour ne conserver que les relations entre variables.
319 Revue française de sociologie
2) Modèle causal et graphe ordonné
L'idée fondamentale qui sous-tend les modèles de causalité de Simon,
Blalock et Boudon, est de représenter les relations entre les variables sous la
forme d'un graphe value. Soit G ce graphe, dont les sommets sont les variables
Xn. Nous écrivons xRy e G si on a x ~» y dans le graphe.
La notion de causalité conduit à supposer à la relation R les propriétés
suivantes :
1 . Transitivité : par définition : xRy e G et yRz e G =>- xKz e G
en termes de flèches : x -> y et y -> z entraînent x -> z.
2. Asymétrie : par définition : xRy e G =Ф- jRx iG en terme de
flèches : x -> y exclut y — > x.
Pour plus de simplicité, nous ajouterons provisoirement la propriété
suivante :
3. Complétude : par définition V.x; et y, ou bien xRy ou bien yRx en
termes de flèches : 2 points sont toujours reliés par une flèche.
Le paragraphe 5 traitera du cas où l'on supprime cette dernière propriété
(graphe incomplet).
Tout graphe transitif, asymétrique et complet est dit totalement ordonné.
En particulier, il n'a pas de cycles.
L'absence de cycles dans un graphe découlant des propriétés d'asymétrie
et de transitivité, il faudra supprimer l'une ou l'autre de ces propriétés
pour introduire des cycles. C'est ce que nous verrons au paragraphe 6.
Nous supposons désormais que les variables xu . . . , xn sont ordonnées
suivant l'ordre naturel de leurs indices. xx est la variable de départ : c'est
la « source », ou, dans le langage sociologique, la seule variable ayant un
caractère explicatif pour toutes les autres. xn est la d'arrivée :
c'est le « puits », ou, dans le langage la seule variable à expli
quer par toutes les autres. Les variables intermédiaires ont un statut mixte:
elles sont « expliquées » par c

  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents