Club d échanges sur le transport de marchandises. : 2
76 pages
Français

Découvre YouScribe en t'inscrivant gratuitement

Je m'inscris

Club d'échanges sur le transport de marchandises. : 2

-

Découvre YouScribe en t'inscrivant gratuitement

Je m'inscris
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus
76 pages
Français
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

Calzada (C), Grasland (C). Paris. http://temis.documentation.developpement-durable.gouv.fr/document.xsp?id=Temis-0029747

Informations

Publié par
Publié le 01 janvier 1998
Nombre de lectures 3
Licence : En savoir +
Paternité, pas d'utilisation commerciale, partage des conditions initiales à l'identique
Langue Français
Poids de l'ouvrage 3 Mo

Extrait

LES MODELES
D'INTERACTION SPATIALE
PARTI E
Christian CALZADA
DAEI / SES / DEE
Club d'Echanges
sur le transport de marchandises
Séance du 11 décembre 1998LES MODELES D'INTERACTION SPATIALE
Ces vingt dernières années un certain nombre d'analogies ont été démontré entre les spécifications
générales des modèles gravitaires et d'autres techniques : maximisation de l'entropie, programmation
mathématique, problèmes de transport (approche combinée), modèles de choix discrets, théorie du
chaos, etc..
L'objet de cette partie a trait à des compléments techniques sur les différents types de modèles
d'interaction spatiale. Ceci sous la forme de fiches documentées sur chacun des thèmes suivants :
MIS et calibrages
MIS, statistique, occasions intervenantes et groupées
MIS et formulation poissonnienne
Une approche combinée distribution-affectation
MIS et entropie
MIS dynamiques
MIS et recherche de partitionnement optimale
MIS, réseaux de neurones et intelligence artificielle
BibliographieFICHE N°l
CALIBRAGES
Introduction
Les procédures de calibrage d'un modèle remplissent traditionnellement deux grands objectifs :
1. estimer le degré d'adhésion due conceptuel à la réalité (estimation),
2.r les paramètres du modèle de telle façon que les valeurs trouvées donnent la meilleure
estimation (calibrage proprement dit).
Deux grands types de calibrage existent :
• la méthode du minimum quadratique : dans le cadre d'un processus itératif, le but est de réduire le
carré de l'écart entre les flux observés et estimés,
• ceux basés sur la méthode du maximum de vraisemblance (EMV) : l'objectif vise à la recherche
des valeurs des paramètres qui maximisent la probabilité d'une distribution réelle des données de
flux.
Méthodes dites du minimum quadratique
•_ La méthode de linéarisation classique
cas d'un MIS sans contrainte :
Si l'on reprend les notations générales d'un MIS sans contrainte :
N,=kJL*A*c?
pour passer à une forme linéaire, il suffit dès lors de passer aux logarithmes :
lnN =\nk + \i* E, +a *Aj-$ \ncv u
dans le cadre d'un modèle sans contrainte paretien, de la même manière on obtiendra :
lnN =lnk + \i* E, +a * A - §cIJ } i}
Si les hypothèses des Moindres Carrés Ordinaires (MCO) sont réunies, JI', a' , P', sont des
estimateurs sans biais et robustes de yi , a , et P . Par contre exp(ln k)' est un estimateur biaisé de k.
k sera toujours sous-estimé en MCO, cette sous-estimation résulte de la relation :
' j i j
D'autre part des problèmes d'hétéroscédasticité peuvent subvenir suite à la transformation
logarithmique, qui peuvent être contournés en recourant aux spécifications de type Moindres Carrés
Pondérés ou Généralisés, avec un poids égal à (In M )
cas d'un MIS à doubles contraintes :
La formulation générale (doubles contraintes) est la suivante :
N =k.E H,A G F{c )ij i j j ij
1. cas du modèle avec contrainte sur les origines :
on aura : P + P, = In //,. + In£,o2. cas du modèle avec contrainte sur les destinations :
on aura : P + P^ = \nGj + In Ajo
3. cas du modèle avec doubles contraintes :
l n
Po + P/ + P , = H, + In E, + \nGj + In Aj
II existe au moins deux situations dans lesquelles le critère des MCO est plus maniable que celui de
l'EMV :
• cas des MIS simples avec sans ou une seule contrainte,
• cas du modèle général de MIS sans contrainte lorsque l'estimation est menée simultanément sur
l'ensemble des 2n+l paramètres ( (£, , Aj, P ) .
Avantages de la méthode :
• avantages de la méthode déterministe (et non probabiliste comme dans le cas de l'EMV) visant à
minimiser les écarts entre matrice observée et matrice théorique. En particulier si l'on retient le
critère de minimisation de la somme des carrés des résidus on peut dire que :
• ce critère est conforme à l'esprit du Problème de Maximisation de l'Entropie (PEM) : si
l'hypothèse de normalité des résidus est respectée, alors les estimations par MCO et EMV
sont identiques, de plus l'estimation par EMV satisfait au PEM.
• ce critère satisfait l'axiome de réflexivité : ^^] (N -N) = 0<z> [N ] = [N ]y y y y
• ce critère offre des solutions analytiques simples
• cee conduit généralement à une solution unique
•_ Autre approche :
Une étude de O' Kelly, Song and Shen (1995) propose une approche alternative à la confrontation des
résultats estimés et observés. Dans le cadre d'un modèle sans contrainte et en recourant à la
programmation linéaire, une estimation de l'impédance P et des facteurs d'attraction P et Pj estt
réalisée. Il s'agit par transformation logarithmique de revenir à un système linéaire, en ajoutant un
terme d'erreur D , écart entre le système idéal et la réalité.y
p
T = kÇPjPj ) /(c//) V/ ^ j ket c sont des constantesy y
ln P. + ln Pj - p (ln c ) = In 7 - ln ky if
avec :
lnP =X \nP=X a=]nc b=\nT-lnki i j J y y y y
Pour l'estimation de X,X'. et p , deux techniques de calcul sont envisageables :t
• Minimisation du maximum de l'erreur absolue W :
MinWMinimisation de la somme des erreurs absolues
• Minimisation de la somme pondérée des erreurs absolues
' J
avec Py poids.
Méthodes dites du maximum de vraisemblance
L'approche par maximisation de lae est similaire de celle du principe de l'Entropie
Maximum. On montre à partir des travaux de A.W. Evans (1971) et F.J. Cesario (1975) que
l'estimateur P du maximum de vraisemblance du paramètre P d'un MIS sans contrainte satisfait au
principe de l'Entropie Maximum.
Rappel :
Le Principe de l'Entropie Maximum (PEM) développé par Jaynes (1957) généralise le fameux
"Principe de la Raison Suffisante" de Laplace.
Formulation :
On considère une variable aléatoire X où x, (i = 1,...«,) représente les valeurs numériques de lat
variable aléatoire X et p (/ = !,...«,) les probabilités correspondantes d'apparition des valeurs x,.n
Définition du problème :
Etablir la répartition p sans connaître les fréquences relatives /"(*/) = /;de chaque événement / ,n
en connaissant seulement quelques moments de la variable aléatoire X .
Solution : Recourir aux probabilités subjectives.
L'école des subjectivistes regarde les probabilités comme une expression de notre ignorance. La
probabilité d'un événement constitue l'expression formelle de l'espérance que l'on a vis-à-vis de
l'occurrence de cett (et non comme une propriété propre de cet événement basée sur
l'expérience). Autrement dit :
• un test objectif énoncera : 'cette distribution représente-t-elle des fluctuations observables ?'. On
recherchera alors une méthode d'échantillonnage qui évite au mieux les biais.
• un test subjectif : 'cette distribution représente-t-elle correctement l'état de notre connaissance ?'.
On recherchera alors unen de probabilité la moins biaisée possible étant donné
l'information disponible. Ce concept sert notamment quand il s'agit d'établir des fonctions de
répartition pour des événements constitutifs de phénomènes aléatoires non directement observables,
c'est le cas de la majorité des MIS.On ne calculera donc pas /?,à partir des données d'expériences mais à partir d'un principe
variationnel qui consiste à exprimer l'état de notre connaissance du phénomène en ces termes :
'Compte tenu de l'information disponible, le degré de notre incertitude est maximum'.
En utilisant le résultat de Shannon qui fait de l'entropie une mesure de l'incertitude, Jaynes formule
mathématiquement que l'entropie H(p)de la distribution /?,est maximum compte tenu dej
l'information disponible sous la forme de moments statistiques.
Dans le cas du moment de premier ordre, c'est à dire l'espérance mathématique E(X) on aura :
n
MaxH{p ) = -K^p, Logpt i
7= 1
n
ave c :>/?,= ! et
On aboutit au résultat suivant :
p=exp(-B/) où B est solution unique de : = -E(X)
<KP)
Si l'on reprend la formulation suivante simplifiée d'un MIS écrite en termes de fréquences :
N =o
n n
avec =1 ZZ^y
On dispose d'une matrice échantillon [N°j\ et l'on suppose que la fonction de probabilité jointe des
Jfréquences n° =—'— avec N° = y / N° suit une loi multinomiale.
La fonction de vraisemblance s'écrira alors sous la forme :
n ouL[N° J = KY\ Y\ ( ij ) * (2) K intervient comme

  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents