Universite Pierre et Marie Curie Paris

-

Documents
100 pages
Obtenez un accès à la bibliothèque pour le consulter en ligne
En savoir plus

Description

Niveau: Supérieur, Master, Bac+5
Universite Pierre et Marie Curie, Paris 6 Master de Mathematiques 2011-2012 M2–Probabilites et Finance Calcul Stochastique Philippe Bougerol Dec 2011 1

  • simulation du mouvement brownien

  • temps discret

  • integrale d'ito

  • martingale

  • brownien multidimensionnel

  • crochet

  • temps continu

  • introduction au calcul stochastique


Sujets

Informations

Publié par
Nombre de visites sur la page 84
Signaler un problème

Universite Pierre et Marie Curie, Paris 6
Master de Mathematiques 2011-2012
M2{Probabilites et Finance
Calcul Stochastique
Philippe Bougerol
Dec 2011
1TABLE DES MATIERES
1. Introduction au calcul stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1. Modelisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. Bruit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.3. Un "primer" sur l’integrale d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.4. Biliographie pour tout le cours. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2. Integration de Lebesgue. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.1. Mesures. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
2.2. Integration. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1 1 2 22.3. EspacesL ;L ;L ;L :. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.4. Uniforme integrabilite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.5. Divers. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.6. Tribu engendree. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.7. Lois. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.8. Mesure produit. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.9. Processus. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.10. Independance. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
3. Mouvement Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.1. Loi gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
3.2. Vecteur gaussien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
3.3. Famille gaussienne. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.4. De nition du mouvement brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
3.5. Filtrations et Brownien. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
3.6. Propriete de Markov forte du mouvement brownien. . . . . . . . . . . . . . . 32
3.7. Existence et Simulation du Mouvement brownien. . . . . . . . . . . . . . . . . 36
3.8. Appendice 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
3.9. Appendice 2 : Construction de P. Levy du mouvement brownien. . 374 TABLE DES MATIERES
4. Martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.1. Martingales, de nition. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
4.2. Martingales a temps discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
4.3. Martingale continue a droite. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
4.4. Formulaire sur l’esperance conditionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . 45
5. Crochet de martingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.1. Cas discret. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
5.2. Premiers pas, a temps continu. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
5.3. Crochet comme variation quadratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
5.4. Martingale locale. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
5.5. Processus a variation nie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
5.6. Crochet de deux martingales locales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
5.7. Appendice : Changement de temps. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
6. Integrale stochastique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.1. Cas d’une martingale de carre integrable. . . . . . . . . . . . . . . . . . . . . . . . . . 63
6.2. Cas locale.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
6.3. Semimartingales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
6.4. Formule d’It^ o. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
7. Applications de la formule d’Ito. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.1. Sur le Brownien multidimensionnel. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75
7.2. Martingales exponentielles. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
7.3. Theoreme de representation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
7.4. Girsanov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
7.5. Cameron-Martin. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
8. Equations di erentielles stochastiques . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.1. Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
8.2. Solutions fortes d’E.D.S.. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88
8.3. Localisation. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
8.4. Propriete de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
8.5. Processus de Markov. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
8.6. EDS et EDP. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94CHAPITRE 1
INTRODUCTION AU CALCUL
STOCHASTIQUE
Introduction tres tres sommaire et volontairement caricaturale, sans toutes
les justi cations mathematiques, pour l’instant.
1.1. Modelisation
On cherche a modeliser (construire des modeles) et faire des calculs sur des
phenomenes evoluant dans le temps qui dependent du hasard.
La valeur X du phenomene a l’instant t, peut ^etre observee a cet instant,t
mais pas predite avant. Entre les instantst ett+h une part de hasard s’ajoute.
On s’interesse au cas le plus frequent ou la fonctiont7!X est continue. Pourt
faire simple supposons queX est a valeurs dansR. On va avoir, pourt;h 0,t
hX =X + t+h t t
hou est aleatoire. L’idee fondamentale est qu’au moins dans un premiert
htemps, pour h tres tres (in nitesimalement...) petit, peut s’ecriret
h h =H "tt t
hou " est une variable aleatoire independante de tout ce qui precede et de loit
ne dependant que de h (et donc pas de t) et ou H est une fonction continuet
de t, "observable a l’instant t", par exemple une fonction de X . On va voirt
que c’est tres operationel.
C’est assez naturel. Dans le cas deterministe (c’est a dire sans hasard), et
si X est derivable, on a bien ce type de modelisation en prenant pour H lat t
hderivee a l’instant t et en prenant " =h.t2 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
1.2. Bruit
Le fait d’avoir prish 0 (in nitesimalement) petit entra^ ne des contraintes.
Si on remplace h par h =h +h , avec h ;h 0, on a1 2 1 2
hX = X +H "t+h t t t
h2= X =X +H "t+h +h t+h t+h1 2 1 1 t+h1
h h1 2= X +H " +H " :t t t+ht 1 t+h1
Pour h tres petit on a par continuite H H . On arrive donc a1 t+h t1
h hh 1 2" " +" :t t t+h1
De proche en proche, pour h tres petit,
h=n h=n h=n h=nh" " +" +" + +" :t t t+h=n t+2h=n t+(n 1)h=n
hNous avons suppose que" est une variable aleatoire independante de tout cet
qui precede et de loi ne dependant pas det. On voit donc que necessairement,
h" est la somme de n variables aleatoires independantes et de m^eme loi. Unet
hvariante du theoreme de la limite centrale (qui utilise que les" sont petits ...)t
hnous conduit a dire qu’alors " a une loi gaussienne. Notons m sa moyenneht
2et sa variance. La relationh
h hh 1 2" =" +"t t t+h1
nous amene a (et l’on va voir que c’est vraiment ca la propriete clef, plus
encore que d’^etre gaussien)
2 2 2m =m +m ; = +h +h h h h +h h h1 2 1 2 1 2 1 2
donc (par exemple si ces coe cients sont continus), il existe a2 R et 0
2 2tels que m =ah et = h:h h
On voit donc que l’on peut ecrire
h" =ah +(B B )t+h tt
ou B est un mouvement brownien sur un espace de probabilite ( ;A;P),t
c’est a dire un processus (=famille de variables aleatoires) continu forme de
v.a. gaussiennes telles que B N(0;t) et B B est independant det t+h t
B ; 0rt.r
On etait parti de
hX =X +H "t+h t t t
donc on a, au moins in nitesimalement,
X =X +H (ah +(B B )):t+h t t t+h t1.3. UN "PRIMER" SUR L’INTEGRALE D’ITO 3
Si = 0 cela s’interprete par l’equation di erentielle
dXt =aHt
dt
ce qui s’ecrit aussi sous forme integrale
Z t
X X = aH ds:t 0 s
0
On va voir par contre que si > 0 alors X ne peut pas ^etre derivable. Ont
va donc plutot garder la forme integrale en ecrivant que
Z Zt t
X X = aH ds + H dBt 0 s s s
0 0
Rt
ou il faut donner un sens a l’integrale dite stochastique H dB : On verras s0
qu’il est aussi utile de generaliser en ne prenant pas le m^eme facteur H danss
les deux termes, ce qui s’interpr^ete en distinguant bien la partie aleatoire de
la partie deterministe de l’accroissement.
1.3. Un "primer" sur l’integrale d’Ito
Le mot est anglais et signi e "premiere couche" en metallurgie.
Pour un processus continu par morceaux H on veut donner un sens at
Z t
H dB :s s
0
On va voir que c’est possible et naturel sous l’hypothese que l’on a deja
evoquee, que H est observable a l’instant t. Il faudra donner un sens a ca (ett
on dira adapte), mais disons que la propriete essentielle dont on va se servir
ici est que l’accroissement B B ;h 0 est independant de H ;st.t+h t s
La de nition simple "naturelle" ressemble a l’integrale de Riemann : si
nX
H = H 1 (t)t t [t ;t [i i i+1
i=1
par analogie avec la formule qui se veri e facilement
Z nt X
H ds = H (t ^t t ^t)s t i+1 ii
0 i=1
(ou s^t = min(s;t)), on pose
Z nt X
H dB = H (B B ):s s t t ^t t^ti i+1 i
0 i=14 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
2Lemme 1.3.1. | Si H 2L pour tout s> 0, alors pour t> 0,s
Z t
E( H dB ) = 0;s s
0
Z Zt t
2 2E(( H dB ) ) =E( H ds):s s s
0 0
Preuve: Montrons la seconde egalite :
nXRt 2 2E(( H dB ) ) =E(( H (B B )) )s s t t ^t t^ti i+1 i0
i=1
nX
= E(H H (B B )(B B ))t t t ^t t^t t ^t t^ti j i+1 i j+1 j
i;j=1
nX
2 2= E(H (B B ) ) +t t ^t t^ti i+1 i
i=1
X
+2 E(H H (B B )(B B ))t t t ^t t^t t ^t t^ti j i+1 i j+1 j
i<j
nX
2 2= E(H )E((B B ) ) +t t ^t t^ti i+1 i
i=1
X
+2 E(H H (B B ))E(B B )t t t ^t t^t t ^t t^ti j i+1 i j+1 j
i<j
2en utilisant l’independance. Puisque E((B B ) ) = t t ett ^t t^t i+1 ii+1 i
E((B B )) = 0 on obtient quet ^t t^tj+1 j
Z Znt tX
2 2 2E(( H dB ) ) = E(H )(t ^t t ^t) = E(H ) ds: s s t i+1 i si
0 0
i=1
On veut prolonger cette construction a d’autres processus H. On le fait de
(n)la fa con suivante : si H ;t 0; est une suite de processus du type precedentt
(n)pour laquelle il y a un processus H tel que H ! H au sens ou pour tout
t 0,
Z t
(n) 2E(H H ) ds! 0ss
0
Rt (n) 2alors, la suite H dB est une suite de Cauchy dans l’espace L ( ;F;P)s s0
puisque Z Zt t
(n) (m) 2E([ H dB H dB ] )s ss s
0 01.3. UN "PRIMER" SUR L’INTEGRALE D’ITO 5
Z t
(n) (m) 2=E([ (H H )dB ] )ss s
0Z
t
(n) (m) 2=E( (H H ) ds)s s
0
Z t
(n) (m) 2= E((H H ) )dss s
0
2par le lemme. L’espace L ( ;F;P) etant complet (Hilbert), cette suite
Rt (n)
H dB converge. On appelles s0
Z t
H dBs s
0
sa limite. Elle veri e, par passage a la limite, comme au dessus
Proposition 1.3.2. |
Z t
E( H dB ) = 0;s s
0
Z Zt t
2 2E(( H dB ) ) =E( H ds):s s s
0 0
Si H ;t 0; est un processus continu borne tel que H est (B ; 0st)t t s
mesurable. Alors la suite de processus
n 1X
(n)
H = HkT 1 (t)kT (k+1)Tt [ ; [n n n
k=0
approxime bienH au sens precedent sur l’intervalle [0;T ] (utiliser le theoreme
de convergence dominee). En fait on verra qu’au lieu d’^etre borne, il su t que
Z T
2E( H ds)<1:s
0
1.3.1. Une formule d’Ito. | Commen cons par un resultat fondamental,
qui est tout a fait particulier au mouvement brownien.
n nTheoreme 1.3.3. | Si B est un mouvement brownien si t = 0 < t <0 1
n n < t < t = t est une suite de subdivisions de [0;t] dont le pasnn 1
n n 2sup jt t j tend vers 0, alors, dans L ,0kn 1 k+1 k
n 1X
2
n nlim (B B ) =t:t tk+1 kn!1
k=0
En fait montrons le resultat plus general suivant :6 CHAPITRE 1. INTRODUCTION AU CALCUL STOCHASTIQUE
Proposition 1.3.4. | Sous les memes hypotheses, si f est une fonction
2mesurable bornee, alors dans L ,
n 1X
2 n n
n n nlim f(B )[(B B ) (t t )] = 0:t t t k+1 kk k+1 kn!1
k=0
Preuve:
!2n 1X
2 n n
n n nE( f(B )[(B B ) (t t )] )t t t k+1 kk k+1 k
k=0
n 1n 1XX
2 n n 2 n n
n n n n n n=E( f(B )f(B )[(B B ) (t t )][(B B ) (t t )])t t t t t tr k+1 k r r+1 rk k+1 k r+1
k=0r=0
n 1X
2 2 n n 2
n n n= E(f(B ) [(B B ) (t t )] )+t t t k+1 kk k+1 k
k=0
X
2 n n 2 n n
n n n n+2 Ef(B )f(B n)[(B B ) (t t )][(B B n) (t t )])t t t t t tk+1 k r+1 rr rk k+1 k r+1
0k<r<n
On utilise l’independance des accroissements (esperance du produit est egal
au produit des esperances) :
n 1X
2 2 n n 2
n n n= E(f(B ) )E[((B B ) (t t )) )+t t t k+1 kk k+1 k
k=0
X
2 n n 2 n n
n n n n+2 E[f(B )f(B n)((B B ) (t t ))]E[(B B n) (t t )]t t t t t tk+1 k r+1 rr rk k+1 k r+1
0k<r<n
p
Or, puisque B B a la m^eme loi que hB ,t+h t 1
2 n n
nE[(B B n) (t t )] = 0t t r+1 rrr+1
q
2 n n 2 2 n n 2n nn nE[((B B ) (t t )) ) =E[(( t t )B ) (t t )) )t t 1k+1 k k+1 kk+1 kk+1 k
n n 2 2 2= (t t ) E[(B 1) ]1k+1 k
Donc
!2n 1X
2 n n
n n nE( f(B )[(B B ) (t t )] )t t t k+1 kk k+1 k
k=0
n 1X
n n 2 2 2 2
n= (t t ) E(f(B ) )E[(B 1) ]:tk+1 k 1k
k=0