Introduction au filtrage en temps discret

Publié par

Universit´e de Rennes 1Master Recherche SISEAIntroductionau Filtrage en Temps DiscretFiltrage de Kalmanet Mod`eles de Markov Cach´esFran¸cois Le GlandINRIA Renneshttp://www.irisa.fr/aspi/legland/2010–11Table des mati`eres1 Introduction 11.1 Importance de l’information a priori . . . . . . . . . . . . . . . . . . . . . . 11.2 Prise en compte de l’information a priori . . . . . . . . . . . . . . . . . . . 62 Syst`emes lin´eaires gaussiens 153 Filtre de Kalman, et extensions 193.1 Filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193.2 Extensions au cas non–lin´eaire . . . . . . . . . . . . . . . . . . . . . . . . . 254 Syst`emes non–lin´eaires non–gaussiens, et extensions 29´4.1 Equations d’´etat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29´4.2 Equations d’´etat et d’observation . . . . . . . . . . . . . . . . . . . . . . . 315 Filtre bay´esien optimal 335.1 Repr´esentation probabiliste . . . . . . . . . . . . . . . . . . . . . . . . . . 33´5.2 Equation r´ecurrente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 355.3 Approximation particulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 376 Mod`eles de Markov cach´es 416.1 Chaˆınes de Markov a` ´etat fini . . . . . . . . . . . . . . . . . . . . . . . . . 416.2 Mod`eles de Markov cach´es . . . . . . . . . . . . . . . . . . . . . . . . . . . 427 Equations forward / backward de Baum 477.1 Equation forward . . . . . . . . ...
Publié le : samedi 24 septembre 2011
Lecture(s) : 18
Nombre de pages : 82
Voir plus Voir moins
Universit´edeRennes1 Master Recherche SISEA
Introduction au Filtrage en Temps Discret
Filtrage de Kalman etMod`elesdeMarkovCache´s
Franc¸oisLeGland INRIA Rennes http://www.irisa.fr/aspi/legland/
2010–11
Tabledesmati`eres
1 Introduction 1 1.1 Importance de l’information a priori . . . . . . . . . . . . . . . . . . . . . . 1 1.2 Prise en compte de l’information a priori . . . . . . . . . . . . . . . . . . . 6
2Syste`mesline´airesgaussiens
15
3 Filtre de Kalman, et extensions 19 3.1 Filtre de Kalman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19 3.2Extensionsaucasnonlin´eaire.........................25
4Syst`emesnonline´airesnongaussiens,etextensions29 ´ 4.1Equationsd´etat................................29 ´ 4.2Equationsde´tatetdobservation.......................31
5Filtrebaye´sienoptimal33 5.1Repre´sentationprobabiliste..........................33 ´ 5.2Equationr´ecurrente...............................35 5.3 Approximation particulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
6Mode`lesdeMarkovcache´s41 6.1ChaˆınesdeMark`e´tatni.........................41 ov a 6.2Mod`elesdeMarkovcach´es...........................42
7 Equations forward / backward de Baum 47 7.1 Equation forward . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 7.2 Equation backward . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
i
8
9
A
Algorithme de Viterbi
Formules de re–estimation
Rappels
de
probabilit´es
de
Baum–Welsh
55
61
65
Chapitre 1
Introduction
Leltrageconsiste`aestimerle´tatdunsyste`medynamique,cesta`dire´evoluantau coursdutemps,a`partirdobservationspartielles,ge´n´eralementbruite´es. Typiquement, on dispose d’une suite (Y1 Y2   Ynnoitbo,sunetpaseesr`)dobserva traitementpr´ealabledusignalbrutrecueilliauniveaudescapteurs.Chaqueobservation Ynnocnune´litati´el`aeetresXnpar une relation probabiliste du type P[Yndy|Xn=x] =gn(x y)dy  par exemple Yn=h(Xn) +Vnavec unbruitadditifVnnipe´dadneedtnXntion.Pourerruedrosbreav,qmouield´elis allerplusloin,ilestn´ecessairedede´nirpluspr´ecis´ementlanotiondebruit. On trouvera a`lAnnexeAlesrappelsdeprobabilit´esdontonaurabesoindanscecours.
1.1 Importance de l’information a priori
Telquilestformul´e,leprobl`emedelestimationdel´etatinconnuXnpa`esrdtiar observations (Y1 Y2   Ynse)gnet´ne´laremalpos´e.Poursneocvniacnerc,noonerd´sis lecastre`ssimpleou`ilnyapasdedynamiquedansle´volutiondele´tatdusyst`eme, c’est–a–dire queXnx, pour toutn, etxRm.unnocnierte`marneigesd´Onestunpa ` parx0equseisnocssupuopo,snerenpliladicoreludapelrueiavvaarrsim.Pouetreram` les observationsd–dimensionnelles (Y1 Y2   Ynte`m.erai´emereduntrapad)e´epdnneltni On a donc Yn=H x+Vnou`Hest une matriced×m.
1
2
Master Recherche SISEA 10/11
Sim=dee´rracceriatamilts,eHtconsid´ererlesislb,elaroospnuerevnitseamitruet suivant xbn=H1(1nXnYk) =H1(H x0+n1XnVk) =x0+H11(nnXVk)k=1k=1k=1 Souslhypothe`se 1nXnVk−→0(1.1) k=1 quand le nombrend’observations tend vers l’infini, on obtient la convergence de l’estimateurxbnsrevrdupaleuaievlavr.ee`rtrama Sim > dola,elsrborpme`lsteeg´en´eenlmralapsoe´m,eˆemadnslecasfavorable ou`lamatriceHlaa`tsemangradeegl´maxid.oCe´orsndieetnsenobl`elmeepr d’optimisation suivant n 2 xmRinm12X|YkH x|k=1 Lesconditionsdoptimalit´edupremierordrepourlaminimisationparrapporta ` xRmdu critere ` n n n 12X|YkH x|2=12X|Yk|2xH(XYk) +n21xHH x  k=1k=1k=1 s´ecrivent nHH x=H x=1nYkHXYk=nnX k=1k=1 compte tenu que la matriceHesuertdecslan.Dinlegpan`o,tnede´ce´rpsam=d et la matriceHest inversible, on obtient la solution unique b11(n xn=HnXYk)k=1 Danslecasconsid´ere´ici,ilyaunnombreinnidesolutions,etonpeutseulement affirmer que bxnxRm:H x1=XnYkn k=1 Onv´erieque 1n HbnxXYk=H x01+nnXVkn= k=1k=1 et`alalimitequandlenombrend’observations tend vers l’infini, on obtient sous lhypoth`ese(1.1) Hbxn−→H x0
FiltragedeKalmanetMode`lesdeMarkovCach´es
3
cesta`direquasymptotiquement,lorsquelebruitdobservationae´te´e´limin´epar moyennisation,onsaitseulementqueleparame`treinconnuxappartient au sous– espace affineI(x0) de dimension (mdpanir)´de I(x0) =xRm:H x=H x0Lexistencedunnombreinnidesolutionspossiblesnestdoncpaslie´ea`lapre´sence dubruitdobservation.Elleexistemˆemeenabsencedebruitdobservation,cesta`diremeˆmesiVn0, pour toutn= 12 . lineverourlPetd´miertinaonxI(x0amitnosspulpe´-utiliserdesinforno,)assedey mentairessurleparame`treinconnux, par exemple :xestprochedeetsr`c,aeid qu’on introduit une informationa priori peut formaliser la prise en compte de. On cetteinformationsupple´mentaireenconsid´erantleprobl`emedoptimisationsuivant n xmRinm12X|YkH x|2+21(x)Σ1(x)k=1 o`uΣestunematricesyme´triqued´eniepositive,dedimensionm conditions. Les doptimalite´dupremierordrepourlaminimisationparrapporta`xRm`tirerecud n 21X|YkH x|2+12(x)Σ1(x) k=1 n n =12X|Yk|2xH(XYk) +n12xHH x k=1k=1 +21Σ1xΣ1+12xΣ1x 
se´crivent
n H(XYk) + Σ1= (n HH+ Σ1)x k=1 =(HH+nΣ11)x=H(1nnXYk) +n1Σ1  k=1 Enutilisantler´esultatduLemme1.1cidessous,aveclechoixR=IetQ=nΣ, on obtient (HH1+nΣ1)1=nΣnΣH(HΣH+1nI)1HΣOnende´duitque (HH+nΣ11)1H= ΣH(HΣH+1nI)1
Soyez le premier à déposer un commentaire !

17/1000 caractères maximum.