Notes-Cours-AD
64 pages
Catalan

Notes-Cours-AD

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
64 pages
Catalan
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

Table des matieres1 Introduction 41.1 De nitions, exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41.2 Un exemple simple mais fondamental . . . . . . . . . . . . . . . . . . . . . 51.2.1 Methode naturelle . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.2.2 Formalisation statistique . . . . . . . . . . . . . . . . . . . . . . . . 51.2.3 Methodes d’assimilation de donnees . . . . . . . . . . . . . . . . . . 61.3 Vocabulaire . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3.1 Modele et vecteurs . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3.2 Observations . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71.3.3 Statistiques d’erreurs . . . . . . . . . . . . . . . . . . . . . . . . . . 81.3.4 Fonction cout^ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81.4 Historique de l’assimilation de donnees . . . . . . . . . . . . . . . . . . . . 91.4.1 Interpolation des observations . . . . . . . . . . . . . . . . . . . . . 91.4.2 Analyse de Cressman . . . . . . . . . . . . . . . . . . . . . . . . . . 91.4.3 Nudging (ou relaxation newtonienne) . . . . . . . . . . . . . . . . . 91.4.4 Methodes variationnelles . . . . . . . . . . . . . . . . . . . . . . . . 92 Rappels d’optimisation 102.1 Introduction . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.2 De nitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112.2.1 ...

Informations

Publié par
Nombre de lectures 72
Langue Catalan

Extrait

Tabledesmati`eres
1 Introduction 1.1D´enitions,exemples. . . . . . . . . . . . . .. . . . . . . . . . . . . . . . 1.2 Un exemple simple mais fondamental. . . . . . . . . . . . . . . . . . . . . 1.2.1M´ethodenaturelle. . . . . . . . . . . .. . . . . . . . . . . . . . . 1.2.2 Formalisation statistique. . . . . . . . . . .. . . . . . . . . . . . . 1.2.3Me´thodesdassimilationdedonn´ees. . . . . . . .. . . . . . . . . . 1.3 Vocabulaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1Mod`eleetvecteurs. . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.2 Observations. . . . . . . . . . . . . .. . . . . . . . . . . . . . . . 1.3.3 Statistiques d’erreurs. . . . . . . . . . . .. . . . . . . . . . . . . . 1.3.4Fonctioncoˆut. . . . . . . . . . . . . .. . . . . . . . . . . . . . . . 1.4Historiquedelassimilationdedonn´ees. . . . . . . . .. . . . . . . . . . . 1.4.1 Interpolation des observations. . . . . . . . . . . . . . . . . . . . . 1.4.2 Analyse de Cressman. . . . . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Nudging (ou relaxation newtonienne). . . . . . . . . . . . . . . . . 1.4.4Me´thodesvariationnelles. . . . . . . . . . . . . . . . . . . . . . . . 2 Rappels d’optimisation 2.1 Introduction. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . 2.2De´nitions. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . 2.2.1 Produit scalaire, norme, espace de Hilbert. . . . . . . . . . . . . . 2.2.2D´enitionsutilesenoptimisation. . . . . . . . . . . . . . . . . . . 2.2.3De´rive´edirectionnelle. . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.4D´ei´eeausensdeFre´chet. . . . . . . . . .. . . . . . . . . . . . . r v 2.3Minimisationsanscontrainte:r´esultatth´iques. . . . . . . . . . . . . . eor 2.3.1 Existence d’un minimum (dimensions finie et infinie). . . . . . . . 2.3.2Th´eor`emedexistenceendimensionnie. . . . . . . . . . . . . . . 2.3.3 Theoreme d’existence en dimension infinie. . . . . . . . . . . . . . ´ ` 2.3.4Conditionsdoptimalit´e. . . . . . . . . . .. . . . . . . . . . . . . . 2.4 Minimisation d’une fonctionnelle quadratique en dimension finie. . . . . . 2.4.1 Inverse de Moore-Penrose. . . . . . . . . . . . . . . . . . . . . . . 2.4.2Lienaveclassimilationdedonne´esvariationnelle. . . . . . . . . . 2.4.3 Lien avec la vision statistique : BLUE. . . . . . .. . . . . . . . . 2.4.4 En pratique. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5 Optimisation sous contrainte. . . . . . . . . . . . . . . . . . . . . . . . . . 2.5.1Minimisationaveccontraintesde´galit´e. . . . . . . . . . . . . . . . 2.5.2 Exemple 1. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
EricBlayo,Ma¨elleNodet
4 4 5 5 5 6 7 7 7 8 8 9 9 9 9 9 10 11 11 11 12 13 14 14 14 15 16 16 16 16 17 19 19 19 19 20
1
Assimilationdedonn´ees20novembre2008 2.5.3 Exemple 2 20. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6Algorithmesdoptimisation:m´ethodesdedescente 22. . . . . . . . . . . . . 2.6.1Principeg´ene´ral. . . . . . . . . . . . . . . .  22. . . . . . . . . . . . . 2.6.2M´ethodes`apasoptimal,`apasconstant 22. . . . . . .. . . . . . . . . 2.6.3Me´thodesderelaxation. . . . . . . . . . . . . . . . . . . . . . . . . 23 2.6.4M´ethodesdegradient 23. . . . . . . . . . . .. . . . . . . . . . . . . . 2.6.5 Exemples 23. . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . 2.6.6Me´thodesdeNewton. . . . . . . . . . . . 25. . . . . . . . . . . . . . 3Me´thodeadjointe26 3.1 Motivation. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . .  26 3.2 Un exemple simple. . . . . . . . . . . . . . . . .  27. . . . . . . . . . . . . . 3.3Ecritureg´en´eraledanslecasducontroledelaconditioninitiale. . . . . . 28 ˆ 3.3.1De´riv´eedirectionnelledeJ. . . . . . . . . . 28. . . . . . . . . . . . . 3.3.2Mod`elelin´eairetangent 29. . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3Mod`eleadjoint 30 . . . . . . . . .. . . . . . . . . . . . . . . . . . . . 3.3.4 Calcul du gradient. . . . . . . . . . . . . . . . . . . . . . . . . . . 30 3.4Exemple:le´quationdeB¨urgers 31. . . . . . . . . . . . . . . . . . . . . . . . 4 Ecriture d’un code adjoint en pratique34 4.1 Adjoint continu et adjoint discret 34. . . . . . . . . .. . . . . . . . . . . . . 4.2 Ecriture d’un code adjoint : principes. . . . . . . . . . . . . . . . . . . . . 35 4.2.1D´erivationdunefonctioncompose´e 35. . . . . . . . . . . . . . . . . . 4.2.2 Lien avec le calcul de l’adjoint 36. . . . . . . . .. . . . . . . . . . . . 4.3 Checkpointing 37. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . 4.4R`egled´ecrituredescodesadjoints 39. . . . . . . . . . . . . . . . . . . . . . . 4.4.1 Affectation 40. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2 Expressions conditionnelles 41. . . . . . . . . .. . . . . . . . . . . . . 4.4.3 Boucles. . . . . . . . . . . . . . . . . .  41. . . . . . . . . . . . . . . 4.4.4 Blocs 42. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . 4.4.5Appel`adessubroutineseta`desfonctions. . . . . . . . . . . . . . 43 4.4.6Entre´es/sorties. . . . . . . . . . . . . . . . . . . . . . . . . . . . 46 4.5 Exercices 47. . . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . . . 5Algorithmesdassimilationdedonn´eesvariationnelle49 5.1 Introduction. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49 5.2 Le 3D-Var 50. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.2.1Fonctioncoˆutetalgorithme. . . . . . . . . . . .  50. . . . . . . . . . 5.2.2 Exemple. . . . . . . . . . . . . . . . . .  51. . . . . . . . . . . . . . . 5.3 Le 4D-Var 51. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5.3.1Fonctioncoˆutetgradient. . . . . . . . . . . 51. . . . . . . . . . . . . 5.3.2 Algorithme et remarques 52. . . . . . . . . . .. . . . . . . . . . . . . 5.4 Complements 53. . . . . . . . . . . . . . . .. . . . . . . . . . . . . . . . . . ´ 5.4.1Enpre´sencedenonline´arit´es:algorithmesincr´ementaux 53. . . . . . 5.4.2 Effet d’une seule observation. . . . . . . . . . . . . . . . . . . . . . 54 5.4.3Pr´econditionnement. . . . . . . . . . . . . . . . . . . . . . . . . . . 55 5.4.4Priseencomptedelerreurmode`le. . . . . . . .. . . . . . . . . .  56 EricBlayo,Mae¨lleNodet(Universit´edeGrenoble)2
Assimilationdedonn´ees
6
20 novembre 2008
C l´ nts omp eme 6.1 Analyse de sensibilte. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ´ 6.1.1 Assimilation de d ´ onnees. . . . . . . . . . .. . . . . . . . . . . . . 6.1.2Lienaveclanalysedesensibilite´. . . . . . . . .. . . . . . . . . . . 6.2Me´thodesr´eduites. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.1Id´ee. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.2.2Choixdelespacer´eduit. . . . . . . . . . .. . . . . . . . . . . . . 6.2.3 Exemple. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3Mod´elisationdescovariancesderreur. . . . . . . . . . . . . . . . . . . . . 6.3.1 Remarques. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.2Ope´rateurdediusion. . . . . . . . . . .. . . . . . . . . . . . . . 6.3.3EOFetbasesr´eduites. . . . . . . . . . .. . . . . . . . . . . . . . 6.3.4Me´thodesdensemble. . . . . . . . . . . . . . . . . . . . . . . . . . 6.3.5Autresme´thodes. . . . . . . . . . . . . . . . . . . . . . . . . . . .
EricBlayo,Mae¨lleNodet(Universit´edeGrenoble)
57 57 58 59 59 59 60 60 61 61 62 63 63 64
3
Chapitre 1
Introduction
Sommaire 1.1D´enitions,exemples. . . . . . .. . . . . . . . . . . . . . . . . 1.2 Un exemple simple mais fondamental. . . . . . . . . . . . . . 1.2.1Me´thodenaturelle. . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2 Formalisation statistique. . . . . . . . . . . . . . . . . . . . . . 1.2.3M´ethodesdassimilationdedonne´es. . . . . . . . . . . .. . . 1.3 Vocabulaire. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3.1 M d`le et vecteurs. . . . o e. . . . . . . . . . . . . . . .. . . . . 1.3.2 Observations. . . . . . . . . . . . . . . . . . . . .. . . . . . . 1.3.3 Statistiques d’erreurs. . . . . . . . . . . . . . . . . .. . . . . . 1.3.4Fonctioncouˆt. . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4Historiquedelassimilationdedonne´es. . . . . . . . . . . . . 1.4.1 Interpolation des observations. . . . . . . . . . . . . . .. . . . 1.4.2 Analyse de Cressman. . . . . . . . . . . . . . . . . . . . . . . 1.4.3 Nudging (ou relaxation newtonienne). . . . . . . . . . . . . . 1.4.4M´ethodesvariationnelles. . . . . . . . . . . . . . . . .. . . . .
4 5 5 5 6 7 7 7 8 8 9 9 9 9 9
1.1D´enitions,exemples Lassimilationdedonn´ees“science des compromis fructueux” : c’est l’ensembleest la desm´ethodesquipermettentdecombinerdemani`ereoptimale(dansunsensa`d´enir) lesinformationsdisponiblessurunsyst`eme: e´quationsmathe´matiques(de´crivantlemod`elephysique) observations(mesuresphysiquesdel´ealite´) a r statistiquesderreurs(erreursdobservation,dumode`le...) Cesinformationssontsouventh´et´erog`enesennature,enquantit´eetenqualit´e.
Exemples : me´teorologie ´ oce´anographie sismique,p´etrole
Eric Blayo, Maelle Nodet ¨
4
Assimilationdedonn´ees
20 novembre 2008
fusionnucle´aire(tokamak) – medecine ´ baˆtiment – glaciologie – agronomie – etc. Quelquescaract´eristiques: lessystemesconsid´eressontcomplexes; ` – les observations sont parfois indirectes, partielles (en espace et/ou en temps), en-tach´eesderreu rs ; leprobl`emeestsouventmalpos´e(parexemple:pasassezdobservationsouobser-vations contradictoires)
1.2 Un exemple simple mais fondamental On se donne deux observationsy1= 1 ety2=2duantuneqtie´xinconnue. On veut estimerx.
1.2.1M´ethodenaturelle On cherchexqui minimise (x1)2+ (x2)2, et on trouve l’estimateur ˆx= 3/2. On are´soluiciunproble`medemoindrescarr´es.
Proble`mes: Lere´sultatestsensibleauchangementdunit´e:sionsedonney1= 1 une mesure dexety2= 4 une mesure de 2xre(manimisitseno,`renemarx1)2+ (2x4)2, et on trouve cette foisxˆ = 9/5.  ?Il faut sans doute normaliser, mais comment Ler´esultatnestpassensible`alapr´ecisiondelamesure,ontrouvelemeˆmere´sultat siy1stplee´icsurpeesuqy2.
1.2.2 Formalisation statistique On noteyi=x+eipouri= 1,2. Les erreurs d’observationseios:es´eosppsunt sansbiais(=nonbiais´ees):E(ei) = 0 – de variances connues : Var(ei) =σi2 noncorr´el´:E(e1, e2) = 0 ees Onchercheuneestimationline´aire,sansbiaisetdevarianceminimum(BLUE-Best Linear Unbiased Estimator) : ˆ1+α2 x=α1y y2 Pourd´eterminerlesαid’abord que “sans biais” signifie que E(on remarque xˆx) = 0 : E(xˆ) = (α1+α2)x+α1E(e1) +α2E(e2) = (α1+α2)x
EricBlayo,Ma¨elleNodet(Universit´edeGrenoble)
5
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents