Analyse statistique MATH 2440
125 pages
Français

Analyse statistique MATH 2440

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
125 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

Analyse statistique
MATH 2440
I. Gijbels et R. von Sachs
3e Edition, Août 2005 Table des matières
1 Introduction 1
1.1 Le rôle de la statistique mathématique . . . . . . . . . . . . . . . . . . . . 1
1.2 Modélisation- estimationdes quantitéscaractéristiques dumodèle 2
1.3 Problèmes statistiques courants . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Les grandes optiques statistiques . . . . . . . . . . . . . . . . . . . . . . . 7
1.5 Statistique - estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.6 Autres modèles importants . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2 Principes d’estimation (ponctuelle) dans des modèles paramétriques 12
2.1 Méthodes pour la comparaison d’estimateurs; propriétés d’estimateurs . . 12
2.1.1 Choix d’une règle de décision . . . . . . . . . . . . . . . . . . . . . 15
2.1.2 Le risque de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
2.1.3 Le quadratique moyen . . . . . . . . . . . . . . . . . . . . . 17
2.2 Estimateurs sans biais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2.3 Principes asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.4 Les familles exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.5 Les réductions admissibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.6 Estimation sans biais; estimateur avec variance minimale . . . . . . . . . . 33
2.7 Les familles exponentielles et les réductions ...

Sujets

Informations

Publié par
Nombre de lectures 167
Langue Français
Poids de l'ouvrage 2 Mo

Exrait

Analyse statistique MATH 2440 I. Gijbels et R. von Sachs 3e Edition, Août 2005 Table des matières 1 Introduction 1 1.1 Le rôle de la statistique mathématique . . . . . . . . . . . . . . . . . . . . 1 1.2 Modélisation- estimationdes quantitéscaractéristiques dumodèle 2 1.3 Problèmes statistiques courants . . . . . . . . . . . . . . . . . . . . . . . . 6 1.4 Les grandes optiques statistiques . . . . . . . . . . . . . . . . . . . . . . . 7 1.5 Statistique - estimateur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 1.6 Autres modèles importants . . . . . . . . . . . . . . . . . . . . . . . . . . . 9 2 Principes d’estimation (ponctuelle) dans des modèles paramétriques 12 2.1 Méthodes pour la comparaison d’estimateurs; propriétés d’estimateurs . . 12 2.1.1 Choix d’une règle de décision . . . . . . . . . . . . . . . . . . . . . 15 2.1.2 Le risque de Bayes . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 2.1.3 Le quadratique moyen . . . . . . . . . . . . . . . . . . . . . 17 2.2 Estimateurs sans biais . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.3 Principes asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20 2.4 Les familles exponentielles . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.5 Les réductions admissibles . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 2.6 Estimation sans biais; estimateur avec variance minimale . . . . . . . . . . 33 2.7 Les familles exponentielles et les réductions admissibles . . . . . . . . . . . 37 3 Méthode du maximum de vraisemblance 41 3.1 Principe, fonction de vraisemblance, estimateur du maximum de vraisem- blance . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41 3.2 Autres exemples d’EMV : Estimation des paramètres de localisation et d’échelle. . . . . . . . . . . . . 44 3.3 Quelques propriétés théoriques de l’EMV . . . . . . . . . . . . . . . . . . . 46 3.3.1 Rapport avec les modèles exponentiels . . . . . . . . . . . . . . . . 47 3.4 Information de Fisher; Borne de Rao-Cramer . . . . . . . . . . . . . . . . 50 3.5 Propriétés asymptotiques de l’estimateur du maximum de vraisemblance . 60 3.6 Estimateurs asymptotiquement équivalents . . . . . . . . . . . . . . . . . . 65 4 Régions de confiance 69 4.1 Régions exactes, fonctions pivotales . . . . . . . . . . . . . . . . . . . . . . 69 4.2 Exemples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 4.2.1 Intervalle de confiance pour la moyenne d’une variable aléatoire de loi normale avec variance connue . . . . . . . . . . . . . . . . . . . 71 4.2.2 Propriétés fondamentales des populations normales . . . . . . . . . 72 i 4.2.3 Intervalle de confiance pour la moyenne d’une variable aléatoire de loi normale avec variance inconnue . . . . . . . . . . . . . . . . . . 74 4.2.4 Intervalle de confiance pour la variance d’une variable aléatoire de loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 24.2.5 Région de confiance pour le paramètre („; ) d’une variable aléa- toire de loi normale . . . . . . . . . . . . . . . . . . . . . . . . . . . 75 4.3 Optimalité des régions de confiance . . . . . . . . . . . . . . . . . . . . . . 77 4.4 Régions de confiance asymptotiques . . . . . . . . . . . . . . . . . . . . . . 78 4.4.1 Exemples et application . . . . . . . . . . . . . . . . . . . . . . . . 80 5 Théorie des tests 83 5.1 Généralités et test d’une hypothèse simple . . . . . . . . . . . . . . . . . . 83 5.1.1 Définitions . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83 5.1.2 Un premier exemple . . . . . . . . . . . . . . . . . . . . . . . . . . 87 5.1.3 Test d’une hypothèse simple contre une alternative simple . . . . . 87 5.2 Tests UPP et UPPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 5.2.1 Familles à rapport de densités monotone . . . . . . . . . . . . . . . 92 5.2.2 Tests UPP . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93 5.2.3 Tests UPP bilatéraux et point de la situation pour les tests UPP . . 95 5.2.4 Tests UPPS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97 5.2.5 Tests dans un modèle exponentiel . . . . . . . . . . . . . . . 98 5.2.6 Plusieurs exemples pour des tests UPPS . . . . . . . . . . . . . . . 100 5.2.7 Quelques aspects de la théorie des tests avec paramètres nuisibles . 101 5.3 Relation entre tests et régions de confiance . . . . . . . . . . . . . . . . . . 103 5.4 Tests du rapport de vraisemblance . . . . . . . . . . . . . . . . . . . . . . 106 25.5 Tests du ´ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107 5.5.1 Tests d’adéquation à une loi donnée . . . . . . . . . . . . . . . . . . 107 5.5.2 Problème à une famille de lois . . . . . . . . . . . . . 110 25.5.3 Exemple pour un test d’adéquation du ´ . . . . . . . . . . . . . . 111 25.5.4 Tests d’indépendance du ´ . . . . . . . . . . . . . . . . . . . . . . 111 5.6 Test de Wald et du rapport de vraisemblance . . . . . . . . . . . . . . . . . 113 Références 115 Exercices 116 E.1 Exercices sur le Chapitre 1 . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 E.1.1 Modèle statistique, estimateur . . . . . . . . . . . . . . . . . . . . . 116 E.2 Exercices sur le Chapitre 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . 116 E.2.1 Risque, perte, décision . . . . . . . . . . . . . . . . . . . . . . . . . 116 E.2.2 Statistique suffiante, complète, minimale, ESVM . . . . . . . . . . . 117 E.2.3 Propriétés asymptotiques . . . . . . . . . . . . . . . . . . . . . . . . 118 E.3 Exercices sur le Chapitre 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . 119 E.4 sur le 4 . . . . . . . . . . . . . . . . . . . . . . . . . . . 120 E.5 Exercices sur le Chapitre 5 . . . . . . . . . . . . . . . . . . . . . . . . . . . 121 Chapitre 1 Introduction 1.1 Le rôle de la statistique mathématique Un des points de vue communs entre la théorie de la probabilité et la théorie de la statistique est le fait que ces deux théories sont utiles lorsqu’on étudie des phénomènes aléatoires ou des phénomènes trop complexes pour utiliser une description déterministe. Elles utilisent toutes les deux des éléments mathématiques comme les espaces mesu- rables (›;A) et, plus particulièrement, les espaces probabilisés (›;A;P), où A dénote une tribu (ou une sigma algèbre) et P est une loi de probabilité donnée. Les phéno- mènes sont décrits à l’aide de variables aléatoires (v.a.) ou de vecteurs aléatoires (ve. a.) X = (X ;:::;X ). La loi de probabilité d’une v.a. X est donnée par P = L(X)1 k X» (L pour “loi”). Rappelons que la loi de probabilité d’une v.a X est complètement dé- notterminée via sa fonction de répartition (F (x) = P [X • x] = P[X • x]), ou via saX X 0densité de probabilité (si elle existe, avec f = F , dans le cas d’une v.a. continue),X X itXou encore via sa fonction caractéristique (’ (t) = E(e )). De la même façon la loiX de probabilité d’un vecteur aléatoire peut être spécifiée via sa fonction de répartition (F (x ;:::;x ) = P[X • x ;X • x ;:::;X • x ]), sa densité de probabilité ou saX 1 k 1 1 2 2 k k » i(t X +¢¢¢+t X1 1 k kfonction caractéristique (’ (t ;:::;t )=E(e )). Remarquons que dans le casX 1 k » d’un vecteur aléatoire toutes ces fonctions sont des fonctions de k variables. Dans la suite nous parlerons souvent uniquement de la variable aléatoire X, mais tout reste valable pour des vecteurs aléatoires. Voir [1]–[5] pour les points de la théorie de probabilité à connaître pour ce cours. Un moyen de distinguer probabilité et statistique est de remarquer que, en général, dans la théorie de probabilité la loiL(X) est donnée a priori, alors, que, dans l’analyse statistique, onveutladécouvrir–enobservanteteninterprétantlesdonnéesqu’onaobservéescomme réalisations des v. a. dans ce modèle probabiliste. Dans ce cours nous nous intéresserons à l’analyse statistique. Le but de cette analyse est de trouver (par exemple par les théories d’inférence inductives) soit la loi L(X) de X, soit seulement quelques quantités qui caractérisent cette loi (puisque, souvent, il est trop difficile de trouver toute la loi de X). Des exemples de quantités caractéristiques sont : la moyenne, la variance, la médiane, etc. De plus, on aimerait pouvoir donner des réponses à des questions pratiques posées. 1 MATH 2440 2005-2006 Chapitre 1. Introduction 2 Exemples : (1). Sondage d’opinion : population Echantillon p est un pourcentage inconnu, pbest un ptage observé. Question qui se pose : peut-on apprendre quelque chose sur p en utilisant pb? (2). Nombre de pannes par jour sur un réseau d’ordinateurs. „ = nombre moyen des pannes par jour (inconnu) On prend un échantillon de 10 jours et on arrive à un estimateur x (moyenne observée). Peut-on faire de l’inférence sur „ à l’aide de x? 1.2 Modélisation statistique - estimation des quantités caractéristiques du modèle Rappelons qu’une variable aléatoire est une fonction mesurable X : (›;F;P) ¡! (X;A;P )X ! 7¡! X(!); 8 ›= l’ensemble des résultats possibles d’une expérience aléatoire>< F = une tribu associée à › où P = une probabilité sur (›;F),>: 8 X= l’ensemble des résultats possibles de X< et A= une tribu associée à X : P = la mesure image de P par X:X Rappelons aussi la définition de “X est une application mesurable” : ¡18A2A: X (A)=f! :X(!)2Ag2F: MATH 2440 2005-2006 Chapitre 1. Introduction 3 Exemple : variable aléatoire réelle univariée et multivariée (1). Cas d’une variable aléatoire réelle univariée (c’est-à dire, à valeurs dans IR) sur (›;F;P). Dans ce cas, l’ensemble total est X = IR et la tribu est donnée par A =B =la tribuIR des boréliens dans IR. k(2). Cas d’une variable aléatoire réelle k-variée (c’est-à dire, à valeurs dans IR ) sur (›;F;P). kDans ce cas, l’ensemble total estX=IR et la tribu est donnée parA=B k =la tribuIR kdes boréliens dans IR . Dans la suite, on s’intéressera uniquement à l’espace (X;A;P ), et de plus, on ne suppo-X serapasqueP est(complètement)connue.Aucontraire,onsupposeraqueP appartientX X a une famille de probabilités que l’on notera P. De plus, on appellera X l’espace des ré- sultats, et on laissera tomber l’indice X de P .X La définition suivante d’un “modèle statistique” nous servira. Définition 1.1 (“modèle statistique”) On appelle “modèle statistique” le triplet (X;A;P) où X est un ensemble appelé espace des résultats A est une tribu de parties de X P est une famille de probabilités sur l’espace mesurable (X;A). Parmi les modèles statistiques, on distingue les modèles paramétriques des modèles non paramétriques. Dans l’approche paramétrique, la forme de la famille P est spécifiée à l’avance, et elle est paramétrisée par une quantité de dimension finie qui est la seule quan- tité inconnue. Dans l’approche non on ne connait pas la forme de la famille P à l’avance. Il existe aussi des modèles semi paramétriques, où on a une connaisance, mais très limitée, sur la familleP. Par exemple, on sait qu’il s’agit des lois de probabilités qui sont caractérisées par une densité de probabilité unimodale et symétrique. Définition 1.2 On appelle “modèle (statistique) paramétrique” un modèle (statistique) (X;A;P), c’est-à-dire un espace probabilisé, tel qu’il existe d2IN tel que dP=fP : 2£‰IR g: £ est appelé “espace des paramètres”. MATH 2440 2005-2006 Chapitre 1. Introduction 4 Très souvent, la situation se présente comme suit. On dispose den observationsx ;:::;x ,1 n qui représentent n réalisations sur une variable d’intérêt X. Cesations ne sont rien d’autre que les résultats obtenus après n répétitions d’une expérience aléatoire, où chaque répétition de l’expérience a été faite sous les mêmes conditions, et de façon indépendante. Plus concrètement, on dispose de n observations x ;:::;x , modélisés comme réalisations1 n denv.a.,X ;:::;X indépendantes,régiesparlemêmemodèlealéatoire(X;A;P : 2£).1 n Toutes les variables aléatoires X ;:::;X ont alors la même loi de probabilitéL(X)=P1 n où dénote la “vraie” valeur (souvent inconnue) du paramètre. Les observations (x ;:::;x ) sont considérées comme étant un vecteur x =(x ;:::;x )21 n 1 n» nX . Dans le cas d’une variable aléatoire réelle univariée, on a que X = IR et donc x 2 » n nX = IR . Dans le cas d’un vecteur aléatoire réel de dimension k X = (X ;:::;X ), onk 1 k» ka que X = IR et donc x sera un vecteur de dimension n dont chaque composante est » n knelle-même un vecteur de dimension k. Dans ce dernier cas x2X =IR . » Finalement, pour faire le point sur des expériences aléatoires qui s’écrivent comme une répétition des n expériencesX identiques et de façon indépendante, la définition suivante sera utile. Définition 1.3 On appelle “modèle d’échantillonnage” un modèle du type suivant : notn ›n ›n ›n(X ;A ;P : 2£) = (X;A;P : 2£) avec nN N ›nA = A ; A =A, ( : produit des sigma algèbres)i i i=1 nN›n ›n n ›nP = P ;P =P (P = probabilité conjointe sur l’espace (X ;A )).i i i=1 Cette dernière définition nous servira, par exemple, plus tard lorsqu’on introduira un principe asymptotique (où on laisse n tendre vers l’infini). Remarque : La notion de “vraie” valeur de £ vient du fait que, la plupart du temps, la valeur correspondant à la loi P des X est inconnue, et qu’il faut l’estimer pari certaines méthodes. Bien évidemment, toutes les quantités qui se déduisent d’une loi de probabilitéP , comme l’espérance mathématique (la moyenne), la variance, ..., dépendent implicitement de la valeur prise par le paramètre . Souvent, on dénote le paramètre par et sa vraie valeur par . Cependant, la notation est fréquemment adoptée aussi bien0 pour le paramètre que pour sa vraie valeur . On note alors par exemple la moyenne,0 la variance et la probabilité que X 2A comme E (X), Var (X) et P (X 2A). L’exemple suivant illustre les différentes notions vues plus haut, et montre déjà qu’on a parfois la possibilité d’estimer le paramètre inconnu (ou des quantités qui lui sont liées) de plusieurs façons différentes. Exemple 1.1 Modèle exponentiel MATH 2440 2005-2006 Chapitre 1. Introduction 5 Considérons la variable d’intérêt X, où X suit une loi exponentielle de paramètre ‚ inconnu (X » Expo(‚)). (Une autre façon de l’écrire est : L(X)= Expo(‚).) Cette loi est complètement déterminée par sa densité de probabilité ‰ ¡‚t‚e sit>0 f (t)=‚ 0 sinon; ou par sa fonction de répartition t ‰Z 0 sit< 0 F (t)=P[X •t]= f (x) dx=‚ ‚ ¡‚t1¡e sit‚0; ¡1 ou encore par sa fonction caractéristique £ ⁄ ‚itX’ (t)=E e = :‚ ‚ ‚¡it La loi de probabilité est aussi complètement déterminée par la fonction de survie définie comme suit ‰ 1 sit< 0 S (t)=1¡F (t)=1¡P[X •t]=P[X >t]=‚ ‚ ¡‚te sit‚0: Ce modèle est fortement utilisé pour décrire des durées de vie (par exemple, la durée de vie des transistors électroniques). Dans cet exemple le “modèle statistique paramétrique” est donc (IR ;B ;P), oùB+ IR IR+ + est la tribu des Boréliens dans IR , la droite réelle positive, et P est la famille de pro-+ babilités qui consiste en toutes les lois de probabilité exponentielles (où ‚2IR ).+ Soitx =(x ;:::;x )uneréalisationdeX=(X ;:::;X );oùpour1•i•n; X i.i.d.»1 n 1 n i» » Expo(‚) . La loi de probabilité de la variable d’intérêt X dépend du paramètre inconnu ‚. Il faut estimer ce paramètre, à partir des observations x = (x ;:::;x ). Pour cela, il y a1 n» plusieurs possibilités : Z 1 1¡‚t(1). X » Expo(‚)=)E (X)= t‚ e dt=‚ ‚0 X ;:::;X est un échantillon i.i.d., et en appliquant la loi faible des grands nombres,1 n nous avons que nX1 1P X = X ¡!E(X)= si n!1 ;n in ‚ i=1 ainsi que la convergence presque sûre (en utilisant la loi forte des grands nombres). Ce résultat suggère d’estimer le paramètre ‚ par l’inverse de la moyenne empirique X :n 1b‚= : Xn MATH 2440 2005-2006 Chapitre 1. Introduction 6 bNotons ce premier estimateur par ‚ .1 (2). On peut calculer la probabilité P d’un événement de sorte que cette probabilité‚ 1 soit égale à . Cela nous mène à la “demi-vie” : quelle est la durée de vie d’une 2 substance radioactive? Autrement dit, il faut trouver la médiane de la v.a. X. For- mellement ceci revient à 1 ln(2) =P (X •¿ ) =) ¿ = :‚ k 1=2 1=22 ‚ Un estimateur pour ‚ qui se base sur cette approche sera la médiane empirique : ( X si n=2k+1 (n est impair)(k) _X := 1n (X +X ) si n=2k (n est pair)(k) (k+1)2 La médiane empirique est la valeur qui se trouve “au milieu” du ve.a. ordonné : on a rangé les observations(X ;:::;X ) dans l’ordre croissant de grandeur, et on a obtenu1 n X •:::•X , où X dénote la valeur la plus petite et où X dénote la valeur(1) (n) (1) (n) la plus grande. On peut montrer que ln(2)P_X ¡!¿ = si n!1:n 1=2 ‚ On a également la convergence presque sûre. Par conséquent un autre estimateur de ‚ est ln(2)b‚ = :2 _Xn Il existe d’autres estimateurs. La question se pose donc de comparer des estimateurs (par rapport à leurs propriétés). Nous discuterons de ce problème au chapitre 2. 1.3 Problèmes statistiques courants Typiquement, on rencontre le plus fréquemment trois types de problèmes statistiques : (i). Tests d’hypothèse : on a deux éventualités dont seulement une est vraie. A ces deux éventualités correspondent deux sous-familles, P etP , de P, telles que0 1 P=fP ;P g; P =PnP :0 1 1 0 Un test est alors une règle qui décrit comment choisir une des deux éventualités. Dans un modèle paramétrique, les éventualités sont représentées par le paramètre ou par une fonction g de (dans le cas où il est plus simple d’estimer g( ) au lieu de ). 6 6 6 6 MATH 2440 2005-2006 Chapitre 1. Introduction 7 (ii). Estimation ponctuelle : Il s’agit de choisir une valeur (“un point” de l’espace des paramètres) de (ou deg( )). Si = 6) P =P , alors le résultat de l’expérience1 2 1 2 ne nous permettra pas de distinguer et . Pour éviter tout problème, nous suppo-1 2 serons toujours que le modèle est identifiable, c’est-à-dire que l’application ! P est injective (c’est-à-dire, = ) P = P ). Ceci signifie qu’il n’y a qu’une seule1 2 1 2 éventualité vraie, c’est-à-dire une seule valeur correcte pour . (iii). Régions de confiance : Au lieu d’estimer un point, on cherche un ensemble des éventualités qui soit un sous-ensemble de parties de £ (l’espace des paramètres). Ce problème est aussi appelé “estimation ensembliste”. En d’autres mots, il s’agit du problème du choix d’une partie de l’espace £ ou (g(£)= fg( ): 2£g) qui contient la vraie valeur de (ou g( )) avec une certaine probabilité. On appelle cette partie “régions de confiance”. 1.4 Les grandes optiques statistiques Il existe (au moins) deux critères par lesquels on pourrait classifier les problèmes statis- tiques : – l’optique classique, qui est à l’opposé de l’optique bayésienne; – asymptotique, à l’opposé de “à distance finie”. Dans l’optique bayésienne, on suppose que, en plus du modèle paramétrique (X;A;P ; 2 £),ondisposed’uneloideprobabilité“apriori” surl’espace£desparamètresreprésentant les informations préalables à l’expérience dont on dispose. Dans l’optique asymptotique, on suppose que l’on dispose d’une suite d’expériences (iden- tiques et indépendantes) - d’un modèle d’échantillonnage (cfr. Définition 1.3), où on laisse n tendreversl’infini. L’intérêtest de juger et comparer la qualité des différentesméthodes. quand n!1. Au contraire, on parle du “modèle fixe” si n est fini. 1.5 Statistique - estimateur Soit X une variable aléatoire à valeurs dans (X;A), et soit (Y;C) un espace mesurable quelconque. Une première définition très importante dans l’inférence statistique (l’estimation ponc- tuelle, ensembliste, ou tests d’hypothèses) est celle de la notion de “statistique”. n ›nDéfinition 1.4 On appelle “statistique” toute application mesurable, de (X ;A ), dans (Y;C), n ›nT : (X ;A )¡!(Y;C): En particulier, si l’on veut estimer g( ), on peut prendre (Y;C)=(g(£);T), où T est une tribu de parties de g(£). Alors, un “estimateur” T de g( ) est une statistique T telle que n ›nT : (X ;A )¡!(g(£);T);
  • Accueil Accueil
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • BD BD
  • Documents Documents