Evalutation du module "Apprentissage Statistique"
3 pages
Français

Evalutation du module "Apprentissage Statistique"

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
3 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

J.-Y. Audibert Certis–ENPC 1
Evalutation du module «Apprentissage Statistique»
La validation du module ’Apprentissage Statistique’ se fait sur la base :
– 70% examen (le 11/12/06 de 13h à 15h)
– 30% projet (rapport à rendre le 14/12/06 au plus tard; soutenance le 18/12/06)
Pour les projets, un rapport bref (quelques pages) est à rendre et la soutenance dure 45
minutes pour les monômes et deux fois plus pour les binômes. Il faut prévoir une présen-
tation durant 30-35 minutes par personne, le temps restant étant réservé aux questions.
Vous trouverez ci-dessous une liste non exhaustive de sujets pour les projets. Vous pouvez
éventuellement me soumettre des sujets hors liste.
† Pour les sujets pratiques, le rapport et la soutenance doivent comprendre la problé-
matique traitée, un schéma expliquant la structure globale de l’algorithme choisi,
une explication détaillée de l’algorithme implémenté. Par ailleurs, le code (dans
le langage de votre choix, sous environnement Windows ou Unix) et éventuelle-
ment les liens vers les bases de données utilisées doivent être envoyés à l’adresse
audibert@certis.enpc.fr avant le 14/12/06. Le code doit être, autant que pos-
sible, écrit de façon à être transportable (mettre par exemple tous les chemins en
relatif). Pour lire, sauvegarder et afficher des images en langage C/C++, la winlib
(http://cermics.enpc.fr/~keriven/winlib/) est recommandée (car simple d’em-
ploi; cf. http://cermics.enpc.fr/~keriven/winlib/WinLib.pdf).
† Pour les sujets ...

Sujets

Informations

Publié par
Nombre de lectures 53
Langue Français

Extrait

J.-Y. Audibert Certis–ENPC 1 Evalutation du module «Apprentissage Statistique» La validation du module ’Apprentissage Statistique’ se fait sur la base : – 70% examen (le 11/12/06 de 13h à 15h) – 30% projet (rapport à rendre le 14/12/06 au plus tard; soutenance le 18/12/06) Pour les projets, un rapport bref (quelques pages) est à rendre et la soutenance dure 45 minutes pour les monômes et deux fois plus pour les binômes. Il faut prévoir une présen- tation durant 30-35 minutes par personne, le temps restant étant réservé aux questions. Vous trouverez ci-dessous une liste non exhaustive de sujets pour les projets. Vous pouvez éventuellement me soumettre des sujets hors liste. † Pour les sujets pratiques, le rapport et la soutenance doivent comprendre la problé- matique traitée, un schéma expliquant la structure globale de l’algorithme choisi, une explication détaillée de l’algorithme implémenté. Par ailleurs, le code (dans le langage de votre choix, sous environnement Windows ou Unix) et éventuelle- ment les liens vers les bases de données utilisées doivent être envoyés à l’adresse audibert@certis.enpc.fr avant le 14/12/06. Le code doit être, autant que pos- sible, écrit de façon à être transportable (mettre par exemple tous les chemins en relatif). Pour lire, sauvegarder et afficher des images en langage C/C++, la winlib (http://cermics.enpc.fr/~keriven/winlib/) est recommandée (car simple d’em- ploi; cf. http://cermics.enpc.fr/~keriven/winlib/WinLib.pdf). † Pour les sujets théoriques, le rapport et la soutenance doivent fournir les résultats, leur intérêt et leur preuve détaillée. 1 Liste des sujets ’pratiques’ Projet 1 (monôme ou binôme) : [pris par Raphaël Lachieze-Rey] Détection de visages par réseaux de neurones (cf. [1]; informations complémentaires dans [2, 3]) Projet 2 (monôme ou binôme) : Détection de visages par méthodes d’aggrégation (cf. [4]). Projet 3 (monôme ou binôme) : Détection de visages par machines à vecteur support (me demander les détails). Projet 4 (monôme ou binôme) : Reconnaissance de caractères manuscrits par réseaux de neurones (cf. [5]; informations complémentaires dans [6, 2, 3]) Projet 5 (monômeoubinôme): Reconnaissancede caractèresmanuscritsparl’algorithme des k plus proches voisins (cf. [6]. Augmenter la base d’apprentissage en utilisant les dé- formations élastiques décrites dans [5]) J.-Y. Audibert Certis–ENPC 2 2 Liste des sujets ’théoriques’ Projet6 (monômeuniquement):[prisparYizaoWang]Probabilitéd’erreurasymptotique des k-plus proches voisins en classification (sections 5.4, 5.5 et 5.6 du livre [7]) Projet 7 (monôme uniquement) : [pris par Sébastien Bubeck] Algorithme par partition de l’espace des entrées : consistance et taux de convergence (sections 4.3 et 4.4 du livre [8]). Rapport écrit à faire sur une des sections, l’autre section étant présentée à l’orale. Projet 8 (monôme uniquement) : [pris par Patrick Rabbat] Algorithme à noyau : consis- tance et taux de convergence (sections 5.2 et 5.3 du livre [8]). Rapport écrit à faire sur une des sections, l’autre section étant présentée à l’orale. Projet9 (monômeuniquement):AspectscombinatoiresdelathéoriedeVapnik-Cervonenkis (sections 2.1 et 6.1 de [9]). Rapport écrit à faire sur une des sections, l’autre section étant présentée à l’orale. Projet 10 (monôme ou binôme) : [pris par Anne-Laure Jachiet] Propriété des estimateurs localement polynomiaux ([10]). Projet 11 (monôme ou binôme) : Consistance des réseaux de neurones (section 16.2 du livre [8]). Projet 12 (monôme ou binôme) : Bornes inférieures en apprentissage basées sur le lemme d’Assouad (cf. [11, Section 8]). Rapport écrit sur la borne inférieure admise en cours, soutenance orale sur les bornes inférieures en régres- sion aux moindres carrés. Projet 13 (binôme ou trinôme) : Taux de convergence des machines à vecteurs supports avec noyau gaussien sous l’hypothèse de Steinwart et Scovel (cf. [12]). Rapport écrit sur un des (sous-)résultats marquants et soutenance orale sur le reste. Projet 14 (monôme ou binôme) : Consistence d’AdaBoost (cf. [13]). Rapport écrit sur un des (sous-)résultats marquants et soutenance orale sur le reste. REMARQUE : L’amélioration des résultats fournis dans [12] et [13] peuvent faire l’objet d’un stage du master MVA (indépendamment du choix du projet). Références [1] C. Garcia and M. Delakis. Convolutional face finder : A neural architecture for fast and robust face detection. IEEE Transactions on Pattern Analysis and Machine In- J.-Y. Audibert Certis–ENPC 3 telligence, 26(11) :1408–1423, 2004. article non accessible en ligne, me le demander. [2] Y. LeCun, L. Bottou, G. Orr, and K. Muller. Efficient backprop, http://yann.lecun. com/exdb/publis/pdf/lecun-98b.pdf. In G. Orr and Muller K., editors, Neural Networks : Tricks of the trade. Springer, 1998. [3] Y. LeCun, 2005. http://www.cs.nyu.edu/~yann/2005f-G22-2565-001/diglib/ lecture09-optim.djvu, requires the djvu viewer http://djvu.org/download/. [4] P. Viola and M. Jones. Robust real-time object detection, http://research. microsoft.com/~viola/Pubs/Detect/violaJones_IJCV.pdf. International Journal of Computer Vision, 57(2) :137–154, 2004. [5] P.Y. Simard, D. Steinkraus, and J. Platt. Best practice for convolutional neural networks applied to visual document analysis, http://research.microsoft.com/ ~patrice/PDF/fugu9.pdf. International Conference on Document Analysis and Re- cogntion (ICDAR), IEEE Computer Society, pages 958–962, 2003. [6] Y. LeCun and C. Cortes. MNIST page. http://yann.lecun.com/exdb/mnist/. [7] L. Devroye, L. Györfi, and G. Lugosi. A Probabilistic Theory of Pattern Recognition. Springer-Verlag, 1996. [8] L. Györfi, M. Kohler, A. Krzyzak,_ and H. Walk. A Distribution-Free Theory of Non- parametric Regression. Springer, 2004. [9] O.Catoni. Apac-bayesianapproachtoadaptiveclassification. Preprintn.840,http:// www.proba.jussieu.fr/users/catoni/homepage/dea2005.pdf, Laboratoire de Pro- babilités et Modèles Aléatoires, Universités Paris 6 and Paris 7, 2003. [10] M. Kohler. Universal consistency of local polynomial kernel regression estimates, 2000. http://citeseer.ist.psu.edu/kohler00universal.html. [11] J.-Y. Audibert. Fast learning rates in statistical inference through aggregation. Rap- port de recherche 06-20, http://cermics.enpc.fr/~audibert/RR0620d.pdf, Certis - Ecole des Ponts, 2006. [12] I. Steinwart and C. Scovel. Fast rates for support vector machines using gaussian ker- nels, http://www.c3.lanl.gov/ml/pubs/2004_fastratesa/paper.pdf. Ann. Stat., 35(2), 2007. [13] P.L. Bartlett and M. Traskin. Adaboost is consistent, http://books.nips.cc/ papers/files/nips19/NIPS2006_0200.pdf. Advances in Neural Information Pro- cessing Systems, 19, 2007.
  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents