Sujet-These-EP-Chaib
2 pages
Français

Sujet-These-EP-Chaib

-

Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres
2 pages
Français
Le téléchargement nécessite un accès à la bibliothèque YouScribe
Tout savoir sur nos offres

Description

PROPOSITION DE SUJET DE THÈSE Laboratoire : Décision, Adaptation and Multi-Agents (DAMAS), Québec, Canada, dont l’adresse web est www.damas.ift.ulaval.ca Responsable : Pr. B. Chaib-draa (chaib@ift.ulaval.ca); Département d'informatique et de génie logiciel, Faculté des sciences et de génie, 1065 rue de la Médecine, Pavillon Adrien-Pouliot, local 3766, Université Laval (Québec), Canada, G1V 0A6, Tél.: (1) 418 656 2131 #3226; Fax : (1) 418 656-2324. Estimation de l’état par des méthodes d’apprentissage machine L’apprentissage machine vise à rendre les algorithmes plus performants en les dotant de mécanismes capables de tirer profit de l’expérience ou des données accumulées. Dès lors, concevoir un agent apprenant, consiste à le doter d’algorithmes capables de s’améliorer, soit via les interactions de l’agent avec l’environnement, soit en tirant profit de données antérieurs accumulées par d’autres programmes, soit en combinant les deux. Dans le cas où l’agent apprend via ses interactions avec l’environnement, l’apprentissage est dit par renforcement; si c’est via les sonnées antérieurs l’apprentissage est dit supervisé. Ces deux formes d’apprentissage sont complétées par le non-supervisé dans lequel, et bien qu’il y ait des données en entrée, il n’y a pas de sortie a priori comme dans le cas du supervisé. En fait, dans ce type d’apprentissage [3], le programme traite les données comme des variables aléatoires et construit un modèle de densités jointes ...

Informations

Publié par
Nombre de lectures 61
Langue Français

Extrait

PROPOSITION DE SUJET DE THÈSE
Laboratoire : Décision, Adaptation and Multi-Agents (DAMAS), Québec, Canada, dont
l’adresse web est www.damas.ift.ulaval.ca

Responsable : Pr. B. Chaib-draa (chaib@ift.ulaval.ca); Département d'informatique et de
génie logiciel, Faculté des sciences et de génie, 1065 rue de la Médecine, Pavillon Adrien-
Pouliot, local 3766, Université Laval (Québec), Canada, G1V 0A6, Tél.: (1) 418 656 2131
#3226; Fax : (1) 418 656-2324.

Estimation de l’état par des méthodes d’apprentissage machine
L’apprentissage machine vise à rendre les algorithmes plus performants en les dotant de
mécanismes capables de tirer profit de l’expérience ou des données accumulées. Dès lors,
concevoir un agent apprenant, consiste à le doter d’algorithmes capables de s’améliorer,
soit via les interactions de l’agent avec l’environnement, soit en tirant profit de données
antérieurs accumulées par d’autres programmes, soit en combinant les deux. Dans le cas
où l’agent apprend via ses interactions avec l’environnement, l’apprentissage est dit par
renforcement; si c’est via les sonnées antérieurs l’apprentissage est dit supervisé. Ces
deux formes d’apprentissage sont complétées par le non-supervisé dans lequel, et bien
qu’il y ait des données en entrée, il n’y a pas de sortie a priori comme dans le cas du
supervisé. En fait, dans ce type d’apprentissage [3], le programme traite les données
comme des variables aléatoires et construit un modèle de densités jointes pour cet
ensemble de données. Dès lors, un tel apprentissage pourrait être utilisé en conjonction
avec l’inférence bayésienne pour produire des probabilités conditionnelles pour chaque
variable aléatoire. C’est dans le contexte de cette dernière forme d’apprentissage que
s’inscrit le sujet de thèse que nous proposons
On voudrait estimer les états sous-tendant les processus dynamiques en utilisant
l’apprentissage machine. Une telle estimation aiderait à contrôler et à commander un
système dynamique stochastique. Pour cela, l’inférence exacte requière le maintient d’une
distribution complète de probabilités conjointes sur les états possibles. On voudrait alors
utiliser l’apprentissage non-supervisé en conjonction avec l’inférence bayésienne
(complété par un apprentissage par renforcement s’il y a lieu) en vue de déterminer
récursivement une telle distribution de probabilités. Dans ce cadre, on voudrait tester et
évaluer des méthodes comme :
1. Les filtres particulaires et plus généralement les méthodes de Monte Carlo par
chaines de Markov (MCMC) [1];
2. Les méthodes alternatives aux MCMC comme les méthodes bayésienne
variationnelle;
3. Les méthodes approximatives comme initiées par Koller et Fratkina [2].
Une fois ces méthodes étudiées en profondeur, l’étudiant devra faire ressortir leurs limites
et proposer ensuite, ses propres modèles ainsi que ses propres algorithmes en vue d’avoir
de meilleures performances tout en assurant les propriétés formelles usuelles. L’approche
proposée devra ensuite être validée sur un exemple concret emprunté à la réalité.
L’étudiant devra valider ses recherches en publiant dans des conférences de haut calibre
où le taux de succès avoisine les 25%. À la fin de sa thèse et avant son dépôt final, il
devra soumettre ses résultats à une revue internationale de haut calibre. Lieu d’encadrement : Le travail de thèse aura lieu au sein du groupe DAMAS, où on a
accumulé de l’expérience sur la problématique du contrôle sous incertain comme le
démontre nos articles disponibles sur la page : http://damas.ift.ulaval.ca/publication.php
Quelques publications :
[1] Andrieu, Freitas, Doucet and Jordan, An Introduction to MCMC for Machine
Learning, Machine Learning, 50(1-2), 2003.
[2] Koller et Fratkina, Using Learning for Approximation in Stochastic Process,
ICML’98,1998.
[3] Ghahramani Unsupervised Learning, http://learning.eng.cam.ac.uk/zoubin/
Rémunération : Bourse d’environ 19 000$/an.
Profil Du candidat : Le master en informatique, recherche opérationnelle ou maths
appliqués est exigé. Un classement dans le premier tiers de la promotion est souhaitable.
Un bon niveau d’anglais est plus que souhaitable.
Les candidats intéressés, doivent envoyer à chaib@ift.ulaval.ca : (i) un CV; (ii) les
notes théoriques du M2 et le classement (rand/effectif); (iii) les notes du M1 et le
classement (rang/effectif), (iii) une ou plusieurs lettres de recommandation (souhaitable).
Date Limite : 10 Juin 2009.

  • Univers Univers
  • Ebooks Ebooks
  • Livres audio Livres audio
  • Presse Presse
  • Podcasts Podcasts
  • BD BD
  • Documents Documents