Rappels cours pr´ec´edentQuelques r`egles de classificationL’apprentissage en pratique et principe ERMInitiation `a la fouille de donn´ees et `a1l’apprentissage automatiqueChristophe MagnanLaboratoire d’Informatique Fondamentale de MarseilleUniversit´e de Provencechristophe.magnan@lif.univ-mrs.frwww.lif.univ-mrs.fr/∼magnan1Extrait du cours de Fran¸cois Denis1Christophe Magnan Initiation `a la fouille de donn´ees et `a l’apprentissage automatiqueRappels cours pr´ec´edentQuelques r`egles de classificationL’apprentissage en pratique et principe ERMPlan du cours1 Rappels cours pr´ec´edent2 Quelques r`egles de classification3 L’apprentissage en pratique et principe ERM1Christophe Magnan Initiation `a la fouille de donn´ees et `a l’apprentissage automatiqueRappels cours pr´ec´edentQuelques r`egles de classificationL’apprentissage en pratique et principe ERMPlan1 Rappels cours pr´ec´edent2 Quelques r`egles de classification3 L’apprentissage en pratique et principe ERM1Christophe Magnan Initiation `a la fouille de donn´ees et `a l’apprentissage automatiqueRappels cours pr´ec´edentQuelques r`egles de classificationL’apprentissage en pratique et principe ERMApprentissage `a partir d’exemplesPlusieurs cat´egoriesUne similarit´e : apprendre `a classer des donn´ees deX dans unensembleY `a partir d’exemples1Christophe Magnan Initiation `a la fouille de donn´ees et `a l’apprentissage automatiqueRappels cours pr´ec´edentQuelques r`egles de ...
Y´tinssioegretsoce n u : r n ⇒..c.ets,mpndetctio´edipredetru,eretame´p Ydistec:unnocnitetercstionnonslassificaeepureiv´s ⇒clustering, hierarchie... ´ Ycsidetertseunc:ctnofiiacalsssupetion´eervis ⇒spam, maladie, ...
e S={(x1,y1), ...,(xl,yl)}observ´ ∀i∈ {1, ...,l},xi∈ X, avecXun espace de description ∀i∈ {1, ...,l},yi∈ Y, avecYun ensemble de classes Lesexemples d’apprentissage de S(til´lechanon) sont des couples (x,y)∈ X × Ysidalnoloitubirtesr´tised.i.i.njointe P(x,y) =P(x)P(y|x).
Rappelscourspre´ce´dent Quelquesr`eglesdeclassification L’apprentissage en pratique et principe ERM Mod´elisationdelaclassificationsupervis´ee Objectif:a`partirdel’´echantillonS, construire (calculer) une fonction f : YX →imeselirqseuinimiuq,ruefiissacleel´peap,R(f) R(f) =ZL(y,f(x))dP(x,y) =Zy6=f(x)dP(x,y) =P(y6=f(x)). Fonction de perteL(y,f(x)) =0is1sinyon=.f(x) Contrainte : la relation entreXetYest fixe mais inconnue, on ne dispose que de S comme information partielle sur cette relation Contrainte : dans la plupart des cas, le risque n’est pas calculable car on ne dispose pas d’assez d’information sur la distributionP ⇒fsoptioddeereds´caesnnbo´tseapicnee´ed´gsatiralion. ChristopheMagnanInitiation`alafouillededonn´eeset`al’apprentissageautomatiq