Table of Contents

Cours

  • 2/10/2013 : estimateurs, maximum de vraisemblance
  • 9/10/2013 : Algorithme Expectation-Maximization
  • 16/10/2013: Modèles à maximum d’entropie

Projet MI3S

Modalités

  • les étudiants doivent m’envoyer un mail avant le 23 octobre 2013 29 octobre 2013 contenant une liste ordonnée de 2 sujets
  • le jeudi 30 octobre, les affectations sont effectuées
  • le travail est à rendre, par voie électronique, le 13 novembre 2013.

Sujets

Chaque étudiant doit rédiger, au choix, un document de 6 pages maximum (en LaTeX), sur

  • L’algorithme Expectation-Maximization
    • en expliquant les raisons de l’algorithme
    • en donnant les propriétés de convergence
    • en l’instanciant pour le problème d’estimation de densité à partir de mélange de Gaussiennes
    • une implémentation (en Matlab, par exemple) serait appréciée.
  • L’algorithme Baum-Welch
    • en expliquant le modèle des HMM
    • en identifiant les problématiques liées à la maximisation de vraisemblance avec les HMMs
    • décrivant les étapes de l’algorithme
    • en expliquant pourquoi c’est une instanciation de l’algorithme EM
  • Les modèles à Maximum d’Entropie
    • en expliquant ce qu’est l’entropie
    • en expliquant comment les distributions de Gibbs émergent lorsque l’on fait de l’estimation MaxEnt
    • en expliquant à la lumière de ces modèles ce qu’est la régression logistique (une recherche bibliographique peut être nécessaire)
  • L’estimation de paramètres
    • en parlant du maximum de vraisemblance
    • en parlant du problème d’estimation du nombre de chars à partir des numéros de séries
      • il faudra notamment justifier la forme de l’estimateur du maximum de vraisemblance et calculer sa variance.
      • en utilisant des variables antithétiques (cf. recherche bibliographique) que vous aurez imaginées, vous fournirez un estimateur de variance plus faible.