Maire, Florian
- Professeur agrégé
-
Faculté des arts et des sciences - Département de mathématiques et de statistique
André-Aisenstadt Local 4253
Courriels
Cours donnés
- STT3790 A - Apprentissage statistique
- STT6300 A - Méthodes asymptotiques
Expertise
- Optimisation d'algorithmes
- Statistique computationnelle
- Statistique bayésienne
- Probabilités appliquées
- Chaînes de Markov
- Algorithmes statistiques d'apprentissage
- Champs de Gibbs et de Markov
En statistique bayésienne, les lois de probabilités qu'il est habituel de rencontrer en pratique sont généralement compliquées: modèles de vraisemblance non linéaires/non gaussiens, constantes incalculables, données manquantes, etc. Parallélement, l'accroissement des puissances de calculs permettent de considérer à présent des modèles paramètriques de (très) grandes dimensions et d'en faire l'apprentissage grâce à un (très) grand nombre de données. De tels scenarios mettent souvent en échec les outils d'inférence statistique classiques tels que les algorithmes du gradient, Expectation Maximisation ou encore les méthodes de Monte Carlo par chaîne de Markov.
Je m'intéresse aux questions liées à l'approximation de ces algorithmes classiques et en particulier à leur convergence. De ces approximations résultent des algorithmes "bruités" qui n'héritent généralement pas des propriétés agréables que possèdent les algorithmes classiques: estimateur sans biais, normalité asymptotique, taux de convergence optimal, invariance, etc. Comment construire des algorithmes efficaces à la fois d'un point de vue statistique (théorique) et computationel (en pratique, i.e implémentable et viable)? Mais cette question est couplée avec une autre: quelles cadres théoriques peuvent être utilisés/adaptés pour construire ces approximations?
Les domaines d'application qui m'intéressent sont entre autre le traîtement de l'image (modèles à prototypes déformables), les modèles de graphes aléatoires et les modèles de dynamique moléculaire.
Encadrement Tout déplier Tout replier
Abstract
Abstract