Nos professeurs et chercheurs offrent une large expertise dans des domaines de pointe. Leurs recherches portent sur des sujets très variés donnés dans la liste ci-dessous.
Pour la liste complète de nos experts, consultez le répertoire du Département
Axes
Maire, Florian
Professeur agrégé
- Algorithmes statistiques d'apprentissage
- Chaînes de Markov
- Champs de Gibbs et de Markov
- Optimisation d'algorithmes
- Probabilités appliquées
- Statistique bayésienne
- Statistique computationnelle
En statistique bayésienne, les lois de probabilités qu'il est habituel de rencontrer en pratique sont généralement compliquées: modèles de vraisemblance non linéaires/non gaussiens, constantes incalculables, données manquantes, etc. Parallélement, l'accroissement des puissances de calculs permettent de considérer à présent des modèles paramètriques de (très) grandes dimensions et d'en faire l'apprentissage grâce à un (très) grand nombre de données. De tels scenarios mettent souvent en échec les outils d'inférence statistique classiques tels que les algorithmes du gradient, Expectation Maximisation ou encore les méthodes de Monte Carlo par chaîne de Markov.
Je m'intéresse aux questions liées à l'approximation de ces algorithmes classiques et en particulier à leur convergence. De ces approximations résultent des algorithmes "bruités" qui n'héritent généralement pas des propriétés agréables que possèdent les algorithmes classiques: estimateur sans biais, normalité asymptotique, taux de convergence optimal, invariance, etc. Comment construire des algorithmes efficaces à la fois d'un point de vue statistique (théorique) et computationel (en pratique, i.e implémentable et viable)? Mais cette question est couplée avec une autre: quelles cadres théoriques peuvent être utilisés/adaptés pour construire ces approximations?
Les domaines d'application qui m'intéressent sont entre autre le traîtement de l'image (modèles à prototypes déformables), les modèles de graphes aléatoires et les modèles de dynamique moléculaire.