Professeurs

1

Maire, Florian

Professeur adjoint

Ph. D. Université Paris 6 UPMC 2014

Contact :

  • Téléphone 514-343-6111 # 7977 Pav. André-Aisenstadt \ bur. AA-4243
Département de mathématiques et de statistique

Intérêts de recherche

En statistique bayésienne, les lois de probabilités qu'il est habituel de rencontrer en pratique sont généralement compliquées: modèles de vraisemblance non linéaires/non gaussiens, constantes incalculables, données manquantes, etc. Parallélement, l'accroissement des puissances de calculs permettent de considérer à présent des modèles paramètriques de (très) grandes dimensions et d'en faire l'apprentissage grâce à un (très) grand nombre de données. De tels scenarios mettent souvent en échec les outils d'inférence statistique classiques tels que les algorithmes du gradient, Expectation Maximisation ou encore les méthodes de Monte Carlo par chaîne de Markov. 

Je m'intéresse aux questions liées à l'approximation de ces algorithmes classiques et en particulier à leur convergence. De ces approximations résultent des algorithmes "bruités" qui n'héritent généralement pas des propriétés agréables que possèdent les algorithmes classiques: estimateur sans biais, normalité asymptotique, taux de convergence optimal, invariance, etc. Comment construire des algorithmes efficaces à la fois d'un point de vue statistique (théorique) et computationel (en pratique, i.e implémentable et viable)? Mais cette question est couplée avec une autre: quelles cadres théoriques peuvent être utilisés/adaptés pour construire ces approximations?

Les domaines d'application qui m'intéressent sont entre autre le traîtement de l'image (modèles à prototypes déformables), les modèles de graphes aléatoires et les modèles de dynamique moléculaire.