Passer au contenu

/ Département de mathématiques et de statistique

Rechercher

 

Maire, Florian

Vcard

Professeur adjoint

Faculté des arts et des sciences - Département de mathématiques et de statistique

André-Aisenstadt local 4243

514 343-6111 ext 7977

Courriels

Cours donnés

  • STT6300 A - Méthodes asymptotiques

Expertises

En statistique bayésienne, les lois de probabilités qu'il est habituel de rencontrer en pratique sont généralement compliquées: modèles de vraisemblance non linéaires/non gaussiens, constantes incalculables, données manquantes, etc. Parallélement, l'accroissement des puissances de calculs permettent de considérer à présent des modèles paramètriques de (très) grandes dimensions et d'en faire l'apprentissage grâce à un (très) grand nombre de données. De tels scenarios mettent souvent en échec les outils d'inférence statistique classiques tels que les algorithmes du gradient, Expectation Maximisation ou encore les méthodes de Monte Carlo par chaîne de Markov. 

Je m'intéresse aux questions liées à l'approximation de ces algorithmes classiques et en particulier à leur convergence. De ces approximations résultent des algorithmes "bruités" qui n'héritent généralement pas des propriétés agréables que possèdent les algorithmes classiques: estimateur sans biais, normalité asymptotique, taux de convergence optimal, invariance, etc. Comment construire des algorithmes efficaces à la fois d'un point de vue statistique (théorique) et computationel (en pratique, i.e implémentable et viable)? Mais cette question est couplée avec une autre: quelles cadres théoriques peuvent être utilisés/adaptés pour construire ces approximations?

Les domaines d'application qui m'intéressent sont entre autre le traîtement de l'image (modèles à prototypes déformables), les modèles de graphes aléatoires et les modèles de dynamique moléculaire.