Passer au contenu

/ Département de mathématiques et de statistique

Je donne

Rechercher

Séminaires étudiants

Séminaires et conférences à venir

Nous proposons un modèle bayésien semi-paramétrique permettant de détecter les bi-grappes (biclusters) dans des données dexpression génique. Le bi-grappes sont de sous-ensembles dobservations partageant des patrons similaires sur un ensemble de conditions. Notre approche est basée sur le modèle plaid ou des carrés écossais et un a priori de type bâton tronqué qui nous aide à trouver le nombre de bi-grappes présents dans les données dans le cadre de linférence. Les preuves fournies par une étude de simulation montrent que le modèle est capable de détecter correctement les bi-grappes et fonctionne bien par rapport à certaines approches concurrentes. Lapproche est appliquée aux données dexpression génique (réponses continues) et aux données de modification des histones (réponses de comptage).
Les réseaux de neurones occupent une place dominante dans l'apprentissage automatique de par leur capacité à modéliser des relations complexes tout en traitant des problèmes en grandes dimensions impliquant des données massives. Jusqu'à maintenant, la quasi-totalité des méthodes permettant d'entrainer des réseaux de neurones utilisent la rétropropagation du gradient (i.e., backprop) et considèrent l'apprentissage des paramètres comme un problème d'optimisation. Dans ce séminaire, nous verrons comment la méthode TAGI (i.e., Tractable Approximate Gaussian Inference) a le potentiel de changer ce paradigme en offrant une solution analytique à la calibration des réseaux de neurones profonds. De par sa nature bayésienne, TAGI considère l'incertitude associée aux paramètres tout en conservant une complexité linéaire en fonction de leur nombre. La capacité de TAGI à inférer analytiquement les paramètres et variables latentes des modèles ouvre de nouvelles possibilités qui ont des impacts tant au niveau fondamental qu'appliqué. Dans ce séminaire, nous couvrirons les fondements théoriques de la méthode ainsi que de son impact sur des applications pratiques de petite et de grande taille (i.e, >10M+ de paramètres). À noter que comme TAGI n'utilise pas la rétropropagation du gradient pour l'apprentissage des paramètres, la méthode est incompatible avec librairies existantes telles que PyTorch et TensorFlow. Afin que la communauté scientifique puisse commencer à tirer avantage de la méthode, nous survolerons les capacités de la librairie ouverte pyTAGI a été lancée à l'automne 2022.
La marche de l'éléphant est une marche aléatoire discrète sur les entiers et dont le comportement est dirigé par un paramètre de mémoire. Elle été introduite au début des années 2000 par des physiciens. L'étude de son comportement asymptotique peut se faire via une approche martingale et l'influence importante du paramètre de mémoire permet de différencier trois régimes. On commencera par présenter le processus et les résultats connus tels que la convergence presque sûre ou la normalité asymptotique. On proposera ensuite une manière destimer le paramètre de mémoire de l'éléphant via un estimateur consistant.