Passer au contenu

/ Département de mathématiques et de statistique

Je donne

Rechercher

 

Murua, Alejandro

Vcard

Professeur titulaire

Faculté des arts et des sciences - Département de mathématiques et de statistique

André-Aisenstadt Local 4221

514 343-6987

Courriels

Affiliations

  • Membre Centre de recherches mathématiques
  • Membre CRM — Centre de recherches mathématiques
  • Membre Institut de valorisation des données
  • Membre IVADO — Institut de valorisation des données

Cours donnés

  • STT6516 H - Données categorielles
  • STT3510 H - Biostatistique

Expertise

Mes interêts de recherche principaux se concentrent sur les applications de la statistique et de la probabilité aux problèmes traitant de la bioinformatique, des sciences sociales et de la santé, data mining et machine learning, de l'identification d'objets, et du traitement de signaux.

Encadrement Tout déplier Tout replier

Apprentissage basé sur le Qini pour la prédiction de l'effet causal conditionnel Thèses et mémoires dirigés / 2021-08
Belbahri, Mouloud-Beallah
Abstract
Les modèles uplift (levier en français) traitent de l'inférence de cause à effet pour un facteur spécifique, comme une intervention de marketing. En pratique, ces modèles sont construits sur des données individuelles issues d'expériences randomisées. Un groupe traitement comprend des individus qui font l'objet d'une action; un groupe témoin sert de comparaison. La modélisation uplift est utilisée pour ordonner les individus par rapport à la valeur d'un effet causal, par exemple, positif, neutre ou négatif. Dans un premier temps, nous proposons une nouvelle façon d'effectuer la sélection de modèles pour la régression uplift. Notre méthodologie est basée sur la maximisation du coefficient Qini. Étant donné que la sélection du modèle correspond à la sélection des variables, la tâche est difficile si elle est effectuée de manière directe lorsque le nombre de variables à prendre en compte est grand. Pour rechercher de manière réaliste un bon modèle, nous avons conçu une méthode de recherche basée sur une exploration efficace de l'espace des coefficients de régression combinée à une pénalisation de type lasso de la log-vraisemblance. Il n'y a pas d'expression analytique explicite pour la surface Qini, donc la dévoiler n'est pas facile. Notre idée est de découvrir progressivement la surface Qini comparable à l'optimisation sans dérivée. Le but est de trouver un maximum local raisonnable du Qini en explorant la surface près des valeurs optimales des coefficients pénalisés. Nous partageons ouvertement nos codes à travers la librairie R tools4uplift. Bien qu'il existe des méthodes de calcul disponibles pour la modélisation uplift, la plupart d'entre elles excluent les modèles de régression statistique. Notre librairie entend combler cette lacune. Cette librairie comprend des outils pour: i) la discrétisation, ii) la visualisation, iii) la sélection de variables, iv) l'estimation des paramètres et v) la validation du modèle. Cette librairie permet aux praticiens d'utiliser nos méthodes avec aise et de se référer aux articles méthodologiques afin de lire les détails. L'uplift est un cas particulier d'inférence causale. L'inférence causale essaie de répondre à des questions telle que « Quel serait le résultat si nous donnions à ce patient un traitement A au lieu du traitement B? ». La réponse à cette question est ensuite utilisée comme prédiction pour un nouveau patient. Dans la deuxième partie de la thèse, c’est sur la prédiction que nous avons davantage insisté. La plupart des approches existantes sont des adaptations de forêts aléatoires pour le cas de l'uplift. Plusieurs critères de segmentation ont été proposés dans la littérature, tous reposant sur la maximisation de l'hétérogénéité. Cependant, dans la pratique, ces approches sont sujettes au sur-ajustement. Nous apportons une nouvelle vision pour améliorer la prédiction de l'uplift. Nous proposons une nouvelle fonction de perte définie en tirant parti d'un lien avec l'interprétation bayésienne du risque relatif. Notre solution est développée pour une architecture de réseau de neurones jumeaux spécifique permettant d'optimiser conjointement les probabilités marginales de succès pour les individus traités et non-traités. Nous montrons que ce modèle est une généralisation du modèle d'interaction logistique de l'uplift. Nous modifions également l'algorithme de descente de gradient stochastique pour permettre des solutions parcimonieuses structurées. Cela aide dans une large mesure à ajuster nos modèles uplift. Nous partageons ouvertement nos codes Python pour les praticiens désireux d'utiliser nos algorithmes. Nous avons eu la rare opportunité de collaborer avec l'industrie afin d'avoir accès à des données provenant de campagnes de marketing à grande échelle favorables à l'application de nos méthodes. Nous montrons empiriquement que nos méthodes sont compétitives avec l'état de l'art sur les données réelles ainsi qu'à travers plusieurs scénarios de simulations.

Apprentissage statistique avec le processus ponctuel déterminantal Thèses et mémoires dirigés / 2021-02
Vicente, Sergio
Abstract
Cette thèse aborde le processus ponctuel déterminantal, un modèle probabiliste qui capture la répulsion entre les points d’un certain espace. Celle-ci est déterminée par une matrice de similarité, la matrice noyau du processus, qui spécifie quels points sont les plus similaires et donc moins susceptibles de figurer dans un même sous-ensemble. Contrairement à la sélection aléatoire uniforme, ce processus ponctuel privilégie les sous-ensembles qui contiennent des points diversifiés et hétérogènes. La notion de diversité acquiert une importante grandissante au sein de sciences comme la médecine, la sociologie, les sciences forensiques et les sciences comportementales. Le processus ponctuel déterminantal offre donc une alternative aux traditionnelles méthodes d’échantillonnage en tenant compte de la diversité des éléments choisis. Actuellement, il est déjà très utilisé en apprentissage automatique comme modèle de sélection de sous-ensembles. Son application en statistique est illustrée par trois articles. Le premier article aborde le partitionnement de données effectué par un algorithme répété un grand nombre de fois sur les mêmes données, le partitionnement par consensus. On montre qu’en utilisant le processus ponctuel déterminantal pour sélectionner les points initiaux de l’algorithme, la partition de données finale a une qualité supérieure à celle que l’on obtient en sélectionnant les points de façon uniforme. Le deuxième article étend la méthodologie du premier article aux données ayant un grand nombre d’observations. Ce cas impose un effort computationnel additionnel, étant donné que la sélection de points par le processus ponctuel déterminantal passe par la décomposition spectrale de la matrice de similarité qui, dans ce cas-ci, est de grande taille. On présente deux approches différentes pour résoudre ce problème. On montre que les résultats obtenus par ces deux approches sont meilleurs que ceux obtenus avec un partitionnement de données basé sur une sélection uniforme de points. Le troisième article présente le problème de sélection de variables en régression linéaire et logistique face à un nombre élevé de covariables par une approche bayésienne. La sélection de variables est faite en recourant aux méthodes de Monte Carlo par chaînes de Markov, en utilisant l’algorithme de Metropolis-Hastings. On montre qu’en choisissant le processus ponctuel déterminantal comme loi a priori de l’espace des modèles, le sous-ensemble final de variables est meilleur que celui que l’on obtient avec une loi a priori uniforme.

Application des méthodes de partitionnement de données fonctionnelles aux trajectoires de voiture Thèses et mémoires dirigés / 2020-08
Paul, Alexandre
Abstract
La classification et le regroupement des données fonctionnelles longitudinales ont fait beaucoup de progrès dans les dernières années. Plusieurs méthodes ont été proposées et ont démontré des résultats prometteurs. Pour ce mémoire, on a comparé le comportement des algorithmes de partitionnement sur un ensemble de données décrivant les trajectoires de voitures dans une intersection de Montréal. La motivation est qu’il est coûteux et long de faire la classification manuellement et on démontre dans cet ouvrage qu’il est possible d’obtenir des prédictions adéquates avec les différents algorithmes. Parmi les méthodes utilisées, la méthode distclust utilise l’approche des K-moyennes avec une notion de distance entre les courbes fonctionnelles. On utilise aussi une classification par mélange de densité gaussienne, mclust. Ces deux approches n’étant pas conçues uniquement pour le problème de classification fonctionnelle, on a donc également appliqué des méthodes fonctionnelles spécifiques au problème : fitfclust, funmbclust, funclust et funHDDC. On démontre que les résultats du partitionnement et de la prédiction obtenus par ces approches sont comparables à ceux obtenus par ceux basés sur la distance. Les méthodes fonctionnelles sont préférables, car elles permettent d’utiliser des critères de sélection objectifs comme le AIC et le BIC. On peut donc éviter d’utiliser une partition préétablie pour valider la qualité des algorithmes, et ainsi laisser les données parler d’elles-mêmes. Finalement, on obtient des estimations détaillées de la structure fonctionnelle des courbes, comme sur l’impact de la réduction de données avec une analyse en composantes principales fonctionnelles multivariées.

Modèle de mélange gaussien à effets superposés pour l'identification de sous-types de schizophrénie Thèses et mémoires dirigés / 2020-03
Nefkha-Bahri, Samy
Abstract
Ce travail s’inscrit dans l’effort de recherche ayant pour but d’identifier des sous-types de schizophrénie à travers des données de connectivité cérébrale tirées de l’imagerie par résonance magnétique fonctionelle. Des techniques de regroupement en grappes, dont l’algorithme Espérance-Maximisation (EM) pour l’estimation des paramètres de modèles de mé- lange gaussien, ont été utilisées sur des données de ce type dans des recherches précédentes. Cette approche capture des effets de processus cérébraux normaux qui sont sans intérêt pour l’identification de sous-types maladifs. Dans le présent travail, les données de la population des individus témoins (non-atteints de la maladie) sont modélisées par un mélange fini de densités gaussiennes. Chaque densité représente un sous-type supposé de fonctionnement cé- rébral normal. Une nouvelle modélisation est proposée pour les données de la population des individus atteints : un mélange de densités gaussiennes où chaque densité a une moyenne correspondant à la somme d’un état normal et d’un état maladif. Il s’agit donc d’un modèle de mélange gaussien dans lequel se superposent des sous-types de fonctionnement cérébral normal et des sous-types de maladie. On présuppose que les processus normaux et maladifs sont additifs et l’objectif est d’isoler et d’estimer les effets maladifs. Un algorithme de type EM spécifiquement conçu pour ce modèle est développé. Nous disposons en outre de données de connectivité cérébrale de 242 individus témoins et 242 patients diagnostiqués schizophrènes. Des résultats de l’utilisation de cet algorithme sur ces données sont rapportés.

Régression de Cox avec partitions latentes issues du modèle de Potts Thèses et mémoires dirigés / 2019-07
Martínez Vargas, Danae Mirel
Abstract
The goal of this research project is to develop a non-parametric Bayesian regression model derived from random partitions in a survival analysis context. Our final objective is to build a forecasting system that initially consists of grouping observations with similar characteristics. Once subgroups are formed, survival within each subgroup is assessed using a non-parametric Bayesian model. The number of subgroups in the population is random. We propose the use of the Potts classification model (Murua, Stanberry et Stuetzle) applied to the covariate space to generate the formation of random partitions of individuals. For any given partition, the model proposed in this project assumes a interval-wise Weibull distribution for the baseline hazard rate inpired from the model first proposed by Ibrahim (Ibrahim 2001). Estimates and inference are made using MCMC methods. We also use the Laplace approximation method (Shun et McCullagh) to estimate some constants and propose parameter updates in the application of the MCMC algorithm. Finally, we compare the performance of our model with that of a classical Cox regression and the non-parametric Bayesian model of product partition indexed by covariates, PPMx, all this with the help of numerous simulations. In general, our model has delivered results comparable to those of its competitors and has in some cases proven to be the best choice.

Analyse statistique de données fonctionnelles à structures complexes Thèses et mémoires dirigés / 2017-05
Adjogou, Adjobo Folly Dzigbodi
Abstract
Les études longitudinales jouent un rôle prépondérant dans des domaines de recherche variés et leur importance ne cesse de prendre de l’ampleur. Les méthodes d’analyse qui leur sont associées sont devenues des outils privilégiés pour l’analyse de l’étude temporelle d’un phénomène donné. On parle de données longitudinales lorsqu’une ou plusieurs variables sont mesurées de manière répétée à plusieurs moments dans le temps sur un ensemble d’individus. Un élément central de ce type de données est que les observations prises sur un même individu ont tendance à être corrélées. Cette caractéristique fondamentale distingue les données longitudinales d’autres types de données en statistique et suscite des méthodologies d’analyse spécifiques. Ce domaine d’analyse a connu une expansion considérable dans les quarante dernières années. L’analyse classique des données longitudinales est basée sur les modèles paramétriques, non-paramétriques et semi-paramétriques. Mais une importante question abondamment traitée dans l’étude des données longitudinales est associée à l’analyse typologique (regroupement en classes) et concerne la détection de groupes (ou classes ou encore trajectoires) homogènes, suggérés par les données, non définis a priori de sorte que les individus dans une même classe tendent à être similaires les uns aux autres dans un certain sens et, ceux dans différentes classes tendent à être non similaires (dissemblables). Dans cette thèse, nous élaborons des modèles de clustering de données longitudinales et contribuons à la littérature de ce domaine statistique en plein essor. En effet, une méthodologie émergente non-paramétrique de traitement des données longitudinales est basée sur l’approche de l’analyse des données fonctionnelles selon laquelle les trajectoires longitudinales sont perçues comme étant un échantillon de fonctions (ou courbes) partiellement observées sur un intervalle de temps sur lequel elles sont souvent supposées lisses. Ainsi, nous proposons dans cette thèse, une revue de la littérature statistique sur l’analyse des données longitudinales et développons deux nouvelles méthodes de partitionnement fonctionnel basées sur des modèles spécifiques. En effet, nous exposons dans le premier volet de la présente thèse une revue succinte de la plupart des modèles typiques d’analyse des données longitudinales, des modèles paramétriques aux modèles non-paramétriques et semi-paramétriques. Nous présentons également les développements récents dans le domaine de l’analyse typologique de ces données selon les deux plus importantes approches : l’approche non paramétrique et l’approche fondée sur un modèle. Le but ultime de cette revue est de fournir un aperçu concis, varié et très accessible de toutes les méthodes d’analyse des données longitudinales. Dans la première méthodologie proposée dans le cadre de cette thèse, nous utilisons l’approche de l’analyse des données fonctionnelles (ADF) pour développer un modèle très flexible pour l’analyse et le regroupement de tout type de données longitudinales (balancées ou non) qui combine adéquatement et simultanément l’analyse fonctionnelle en composantes principales et le regroupement en classes. La modélisation fonctionnelle repose sur l’espace des coefficients dans la base des splines et le modèle, conçu dans un cadre bayésien, est basé sur un mélange de distributions de Student. Nous proposons également un nouveau critère pour la sélection de modèle en développant une approximation de la log-vraisemblance marginale (MLL). Ce critère se compare favorablement aux critères usuels tels que AIC et BIC. La seconde méthode de regroupement développée dans la présente thèse est une nouvelle procédure d’analyse de données longitudinales qui combine l’approche du partitionnement fonctionnel basé sur un modèle et une double pénalisation de type Lasso pour identifier les classes homogènes ou les individus avec des tendances semblables. Les courbes individuelles sont approximées dans un espace dérivé par une base finie de splines et le nombre optimal de classes est déterminé en pénalisant un mélange de distributions de Student. Les paramètres de contrôle de la pénalité sont définis par la méthode d’échantillonnage par hypercube latin qui assure une exploration plus efficace de l’espace de ces paramètres. Pour l’estimation des paramètres dans les deux méthodes proposées, nous utilisons l’algorithme itératif espérancemaximisation.

Modélisation des bi-grappes et sélection des variables pour des données de grande dimension : application aux données d'expression génétique Thèses et mémoires dirigés / 2012-08
Chekouo Tekougang, Thierry
Abstract
Le regroupement des données est une méthode classique pour analyser les matrices d'expression génétiques. Lorsque le regroupement est appliqué sur les lignes (gènes), chaque colonne (conditions expérimentales) appartient à toutes les grappes obtenues. Cependant, il est souvent observé que des sous-groupes de gènes sont seulement co-régulés (i.e. avec les expressions similaires) sous un sous-groupe de conditions. Ainsi, les techniques de bi-regroupement ont été proposées pour révéler ces sous-matrices des gènes et conditions. Un bi-regroupement est donc un regroupement simultané des lignes et des colonnes d'une matrice de données. La plupart des algorithmes de bi-regroupement proposés dans la littérature n'ont pas de fondement statistique. Cependant, il est intéressant de porter une attention sur les modèles sous-jacents à ces algorithmes et de développer des modèles statistiques permettant d'obtenir des bi-grappes significatives. Dans cette thèse, nous faisons une revue de littérature sur les algorithmes qui semblent être les plus populaires. Nous groupons ces algorithmes en fonction du type d'homogénéité dans la bi-grappe et du type d'imbrication que l'on peut rencontrer. Nous mettons en lumière les modèles statistiques qui peuvent justifier ces algorithmes. Il s'avère que certaines techniques peuvent être justifiées dans un contexte bayésien. Nous développons une extension du modèle à carreaux (plaid) de bi-regroupement dans un cadre bayésien et nous proposons une mesure de la complexité du bi-regroupement. Le critère d'information de déviance (DIC) est utilisé pour choisir le nombre de bi-grappes. Les études sur les données d'expression génétiques et les données simulées ont produit des résultats satisfaisants. À notre connaissance, les algorithmes de bi-regroupement supposent que les gènes et les conditions expérimentales sont des entités indépendantes. Ces algorithmes n'incorporent pas de l'information biologique a priori que l'on peut avoir sur les gènes et les conditions. Nous introduisons un nouveau modèle bayésien à carreaux pour les données d'expression génétique qui intègre les connaissances biologiques et prend en compte l'interaction par paires entre les gènes et entre les conditions à travers un champ de Gibbs. La dépendance entre ces entités est faite à partir des graphes relationnels, l'un pour les gènes et l'autre pour les conditions. Le graphe des gènes et celui des conditions sont construits par les k-voisins les plus proches et permet de définir la distribution a priori des étiquettes comme des modèles auto-logistiques. Les similarités des gènes se calculent en utilisant l'ontologie des gènes (GO). L'estimation est faite par une procédure hybride qui mixe les MCMC avec une variante de l'algorithme de Wang-Landau. Les expériences sur les données simulées et réelles montrent la performance de notre approche. Il est à noter qu'il peut exister plusieurs variables de bruit dans les données à micro-puces, c'est-à-dire des variables qui ne sont pas capables de discriminer les groupes. Ces variables peuvent masquer la vraie structure du regroupement. Nous proposons un modèle inspiré de celui à carreaux qui, simultanément retrouve la vraie structure de regroupement et identifie les variables discriminantes. Ce problème est traité en utilisant un vecteur latent binaire, donc l'estimation est obtenue via l'algorithme EM de Monte Carlo. L'importance échantillonnale est utilisée pour réduire le coût computationnel de l'échantillonnage Monte Carlo à chaque étape de l'algorithme EM. Nous proposons un nouveau modèle pour résoudre le problème. Il suppose une superposition additive des grappes, c'est-à-dire qu'une observation peut être expliquée par plus d'une seule grappe. Les exemples numériques démontrent l'utilité de nos méthodes en terme de sélection de variables et de regroupement.

Approximation de la distribution a posteriori d'un modèle Gamma-Poisson hiérarchique à effets mixtes Thèses et mémoires dirigés / 2011-01
Nembot Simo, Annick Joëlle
Abstract
La méthode que nous présentons pour modéliser des données dites de "comptage" ou données de Poisson est basée sur la procédure nommée Modélisation multi-niveau et interactive de la régression de Poisson (PRIMM) développée par Christiansen et Morris (1997). Dans la méthode PRIMM, la régression de Poisson ne comprend que des effets fixes tandis que notre modèle intègre en plus des effets aléatoires. De même que Christiansen et Morris (1997), le modèle étudié consiste à faire de l'inférence basée sur des approximations analytiques des distributions a posteriori des paramètres, évitant ainsi d'utiliser des méthodes computationnelles comme les méthodes de Monte Carlo par chaînes de Markov (MCMC). Les approximations sont basées sur la méthode de Laplace et la théorie asymptotique liée à l'approximation normale pour les lois a posteriori. L'estimation des paramètres de la régression de Poisson est faite par la maximisation de leur densité a posteriori via l'algorithme de Newton-Raphson. Cette étude détermine également les deux premiers moments a posteriori des paramètres de la loi de Poisson dont la distribution a posteriori de chacun d'eux est approximativement une loi gamma. Des applications sur deux exemples de données ont permis de vérifier que ce modèle peut être considéré dans une certaine mesure comme une généralisation de la méthode PRIMM. En effet, le modèle s'applique aussi bien aux données de Poisson non stratifiées qu'aux données stratifiées; et dans ce dernier cas, il comporte non seulement des effets fixes mais aussi des effets aléatoires liés aux strates. Enfin, le modèle est appliqué aux données relatives à plusieurs types d'effets indésirables observés chez les participants d'un essai clinique impliquant un vaccin quadrivalent contre la rougeole, les oreillons, la rub\'eole et la varicelle. La régression de Poisson comprend l'effet fixe correspondant à la variable traitement/contrôle, ainsi que des effets aléatoires liés aux systèmes biologiques du corps humain auxquels sont attribués les effets indésirables considérés.

Sélection de modèle d'imputation à partir de modèles bayésiens hiérarchiques linéaires multivariés Thèses et mémoires dirigés / 2009-06
Chagra, Djamila
Abstract
Résumé La technique connue comme l'imputation multiple semble être la technique la plus appropriée pour résoudre le problème de non-réponse. La littérature mentionne des méthodes qui modélisent la nature et la structure des valeurs manquantes. Une des méthodes les plus populaires est l'algorithme « Pan » de (Schafer & Yucel, 2002). Les imputations rapportées par cette méthode sont basées sur un modèle linéaire multivarié à effets mixtes pour la variable réponse. La méthode « BHLC » de (Murua et al, 2005) est une extension de « Pan » dont le modèle est bayésien hiérarchique avec groupes. Le but principal de ce travail est d'étudier le problème de sélection du modèle pour l'imputation multiple en termes d'efficacité et d'exactitude des prédictions des valeurs manquantes. Nous proposons une mesure de performance liée à la prédiction des valeurs manquantes. La mesure est une erreur quadratique moyenne reflétant la variance associée aux imputations multiples et le biais de prédiction. Nous montrons que cette mesure est plus objective que la mesure de variance de Rubin. Notre mesure est calculée en augmentant par une faible proportion le nombre de valeurs manquantes dans les données. La performance du modèle d'imputation est alors évaluée par l'erreur de prédiction associée aux valeurs manquantes. Pour étudier le problème objectivement, nous avons effectué plusieurs simulations. Les données ont été produites selon des modèles explicites différents avec des hypothèses particulières sur la structure des erreurs et la distribution a priori des valeurs manquantes. Notre étude examine si la vraie structure d'erreur des données a un effet sur la performance du choix des différentes hypothèses formulées pour le modèle d'imputation. Nous avons conclu que la réponse est oui. De plus, le choix de la distribution des valeurs manquantes semble être le facteur le plus important pour l'exactitude des prédictions. En général, les choix les plus efficaces pour de bonnes imputations sont une distribution de student avec inégalité des variances dans les groupes pour la structure des erreurs et une loi a priori choisie pour les valeurs manquantes est la loi normale avec moyenne et variance empirique des données observées, ou celle régularisé avec grande variabilité. Finalement, nous avons appliqué nos idées à un cas réel traitant un problème de santé. Mots clés : valeurs manquantes, imputations multiples, modèle linéaire bayésien hiérarchique, modèle à effets mixtes.

Projets de recherche Tout déplier Tout replier

Centre de recherches mathématiques (CRM) FRQNT/Fonds de recherche du Québec - Nature et technologies (FQRNT) / 2022 - 2029

Brain connectivity-based optimization of non-invasive brain stimulation to improve cognitive symptoms in schizophrenia IRSC/Instituts de recherche en santé du Canada / 2019 - 2026

Bayesian deeplearning prediction with sparse graphs CRSNG/Conseil de recherches en sciences naturelles et génie du Canada (CRSNG) / 2019 - 2025

Investment portfolio design and optimal execution of automated trading strategies: An exploratory research program MITACS Inc. / 2019 - 2019

Gibbs-repulsion and determinantal processes for statistical learning SPIIE/Secrétariat des programmes interorganismes à l’intention des établissements / 2018 - 2020

Uplift Models Extension for Smart Marketing. MITACS Inc. / 2017 - 2018

Variable Selection for Uplift Modeling. MITACS Inc. / 2017 - 2017

CENTRE DE RECHERCHES MATHEMATIQUES (CRM) FRQNT/Fonds de recherche du Québec - Nature et technologies (FQRNT) / 2015 - 2023

MODELE DE MELANGE AVEC NOYAUX POUR LA CLASSIFICATION DES DONNEES DE GRANDE DIMENSION Innovation, Sciences et Développement économique Canada / 2014 - 2015

KERNEL-BASED NON-PARAMETRIC BAYESIAN CLUSTERING MODELS CRSNG/Conseil de recherches en sciences naturelles et génie du Canada (CRSNG) / 2013 - 2019

INNOVATIVE CHEMOGENOMIC TOOLS TO IMPROVE OUTCOME IN ACUTE MYELOID LEUKEMIA Génome Canada / 2013 - 2017

INNOVATIVE CHEMOGENOMIC TOOLS TO IMPROVE OUTCOME IN IN ACUTE MYELOID LEUKEMIA Génome Québec / 2013 - 2017

COMPUTATIONAL RESOURCES FOR RESEARCH IN MATHEMATICS AND STATISTICS CRSNG/Conseil de recherches en sciences naturelles et génie du Canada (CRSNG) / 2013 - 2015

Publications choisies Tout déplier Tout replier

The penalized biclustering model and related algorithms

Chekouo, Thierry et Murua, Alejandro, The penalized biclustering model and related algorithms 42, 1255-1277 (2015), , Journal of Applied Statistics

The conditional-Potts clustering model

Murua, Alejandro et Wicker, Nicolas, The conditional-Potts clustering model 23, 717--739 (2014), , J. Comput. Graph. Statist.

The Gibbs-plaid biclustering model

Chekouo, Thierry, Murua, Alejandro et Raffelsberger, Wolfgang , The Gibbs-plaid biclustering model , (2014), , The Annals of Applied Statistics

Kernel-based mixture models for classification

Murua, Alejandro et Wicker, Nicolas, Kernel-based mixture models for classification , (2014), , Computational Statistics

The conditional-Potts clustering model

Murua, Alejandro et Wicker, Nicolas, The conditional-Potts clustering model Rapport de recherché CRM 3317, (2011), , Université de Montréal

On Potts model clustering, kernel $K$-means, and density estimation

Murua, Alejandro, Stanberry, Larissa et Stuetzle, Werner, On Potts model clustering, kernel $K$-means, and density estimation 17, 629--658 (2008), , J. Comput. Graph. Statist.

Model based document classification and clustering

Murua, A., Stuetzle, W., Tantrum, J. et Sieberts, S., Model based document classification and clustering 8, 1--24 (2008), , Int. J. Tomogr. Stat.

Functional connectivity mapping using the ferromagnetic Potts spin model

Stanberry, Larissa, Murua, Alejandro et Cordes, Dietmar, Functional connectivity mapping using the ferromagnetic Potts spin model 29, 422-440 (2008), , Human Brain mapping

Country Clustering to Evaluate Global Health Outcomes

Hegyvary, Sue Thomas, Berry, Devon M et Murua, Alejandro, Country Clustering to Evaluate Global Health Outcomes 29, 319-339 (2008), , Journal of Public Health Policy

Mapping Functional Connectivity Using Potts Spin Model. Proceedings of the 14th Scientific Meeting of the International Society for Magnetic Resonance in Medicine

Stanberry, Larissa, Murua, Alejandro et Cordes, Dietmar, Mapping Functional Connectivity Using Potts Spin Model. Proceedings of the 14th Scientific Meeting of the International Society for Magnetic Resonance in Medicine , 1101 (2006), , ISMRM 2006, Seattle - USA

Probabilistic segmentation and intensity estimation for microarray images

Gotttardo, Raphael, Besag, Julian, Stephens, Matthew et Murua, Alejandro, Probabilistic segmentation and intensity estimation for microarray images 7, 85-99 (2006), , Biostatistics

Resting State Connectivity of Anterior and Posterior Cingulate Corteces Using Potts Spin Model. Proceedings of the 14th Scientific Meeting of the International Society for Magnetic Resonance in Medicine

Stanberry, Larissa, Murua, Alejandro et Cordes, Dietmar, Resting State Connectivity of Anterior and Posterior Cingulate Corteces Using Potts Spin Model. Proceedings of the 14th Scientific Meeting of the International Society for Magnetic Resonance in Medicine , 1090 (2006), , ISMRM 2006

On Potts model clustering, kernel K-means and density estimation.

Murua, A., Stanberry, L. et Stuetzle, W., On Potts model clustering, kernel K-means and density estimation. Rapport de recherche CRM 3225, (2006), , Université de Montréal

Clustering fMRI time series in the wavelet domain. Proceedings of the 13th Scientific Meeting of the International Society for Magnetic Resonance in Medicine

Stanberry, Larissa; Murua, Alejandro; Nandy, Rajesh et Cordes, Dietmar, Clustering fMRI time series in the wavelet domain. Proceedings of the 13th Scientific Meeting of the International Society for Magnetic Resonance in Medicine , 1604 (2005), , ISMRM 2005, Miami - USA

Optimal transformations for prediction in continuous-time stochastic processes: finite past and future

Gidas, Basilis et Murua, Alejandro, Optimal transformations for prediction in continuous-time stochastic processes: finite past and future 131, 479--492 (2005), , Probab. Theory Related Fields

Estimation and consistency for linear functionals of continuous-time processes from finite data set, II: Optimal Transformations for Prediction.

Gidas, Basilis et Murua, Alejandro, Estimation and consistency for linear functionals of continuous-time processes from finite data set, II: Optimal Transformations for Prediction. , (2004), , Department of Statistics, University of Washington,

Hierarchical model-based clustering of large datasets through fractionation and refractionation

Tantrum, Jeremy; Murua, Alejandro et Stuetzle, Werner, Hierarchical model-based clustering of large datasets through fractionation and refractionation 29, 315-326 (2004), , Information Systems

Assessment and Pruning of Hierarchical Model Based Clustering. The Ninth International Conference on Knowledge Discovery and Data Mining

Tantrum, Jeremy; Murua, Alejandro et Stuetzle, Werner, Assessment and Pruning of Hierarchical Model Based Clustering. The Ninth International Conference on Knowledge Discovery and Data Mining , (2003), , KDD 2003, Washington DC - USA

Upper bounds for error rates associated to linear combination of classifiers

Murua, Alejandro, Upper bounds for error rates associated to linear combination of classifiers 24, 591-602 (2002), , IEEE Transactions on Pattern Analysis and Machine Intelligence

Hierarchical model-based clustering of large datasets through fractionation and refractionation. The Eighth International Conference on Knowledge Discovery and Data Mining

Tantrum, Jeremy; Murua, Alejandro et Stuetzle, Werner, Hierarchical model-based clustering of large datasets through fractionation and refractionation. The Eighth International Conference on Knowledge Discovery and Data Mining , 183-190 (2002), , KDD 2002, Edmonton - Canada

Evaluation of sequential importance sampling for blind deconvolution via a simulation study. Proceedings of the XI European Signal Processing Conference

Ali, Ayesha; Richardson, Thomas; Murua, Alejandro et Roy, Sumit , Evaluation of sequential importance sampling for blind deconvolution via a simulation study. Proceedings of the XI European Signal Processing Conference , 315-318 (2002), , EUSIPCO 2002, Toulouse - France

Model-Based Clustering and Data Transformations for Gene Expression Data

Yeung, Ka Yee; Fraley, Chris; Murua, Alejandro; Raftery, Adrian et Ruzzo, Larry, Model-Based Clustering and Data Transformations for Gene Expression Data 17, 977-987 (2001), , Bioinformatics

Speech recognition using randomized relational decision tree

Amit, Yali et Murua, Alejandro, Speech recognition using randomized relational decision tree 9, 333-341 (2001), , IEEE Transactions on Speech and Audio Processing

A 2D extended HMM for speech recognition. Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing

Li, J. et Murua, Alejandro, A 2D extended HMM for speech recognition. Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing , 349-352 (1999), , ICASSP 1999, Phoenix - USA

On the regularity of spectral densities of continuous-time completely linearly regular processes

Murua, Alejandro, On the regularity of spectral densities of continuous-time completely linearly regular processes 79, 213--227 (1999), , Stochastic Process. Appl.

Optimal transformations for prediction in continuous time stochastic processes.

Gidas, Basilis et Murua, Alejandro, Optimal transformations for prediction in continuous time stochastic processes. , 167-183 (1998), , I. Karatzas, B. Rajput and M. Taqqu editors

Estimation and consistency for linear functionals of continuous-time processes from a finite data set, I: Linear Predictors.

Gidas, Basilis et Murua, Alejandro, Estimation and consistency for linear functionals of continuous-time processes from a finite data set, I: Linear Predictors. , (1998), , Department of Statistics, University of Chicago

Stop consonants discrimination and clustering using nonlinear transformations and wavelets.

Gidas, Basilis et Murua, Alejandro, Stop consonants discrimination and clustering using nonlinear transformations and wavelets. Springer-Verlag, 13-62 (1996), , Steve E. Levinson and Larry Shepp, editors

Classification and clustering of stop consonants via nonparametric transformations and wavelets. Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing

Gidas, Basilis et Murua, Alejandro, Classification and clustering of stop consonants via nonparametric transformations and wavelets. Proceedings of the IEEE International Conference on Acoustics, Speech, and Signal Processing , 872-875 (1995), , ICASSP 1995, Detroit - USA

Existence and multiplicity of solutions with prescribed period for a second order quasilinear ODE

del Pino, Manuel A., Manàsevich, Raùl F. et Murùa, Alejandro E., Existence and multiplicity of solutions with prescribed period for a second order quasilinear ODE 18, 79--92 (1992), , Nonlinear Anal.

On the number of $2\pi$ periodic solutions for $u''+g(u)=s(1+h(t))$ using the Poincaré-Birkhoff theorem

del Pino, Manuel A., Manàsevich, Raùl F. et Murùa, Alejandro, On the number of $2\pi$ periodic solutions for $u''+g(u)=s(1+h(t))$ using the Poincaré-Birkhoff theorem 95, 240--258 (1992), , J. Differential Equations