Passer au contenu

/ Département de mathématiques et de statistique

Rechercher

Navigation secondaire

 

Angers, Jean-François

Vcard

Professeur associé

Faculté des arts et des sciences - Département de mathématiques et de statistique

André-Aisenstadt Local

514 343-7916

Courriels

Expertise

Mon domaine de recherche est la théorie de la décision bayésienne et, plus particulièrement, je m'intéresse à la construction d'estimateurs de Bayes robustes.

Pour obtenir un estimateur de Bayes, une densité a priori, modélisant l'information disponible sur l'ensemble des paramètres avant observation, doit être construite. Dépendant de la fonction de vraisemblance et du choix de la densité a priori, cette dernière peut avoir beaucoup d'influence sur l'estimateur résultant. Un estimateur bayésien sera dit robuste lorsque l'influence de la densité a priori s'estompe en cas de conflit entre l'information contenue dans cette dernière et les observations. Dans ma recherche, je cherche des estimateurs bayésiens d'un vecteur de paramètres pour lesquelles l'influence de la densité a priori s'amenuise seulement pour les coordonnées du vecteur où il y a conflit. Je cherche aussi un indificateur du modèle bayésien de façon à pouvoir caractériser le comportement de la moyenne a posteriori du paramètre d'intérêt sans avoir à la calculer explicitement. Je m'intéresse aussi à l'applications de la théorie de la décision bayésienne dans différents domaines (estimation de fonction, méta-analyse). 

Encadrement Tout déplier Tout replier

Analyse bayésienne et classification pour modèles continus modifiés à zéro Thèses et mémoires dirigés / 2010-08
Labrecque-Synnott, Félix
Abstract
Les modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé. Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.

Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien Thèses et mémoires dirigés / 2011-04
Patenaude, Valérie
Abstract
Dans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones en lignes et/ou en colonnes, pour une éventuelle application sur les tables de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons la forme fonctionnelle des données par splines bidimensionnelles. L?objectif consiste à condenser une table de mortalité, c?est-à-dire de réduire l?espace d?entreposage de la table en minimisant la perte d?information. De même, nous désirons étudier le temps nécessaire pour reconstituer la table. L?approximation doit conserver les mêmes propriétés que la table de référence, en particulier la monotonie des données. Nous travaillons avec une base de fonctions splines monotones afin d?imposer plus facilement la monotonie au modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler favorisent l?imposition de contraintes sur le modèle désiré. Après un rappel sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons l?approche au cas bidimensionnel. Nous décrivons l?intégration des contraintes de monotonie dans le modèle a priori sous l?approche hiérarchique bayésienne. Ensuite, nous indiquons comment obtenir un estimateur a posteriori à l?aide des méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le comportement de notre estimateur en modélisant une table de la loi normale ainsi qu?une table t de distribution de Student. L?estimation de nos données d?intérêt, soit la table de mortalité, s?ensuit afin d?évaluer l?amélioration de leur accessibilité.

Statistical methods for insurance fraud detection Thèses et mémoires dirigés / 2008
Poissant, Mathieu
Abstract
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Modélisation bayésienne des changements aux niches écologiques causés par le réchauffement climatique Thèses et mémoires dirigés / 2012-05
Akpoué, Blache Paul
Abstract
Cette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales. Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures. Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils. Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode. Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.

Validation des modèles statistiques tenant compte des variables dépendantes du temps en prévention primaire des maladies cérébrovasculaires Thèses et mémoires dirigés / 2012-07
Kis, Loredana
Abstract
L?intérêt principal de cette recherche porte sur la validation d?une méthode statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer les résultats d?une étude précédente réalisée avec un devis cas-témoins niché dans la cohorte utilisé pour tenir compte de l?exposition moyenne au traitement : ? aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition variant dans le temps, sans faire d?ajustement pour le temps passé depuis l?exposition ; ? aux résultats obtenus en utilisant l?exposition cumulative pondérée par le passé récent ; ? aux résultats obtenus selon la méthode bayésienne. Les covariables seront estimées par l?approche classique ainsi qu?en utilisant l?approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien des modèles sera utilisé pour modéliser l?incertitude face au choix des modèles. La technique utilisée dans l?approche bayésienne a été proposée en 1997 mais selon notre connaissance elle n?a pas été utilisée avec une variable dépendante du temps. Afin de modéliser l?effet cumulatif de l?exposition variant dans le temps, dans l?approche classique la fonction assignant les poids selon le passé récent sera estimée en utilisant des splines de régression. Afin de pouvoir comparer les résultats avec une étude précédemment réalisée, une cohorte de personnes ayant un diagnostique d?hypertension sera construite en utilisant les bases des données de la RAMQ et de Med-Echo. Le modèle de Cox incluant deux variables qui varient dans le temps sera utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont iv la variable dépendante (premier évènement cérébrovasculaire) et une des variables indépendantes, notamment l?exposition

Modélisation de l'espérance de vie des clients en assurance Thèses et mémoires dirigés / 2013-04
Cyr, Pierre Luc
Abstract
Dans ce mémoire, nous proposons une méthodologie statistique permettant d?obtenir un estimateur de l?espérance de vie des clients en assurance. Les prédictions effectuées tiennent compte des caractéristiques individuelles des clients, notamment du fait qu?ils peuvent détenir différents types de produits d?assurance (automobile, résidentielle ou les deux). Trois approches sont comparées. La première approche est le modèle de Markov simple, qui suppose à la fois l?homogénéité et la stationnarité des probabilités de transition. L?autre modèle ? qui a été implémenté par deux approches, soit une approche directe et une approche par simulations ? tient compte de l?hétérogénéité des probabilités de transition, ce qui permet d?effectuer des prédictions qui évoluent avec les caractéristiques des individus dans le temps. Les probabilités de transition de ce modèle sont estimées par des régressions logistiques multinomiales.

Différents procédés statistiques pour détecter la non-stationnarité dans les séries de précipitation Thèses et mémoires dirigés / 2014-04
Charette, Kevin
Abstract
Ce mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non.

Inférence topologique Thèses et mémoires dirigés / 2014-02
Prévost, Noémie
Abstract
Les données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique). Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni. Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.

Modèle bayésien pour les prêts investisseurs Thèses et mémoires dirigés / 2006
Bouvrette, Mathieu
Abstract
Mémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.

Approche bayésienne de la construction d'intervalles de crédibilité simultanés à partir de courbes simulées Thèses et mémoires dirigés / 2015-07
Lapointe, Marc-Élie
Abstract
Ce mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.

Régression logistique bayésienne : comparaison de densités a priori Thèses et mémoires dirigés / 2015-07
Deschênes, Alexandre
Abstract
La régression logistique est un modèle de régression linéaire généralisée (GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à estimer la probabilité de succès de cette variable par la linéarisation de variables explicatives. Lorsque l?objectif est d?estimer le plus précisément l?impact de différents incitatifs d?une campagne marketing (coefficients de la régression logistique), l?identification de la méthode d?estimation la plus précise est recherchée. Nous comparons, avec la méthode MCMC d?échantillonnage par tranche, différentes densités a priori spécifiées selon différents types de densités, paramètres de centralité et paramètres d?échelle. Ces comparaisons sont appliquées sur des échantillons de différentes tailles et générées par différentes probabilités de succès. L?estimateur du maximum de vraisemblance, la méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos résultats démontrent que trois méthodes d?estimations obtiennent des estimations qui sont globalement plus précises pour les coefficients de la régression logistique : la méthode MCMC d?échantillonnage par tranche avec une densité a priori normale centrée en 0 de variance 3,125, la méthode MCMC d?échantillonnage par tranche avec une densité Student à 3 degrés de liberté aussi centrée en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité Cauchy centrée en 0 de paramètre d?échelle 2,5.

Développement d'un modèle de classification probabiliste pour la cartographie du couvert nival dans les bassins versants d'Hydro-Québec à l'aide de données de micro-ondes passives Thèses et mémoires dirigés / 2015-09
Teasdale, Mylène
Abstract
Chaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes. Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.

Modélisation bayésienne avec des splines du comportement moyen d'un échantillon de courbes Thèses et mémoires dirigés / 2009-08
Merleau, James
Abstract
Cette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général. Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour un échantillon de courbes donné.

Tests pour la dépendance entre les sections dans un modèle de Poisson Thèses et mémoires dirigés / 2015-05
Roussel, Arnaud
Abstract
Les simulations et figures ont été réalisées avec le logiciel R.

Modélisation incrémentale par méthode bayésienne Thèses et mémoires dirigés / 2016-03
Rosamont Prombo, Kevin
Abstract
Les modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l?effet du traitement sur les individus à l?étude. Ces individus n?étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes. Ce mémoire a pour objectif de comparer des modèles incrémentaux d?un point de vue bayésien et d?un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d?un point de vue fréquentiste. Ainsi, dans ce mémoire, l?approche bayésienne est utilisée et comparée à l?approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l?approche bayésienne et comparés à ceux obtenus dans l?approche fréquentiste. L?estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l?effet du traitement sur les individus. Nous considérons l?utilisation de trois lois a priori pour l?estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale. Au cours de l?étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.

Méthode bayésienne de détection de rupture et/ou de tendance pour des données temporelles Thèses et mémoires dirigés / 2016-04
Leroux, Alexandre
Abstract
Ce mémoire a pour but de déterminer des nouvelles méthodes de détection de rupture et/ou de tendance. Après une brève introduction théorique sur les splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature seront présentées. Puis, de nouvelles méthodes de détection de rupture qui utilisent les splines et la statistique bayésienne seront présentées. De plus, afin de bien comprendre d?où provient la méthode utilisant la statistique bayésienne, une introduction sur la théorie bayésienne sera présentée. À l?aide de simulations, nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours en utilisant des simulations, une analyse plus en profondeur de la nouvelle méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des données réelles. Une brève conclusion fera une récapitulation de ce mémoire.

Moyennage bayésien de modèles de régression linéaire simple Thèses et mémoires dirigés / 2003
Dragomir, Elena Alice
Abstract
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Approximation de la distribution de la distance entre deux courbes empiriques Thèses et mémoires dirigés / 2004
Ouellette, Nadine
Abstract
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Impact de la taille de la partition de l'espace-paramètre sur les résultats des tests d'hypothèses multiples sous différentes fonctions de perte Thèses et mémoires dirigés / 2004
Chassé St-Laurent, Étienne
Abstract
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Modélisation statistique de l'érosion de cavitation d'une turbine hydraulique selon les paramètres d'opération Thèses et mémoires dirigés / 2015-03
Bodson-Clermont, Paule-Marjolaine
Abstract
Dans une turbine hydraulique, la rotation des aubes dans l?eau crée une zone de basse pression, amenant l?eau à passer de l?état liquide à l?état gazeux. Ce phénomène de changement de phase est appelé cavitation et est similaire à l?ébullition. Lorsque les cavités de vapeur formées implosent près des parois, il en résulte une érosion sévère des matériaux, accélérant de façon importante la dégradation de la turbine. Un système de détection de l?érosion de cavitation à l?aide de mesures vibratoires, employable sur les turbines en opération, a donc été installé sur quatre groupes turbine-alternateur d?une centrale et permet d?estimer précisément le taux d?érosion en kg/ 10 000 h. Le présent projet vise à répondre à deux objectifs principaux. Premièrement, étudier le comportement de la cavitation sur un groupe turbine-alternateur cible et construire un modèle statistique, dans le but de prédire la variable cavitation en fonction des variables opératoires (tels l?ouverture de vannage, le débit, les niveaux amont et aval, etc.). Deuxièmement, élaborer une méthodologie permettant la reproductibilité de l?étude à d?autres sites. Une étude rétrospective sera effectuée et on se concentrera sur les données disponibles depuis la mise à jour du système en 2010. Des résultats préliminaires ont mis en évidence l?hétérogénéité du comportement de cavitation ainsi que des changements entre la relation entre la cavitation et diverses variables opératoires. Nous nous proposons de développer un modèle probabiliste adapté, en utilisant notamment le regroupement hiérarchique et des modèles de régression linéaire multiple.

Inférence bayésienne pour la reconstruction d'arbres phylogénétiques Thèses et mémoires dirigés / 2006
Oyarzun, Javier
Abstract
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Quelques utilisations de la densité GEP en analyse bayésienne sur les familles de position-échelle Thèses et mémoires dirigés / 2005
Desgagné, Alain
Abstract
Thèse numérisée par la Direction des bibliothèques de l'Université de Montréal.

Impact du choix de la fonction de perte en segmentation d'images et application à un modèle de couleurs Thèses et mémoires dirigés / 2006
Poirier, Louis-François
Abstract
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Modèles alternatifs en méta-analyse bayésienne sur les rapports de cotes Thèses et mémoires dirigés / 2007
Croteau, Jordie
Abstract
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Estimation non paramétrique bayésienne de courbes de croissance Thèses et mémoires dirigés / 2007
Ubartas, Cindy
Abstract
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

BART applied to insurance Thèses et mémoires dirigés / 2007
Paradis-Therrien, Catherine
Abstract
Mémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.

Publications choisies Tout déplier Tout replier

Bayesian forecasting for time series of categorical data

Jean-François Angers, Atanu Biswas et Raju Maiti, Bayesian forecasting for time series of categorical data , (2016), , Journal of Forecasting

Wavelet-based Bayesian nonlinear regression for the air pollution effects on clinic visits in small areas of Taiwan

Jean-François Angers, Atanu Biswas et Jing-Shiang Hwang, Wavelet-based Bayesian nonlinear regression for the air pollution effects on clinic visits in small areas of Taiwan , (2016), , Communications in Statistics - Simulation and Computation

Some contributions on the multivariate Poisson-Skellam probability distribution

Blache Paul AKPOUE et Jean-François Angers, Some contributions on the multivariate Poisson-Skellam probability distribution , (2016), , Communications in Statistics - Theory and Methods

Air pollution effects on clinic visits in small areas of Taiwan revisited,

Biswas, A., Hwang, J.-S. et Angers, J.-F., , Air pollution effects on clinic visits in small areas of Taiwan revisited, 22, 17-32 (2015), , Environmental and Ecological Statistics (numéro spécial pour SAMSI)

Canadian RCM projected transient changes to precipitation occurrence, intenisty and return level over North America

Jalbert, J, Favre, A-C, Bélisle, C., Angers, J-F et Paquin, D., Canadian RCM projected transient changes to precipitation occurrence, intenisty and return level over North America 28, 6920 (2015), , Journal of climate

Modelling and Estimating Individual and Firm Effects with Count Panel Data

Angers, J.-F., Desjardins, D., Dionne, G. et Guertin, F. , Modelling and Estimating Individual and Firm Effects with Count Panel Data , (2015), , à venir

Some contributions on the multivariate Poisson-Skellam probability distribution

Akpoué, B-P, Angers, J-F, Some contributions on the multivariate Poisson-Skellam probability distribution , (2014), , Communications in Statistics -- Theory and methods

Étude des comportements de sécurité routière des propriétaires, exploitants et conducteurs de véhicules lourds au Québec

Georges Dionne, Jean-François Angers et Denise Desjardins, Étude des comportements de sécurité routière des propriétaires, exploitants et conducteurs de véhicules lourds au Québec 2015-14, 214 pages (2014), , CIRRELT

Hazard function estimation with nonnegative ``wavelets''

Angers, Jean-François et MacGibbon, Brenda, Hazard function estimation with nonnegative ``wavelets'' 83, 969--978 (2013), , Statist. Probab. Lett.

Bayesian nonlinear regression for the air pollution effects on daily clinic visits in small areas of Taiwan

Angers, J.-F., Biswas, A. et Hwang, J-S. , Bayesian nonlinear regression for the air pollution effects on daily clinic visits in small areas of Taiwan 38, 1535-1550 (2009), , Communications in Statistics - Simulation and Computation

Fuzzy Sets In Nonparametric Bayes Regression

ANGERS, J-F. et DELAMPADY, M. , Fuzzy Sets In Nonparametric Bayes Regression , 89-104 (2008), , ISM Collection : Pushing the Limits of Contemporary Statistics : Contributions in Honor of Jayanta K. Ghosh

Bivariate versus univariate ordinal categorical data with reference to an ophthalmologic study

Angers, J.-F. et Biswas, Bivariate versus univariate ordinal categorical data with reference to an ophthalmologic study 78, 489-502 (2008), , Journal of Statistical Computation and Simulation,

Bayesian estimation of the hazard function with randomly right censored data

Angers, J.-F., MacGibbon, B., Bayesian estimation of the hazard function with randomly right censored data , 287-305 (2008), , , Statistical Advances in the Biomedical Sciences: Clinical Trials, Epidemiology, Survival Analysis and Bioinformatics

Bayesian estimation of the hazard function with randomly right censored data

Angers, J.-F., MacGibbon, B., Bayesian estimation of the hazard function with randomly right censored data , 287-305 (2008), , Statistical Advances in the Biomedical Sciences: Clinical Trials, Epidemiology, Survival Analysis and Bioinformatics, Atanu Biswas, Sujay Datta, Jason Fine and Mark Segal, éd. Wiley

Prior model for reconstruction of contingency table

Angers, J.-F., Laberge-Nadeau, C. Bellavance, F., Courchesne, S., Poirier, L.-F., et Allaire, V.C., Prior model for reconstruction of contingency table , 14-24 (2007), , Bayesian Statistics and its Applications (eds : Upadhyay, S.K., Singh, U. et Dey, D.)

Vehicle and fleet random effects in a model of insurance rating for fleets of vehicles

Angers, Jean-François, Desjardins, Denise, Dionne, Georges et Guertin, François, Vehicle and fleet random effects in a model of insurance rating for fleets of vehicles 36, 25--77 (2006), , Astin Bull.

Angers, J.-F. et Kim,

P. Symmetry and Bayesian Function Estimation, Angers, J.-F. et Kim, spéciale pour le Triennial Calcutta Symposium, 57-80 (2005), , Calcutta Statistical Association Bulletin), vol. 56

Multivariate Bayesian function estimation

Angers, Jean-François et Kim, Peter T., Multivariate Bayesian function estimation 33, 2967--2999 (2005), , Ann. Statist.

Symmetry and Bayesian function estimation

Angers, Jean-François et Kim, Peter T., Symmetry and Bayesian function estimation 56, 57--80 (2005), , Calcutta Statist. Assoc. Bull.

A stochastic method for Bayesian estimation of hidden Markov random field models with application to a color model

Destrempes, François, Mignotte, Max et Angers, Jean-François, A stochastic method for Bayesian estimation of hidden Markov random field models with application to a color model 14, 1096--1108 (2005), , IEEE Trans. Image Process.

Importance sampling with the generalized exponential power density

Desgagné, Alain et Angers, Jean-François, Importance sampling with the generalized exponential power density 15, 189--196 (2005), , Stat. Comput.

Fuzzy sets in hierarchical Bayes and robust Bayes inference

Angers, Jean-François et Delampady, Mohan, Fuzzy sets in hierarchical Bayes and robust Bayes inference 38, 1--11 (2004), , J. Statist. Res.

A Bayesian analysis of zero-inflated generalized Poisson model

Angers, Jean-François et Biswas, Atanu, A Bayesian analysis of zero-inflated generalized Poisson model 42, 37--46 (2003), , Comput. Statist. Data Anal.

Estimation of monotone function for data on records

Angers, Jean-François et Biswas, Atanu, Estimation of monotone function for data on records 16, 25--38 (2002), , Braz. J. Probab. Stat.

A new approximation of the posterior distribution of the log-odds ratio

Fredette, Marc et Angers, Jean-François, A new approximation of the posterior distribution of the log-odds ratio 56, 314--329 (2002), , Statist. Neerlandica

A Bayesian adaptive design in clinical trials for continuous responses

Biswas, Atanu et Angers, Jean-François, A Bayesian adaptive design in clinical trials for continuous responses 56, 400--414 (2002), , Statist. Neerlandica

Hierarchical Bayesian locally smoothed curve fitting

Angers, Jean-François et Delampady, Mohan, Hierarchical Bayesian locally smoothed curve fitting 36, 15--28 (2002), , J. Statist. Res.

Bayesian nonparametric regression using wavelets

Angers, Jean-François et Delampady, Mohan, Bayesian nonparametric regression using wavelets 63, 287--308 (2001), , Sankhyà Ser. A

P-credence and outliers

Angers, Jean-François, P-credence and outliers 58, 81--108 (2000), , Metron

Bayesian estimation of intra-block exchangeable normal means with applications

Angers, Jean-François, MacGibbon, Brenda et Wang, Shupei, Bayesian estimation of intra-block exchangeable normal means with applications 60, 198--213 (1998), , Sankhyà Ser. A

Hierarchical Bayesian curve fitting and model choice for spatial data

Angers, Jean-François et Delampady, Mohan, Hierarchical Bayesian curve fitting and model choice for spatial data 59, 28--43 (1997), , Sankhyà Ser. B

Simultaneous estimation of independent means of a Poisson random vector

Paré, Danie, Angers, Jean-François et MacGibbon, Brenda, Simultaneous estimation of independent means of a Poisson random vector 55, 159--176 (1997), , Metron

Fourier transform and Bayes estimator of a location parameter

Angers, Jean-François, Fourier transform and Bayes estimator of a location parameter 29, 353--359 (1996), , Statist. Probab. Lett.

Choice of noninformative priors for the variance components of an unbalanced one-way random model

Belzile, Éric et Angers, Jean-François, Choice of noninformative priors for the variance components of an unbalanced one-way random model 24, 1325--1341 (1995), , Comm. Statist. Theory Methods

Estimating moments of the minimum order statistic from normal populations---a Bayesian approach

Angers, Jean-François et Fong, Duncan K. H., Estimating moments of the minimum order statistic from normal populations---a Bayesian approach 41, 1007--1017 (1994), , Naval Res. Logist.

Hierarchical Bayesian curve fitting and smoothing

Angers, Jean-François et Delampady, Mohan, Hierarchical Bayesian curve fitting and smoothing 20, 35--49 (1992), , Canad. J. Statist.

Robust hierarchical Bayes estimation of exchangeable means

Angers, Jean-François et Berger, James O., Robust hierarchical Bayes estimation of exchangeable means 19, 39--56 (1991), , Canad. J. Statist.

The Stein effect and Bayesian analysis: a reexamination

Angers, Jean-François et Berger, James O., The Stein effect and Bayesian analysis: a reexamination 15, 2005--2023 (1986), , Comm. Statist. A---Theory Methods

Information et famille contaminée de mesures de probabilité a priori

Angers, J.-F. et Colin, B., Information et famille contaminée de mesures de probabilité a priori 30, 1--25 (1985), , Publ. Inst. Statist. Univ. Paris