Encadrement
Tout déplier
Tout replier
Méthode bayésienne de détection de rupture et/ou de tendance pour des données temporelles
Thèses et mémoires dirigés / 2016-04
Leroux, AlexandreAbstractCe mémoire a pour but de déterminer des nouvelles méthodes de détection
de rupture et/ou de tendance. Après une brève introduction théorique sur les
splines, plusieurs méthodes de détection de rupture existant déjà dans la littérature
seront présentées. Puis, de nouvelles méthodes de détection de rupture qui
utilisent les splines et la statistique bayésienne seront présentées. De plus, afin
de bien comprendre d’où provient la méthode utilisant la statistique bayésienne,
une introduction sur la théorie bayésienne sera présentée. À l’aide de simulations,
nous effectuerons une comparaison de la puissance de toutes ces méthodes. Toujours
en utilisant des simulations, une analyse plus en profondeur de la nouvelle
méthode la plus efficace sera effectuée. Ensuite, celle-ci sera appliquée sur des
données réelles. Une brève conclusion fera une récapitulation de ce mémoire.
Modélisation incrémentale par méthode bayésienne
Thèses et mémoires dirigés / 2016-03
Rosamont Prombo, KevinAbstractLes modèles incrémentaux sont des modèles statistiques qui ont été développés initialement dans le domaine du marketing. Ils sont composés de deux groupes, un groupe contrôle et un groupe traitement, tous deux comparés par rapport à une variable réponse binaire (le choix de réponses est « oui » ou « non »). Ces modèles ont pour but de détecter l’effet du traitement sur les individus à l’étude. Ces individus n’étant pas tous des clients, nous les appellerons : « prospects ». Cet effet peut être négatif, nul ou positif selon les caractéristiques des individus composants les différents groupes.
Ce mémoire a pour objectif de comparer des modèles incrémentaux d’un point de vue bayésien et d’un point de vue fréquentiste. Les modèles incrémentaux utilisés en pratique sont ceux de Lo (2002) et de Lai (2004). Ils sont initialement réalisés d’un point de vue fréquentiste. Ainsi, dans ce mémoire, l’approche bayésienne est utilisée et comparée à l’approche fréquentiste. Les simulations sont e ectuées sur des données générées avec des régressions logistiques. Puis, les paramètres de ces régressions sont estimés avec des simulations Monte-Carlo dans l’approche bayésienne et comparés à ceux obtenus dans l’approche fréquentiste. L’estimation des paramètres a une influence directe sur la capacité du modèle à bien prédire l’effet du traitement sur les individus.
Nous considérons l’utilisation de trois lois a priori pour l’estimation des paramètres de façon bayésienne. Elles sont choisies de manière à ce que les lois a priori soient non informatives. Les trois lois utilisées sont les suivantes : la loi bêta transformée, la loi Cauchy et la loi normale.
Au cours de l’étude, nous remarquerons que les méthodes bayésiennes ont un réel impact positif sur le ciblage des individus composant les échantillons de petite taille.
Développement d’un modèle de classification probabiliste pour la cartographie du couvert nival dans les bassins versants d’Hydro-Québec à l’aide de données de micro-ondes passives
Thèses et mémoires dirigés / 2015-09
Teasdale, MylèneAbstractChaque jour, des décisions doivent être prises quant à la quantité d'hydroélectricité produite au Québec. Ces décisions reposent sur la prévision des apports en eau dans les bassins versants produite à l'aide de modèles hydrologiques. Ces modèles prennent en compte plusieurs facteurs, dont notamment la présence ou l'absence de neige au sol. Cette information est primordiale durant la fonte printanière pour anticiper les apports à venir, puisqu'entre 30 et 40% du volume de crue peut provenir de la fonte du couvert nival. Il est donc nécessaire pour les prévisionnistes de pouvoir suivre l'évolution du couvert de neige de façon quotidienne afin d'ajuster leurs prévisions selon le phénomène de fonte. Des méthodes pour cartographier la neige au sol sont actuellement utilisées à l'Institut de recherche d'Hydro-Québec (IREQ), mais elles présentent quelques lacunes.
Ce mémoire a pour objectif d'utiliser des données de télédétection en micro-ondes passives (le gradient de températures de brillance en position verticale (GTV)) à l'aide d'une approche statistique afin de produire des cartes neige/non-neige et d'en quantifier l'incertitude de classification. Pour ce faire, le GTV a été utilisé afin de calculer une probabilité de neige quotidienne via les mélanges de lois normales selon la statistique bayésienne. Par la suite, ces probabilités ont été modélisées à l'aide de la régression linéaire sur les logits et des cartographies du couvert nival ont été produites. Les résultats des modèles ont été validés qualitativement et quantitativement, puis leur intégration à Hydro-Québec a été discutée.
Régression logistique bayésienne : comparaison de
densités a priori
Thèses et mémoires dirigés / 2015-07
Deschênes, AlexandreAbstractLa régression logistique est un modèle de régression linéaire généralisée
(GLM) utilisé pour des variables à expliquer binaires. Le modèle cherche à
estimer la probabilité de succès de cette variable par la linéarisation de variables
explicatives. Lorsque l’objectif est d’estimer le plus précisément l’impact
de différents incitatifs d’une campagne marketing (coefficients de la régression
logistique), l’identification de la méthode d’estimation la plus précise
est recherchée. Nous comparons, avec la méthode MCMC d’échantillonnage
par tranche, différentes densités a priori spécifiées selon différents types de
densités, paramètres de centralité et paramètres d’échelle. Ces comparaisons
sont appliquées sur des échantillons de différentes tailles et générées par différentes
probabilités de succès. L’estimateur du maximum de vraisemblance, la
méthode de Gelman et celle de Genkin viennent compléter le comparatif. Nos
résultats démontrent que trois méthodes d’estimations obtiennent des estimations
qui sont globalement plus précises pour les coefficients de la régression
logistique : la méthode MCMC d’échantillonnage par tranche avec une densité
a priori normale centrée en 0 de variance 3,125, la méthode MCMC d’échantillonnage
par tranche avec une densité Student à 3 degrés de liberté aussi centrée
en 0 de variance 3,125 ainsi que la méthode de Gelman avec une densité
Cauchy centrée en 0 de paramètre d’échelle 2,5.
Approche bayésienne de la construction d'intervalles de crédibilité simultanés à partir de courbes simulées
Thèses et mémoires dirigés / 2015-07
Lapointe, Marc-ÉlieAbstractCe mémoire porte sur la simulation d'intervalles de crédibilité simultanés dans un contexte bayésien. Dans un premier temps, nous nous intéresserons à des données de précipitations et des fonctions basées sur ces données : la fonction de répartition empirique et la période de retour, une fonction non linéaire de la fonction de répartition. Nous exposerons différentes méthodes déjà connues pour obtenir des intervalles de confiance simultanés sur ces fonctions à l'aide d'une base polynomiale et nous présenterons une méthode de simulation d'intervalles de crédibilité simultanés. Nous nous placerons ensuite dans un contexte bayésien en explorant différents modèles de densité a priori. Pour le modèle le plus complexe, nous aurons besoin d'utiliser la simulation Monte-Carlo pour obtenir les intervalles de crédibilité simultanés a posteriori. Finalement, nous utiliserons une base non linéaire faisant appel à la transformation angulaire et aux splines monotones pour obtenir un intervalle de crédibilité simultané valide pour la période de retour.
Tests pour la dépendance entre les sections dans un modèle de Poisson
Thèses et mémoires dirigés / 2015-05
Roussel, ArnaudAbstractPour des données de panel, les mesures répétées dans le temps peuvent remettre
en cause l’hypothèse d’indépendance entre les individus. Des tests ont été
développés pour pouvoir vérifier s’il reste de la dépendance entre les résidus d’un
modèle. Les trois tests que nous présentons dans ce mémoire sont ceux de Pesaran
(2004), Friedman (1937) et Frees (1995). Ces trois tests se basent sur les résidus
(et leurs corrélations) et ont été construits pour des modèles linéaires. Nous voulons
étudier dans ce mémoire les performances de ces trois tests dans le cadre d’un
modèle linéaire généralisé de Poisson. Dans ce but, on compare tout d’abord leurs
performances (niveaux et puissances) pour deux modèles linéaires, l’un ayant un
terme autorégressif et l’autre non. Par la suite, nous nous intéressons à leurs performances
pour un modèle linéaire généralisé de Poisson en s’inspirant de Hsiao,
Pesaran et Pick (2007) qui adaptent le test de Pesaran (2004) pour un modèle
linéaire généralisé. Toutes nos comparaisons de performances se feront à l’aide de
simulations dans lesquelles nous ferons varier un certain nombre de paramètres
(nombre d’observations, force de la dépendance, etc.). Nous verrons que lorsque
les corrélations sont toutes du même signe, le test de Pesaran donne en général
de meilleurs résultats, à la fois dans les cas linéaires et pour le modèle linéaire
généralisé. Le test de Frees présentera de bonnes propriétés dans le cas où le signe
des corrélations entre les résidus alterne.
Modélisation statistique de l’érosion de cavitation d’une turbine hydraulique selon les
paramètres d’opération
Thèses et mémoires dirigés / 2015-03
Bodson-Clermont, Paule-MarjolaineAbstractDans une turbine hydraulique, la rotation des aubes dans l’eau crée une zone
de basse pression, amenant l’eau à passer de l’état liquide à l’état gazeux. Ce phénomène de changement de phase est appelé cavitation et est similaire à l’ébullition.
Lorsque les cavités de vapeur formées implosent près des parois, il en résulte
une érosion sévère des matériaux, accélérant de façon importante la dégradation
de la turbine. Un système de détection de l’érosion de cavitation à l’aide de mesures
vibratoires, employable sur les turbines en opération, a donc été installé
sur quatre groupes turbine-alternateur d’une centrale et permet d’estimer précisément
le taux d’érosion en kg/ 10 000 h.
Le présent projet vise à répondre à deux objectifs principaux. Premièrement,
étudier le comportement de la cavitation sur un groupe turbine-alternateur cible
et construire un modèle statistique, dans le but de prédire la variable cavitation en
fonction des variables opératoires (tels l’ouverture de vannage, le débit, les niveaux
amont et aval, etc.). Deuxièmement, élaborer une méthodologie permettant la
reproductibilité de l’étude à d’autres sites. Une étude rétrospective sera effectuée
et on se concentrera sur les données disponibles depuis la mise à jour du système
en 2010.
Des résultats préliminaires ont mis en évidence l’hétérogénéité du comportement
de cavitation ainsi que des changements entre la relation entre la cavitation
et diverses variables opératoires. Nous nous proposons de développer un modèle
probabiliste adapté, en utilisant notamment le regroupement hiérarchique et des
modèles de régression linéaire multiple.
Différents procédés statistiques pour détecter la non-stationnarité dans les séries de précipitation
Thèses et mémoires dirigés / 2014-04
Charette, KevinAbstractCe mémoire a pour objectif de déterminer si les précipitations convectives estivales simulées par le modèle régional canadien du climat (MRCC) sont stationnaires ou non à travers le temps. Pour répondre à cette question, nous proposons une méthodologie statistique de type fréquentiste et une de type bayésien. Pour l'approche fréquentiste, nous avons utilisé le contrôle de qualité standard ainsi que le CUSUM afin de déterminer si la moyenne a augmenté à travers les années. Pour l'approche bayésienne, nous avons comparé la distribution a posteriori des précipitations dans le temps. Pour ce faire, nous avons modélisé la densité \emph{a posteriori} d'une période donnée et nous l'avons comparée à la densité a posteriori d'une autre période plus éloignée dans le temps. Pour faire la comparaison, nous avons utilisé une statistique basée sur la distance d'Hellinger, la J-divergence ainsi que la norme L2. Au cours de ce mémoire, nous avons utilisé l'ARL (longueur moyenne de la séquence) pour calibrer et pour comparer chacun de nos outils. Une grande partie de ce mémoire sera donc dédiée à l'étude de l'ARL. Une fois nos outils bien calibrés, nous avons utilisé les simulations pour les comparer. Finalement, nous avons analysé les données du MRCC pour déterminer si elles sont stationnaires ou non.
Inférence topologique
Thèses et mémoires dirigés / 2014-02
Prévost, NoémieAbstractLes données provenant de l'échantillonnage fin d'un processus continu (champ aléatoire) peuvent être représentées sous forme d'images. Un test statistique permettant de détecter une différence entre deux images peut être vu comme un ensemble de tests où chaque pixel est comparé au pixel correspondant de l'autre image. On utilise alors une méthode de contrôle de l'erreur de type I au niveau de l'ensemble de tests, comme la correction de Bonferroni ou le contrôle du taux de faux-positifs (FDR). Des méthodes d'analyse de données ont été développées en imagerie médicale, principalement par Keith Worsley, utilisant la géométrie des champs aléatoires afin de construire un test statistique global sur une image entière. Il s'agit d'utiliser l'espérance de la caractéristique d'Euler de l'ensemble d'excursion du champ aléatoire sous-jacent à l'échantillon au-delà d'un seuil donné, pour déterminer la probabilité que le champ aléatoire dépasse ce même seuil sous l'hypothèse nulle (inférence topologique).
Nous exposons quelques notions portant sur les champs aléatoires, en particulier l'isotropie (la fonction de covariance entre deux points du champ dépend seulement de la distance qui les sépare). Nous discutons de deux méthodes pour l'analyse des champs anisotropes. La première consiste à déformer le champ puis à utiliser les volumes intrinsèques et les compacités de la caractéristique d'Euler. La seconde utilise plutôt les courbures de Lipschitz-Killing. Nous faisons ensuite une étude de niveau et de puissance de l'inférence topologique en comparaison avec la correction de Bonferroni.
Finalement, nous utilisons l'inférence topologique pour décrire l'évolution du changement climatique sur le territoire du Québec entre 1991 et 2100, en utilisant des données de température simulées et publiées par l'Équipe Simulations climatiques d'Ouranos selon le modèle régional canadien du climat.
Modélisation de l'espérance de vie des clients en assurance
Thèses et mémoires dirigés / 2013-04
Cyr, Pierre LucAbstractDans ce mémoire, nous proposons une méthodologie statistique permettant
d’obtenir un estimateur de l’espérance de vie des clients en assurance. Les
prédictions effectuées tiennent compte des caractéristiques individuelles des
clients, notamment du fait qu’ils peuvent détenir différents types de produits
d’assurance (automobile, résidentielle ou les deux). Trois approches sont comparées.
La première approche est le modèle de Markov simple, qui suppose à
la fois l’homogénéité et la stationnarité des probabilités de transition. L’autre
modèle – qui a été implémenté par deux approches, soit une approche directe
et une approche par simulations – tient compte de l’hétérogénéité des probabilités
de transition, ce qui permet d’effectuer des prédictions qui évoluent avec
les caractéristiques des individus dans le temps. Les probabilités de transition
de ce modèle sont estimées par des régressions logistiques multinomiales.
Validation des modèles statistiques tenant compte des variables dépendantes du temps en prévention primaire des maladies cérébrovasculaires
Thèses et mémoires dirigés / 2012-07
Kis, LoredanaAbstractL’intérêt principal de cette recherche porte sur la validation d’une méthode
statistique en pharmaco-épidémiologie. Plus précisément, nous allons comparer
les résultats d’une étude précédente réalisée avec un devis cas-témoins niché dans
la cohorte utilisé pour tenir compte de l’exposition moyenne au traitement :
– aux résultats obtenus dans un devis cohorte, en utilisant la variable exposition
variant dans le temps, sans faire d’ajustement pour le temps passé
depuis l’exposition ;
– aux résultats obtenus en utilisant l’exposition cumulative pondérée par le
passé récent ;
– aux résultats obtenus selon la méthode bayésienne.
Les covariables seront estimées par l’approche classique ainsi qu’en utilisant
l’approche non paramétrique bayésienne. Pour la deuxième le moyennage bayésien
des modèles sera utilisé pour modéliser l’incertitude face au choix des modèles.
La technique utilisée dans l’approche bayésienne a été proposée en 1997 mais
selon notre connaissance elle n’a pas été utilisée avec une variable dépendante du
temps. Afin de modéliser l’effet cumulatif de l’exposition variant dans le temps,
dans l’approche classique la fonction assignant les poids selon le passé récent sera
estimée en utilisant des splines de régression.
Afin de pouvoir comparer les résultats avec une étude précédemment réalisée,
une cohorte de personnes ayant un diagnostique d’hypertension sera construite
en utilisant les bases des données de la RAMQ et de Med-Echo.
Le modèle de Cox incluant deux variables qui varient dans le temps sera
utilisé. Les variables qui varient dans le temps considérées dans ce mémoire sont
iv
la variable dépendante (premier évènement cérébrovasculaire) et une des variables
indépendantes, notamment l’exposition
Modélisation bayésienne des changements aux niches écologiques causés par le réchauffement climatique
Thèses et mémoires dirigés / 2012-05
Akpoué, Blache PaulAbstractCette thèse présente des méthodes de traitement de données de comptage en particulier et des données discrètes en général. Il s'inscrit dans le cadre d'un projet stratégique du CRNSG, nommé CC-Bio, dont l'objectif est d'évaluer l'impact des changements climatiques sur la répartition des espèces animales et végétales.
Après une brève introduction aux notions de biogéographie et aux modèles linéaires mixtes généralisés aux chapitres 1 et 2 respectivement, ma thèse s'articulera autour de trois idées majeures.
Premièrement, nous introduisons au chapitre 3 une nouvelle forme de distribution dont les composantes ont pour distributions marginales des lois de Poisson ou des lois de Skellam. Cette nouvelle spécification permet d'incorporer de l'information pertinente sur la nature des corrélations entre toutes les composantes. De plus, nous présentons certaines propriétés de ladite distribution. Contrairement à la distribution multidimensionnelle de Poisson qu'elle généralise, celle-ci permet de traiter les variables avec des corrélations positives et/ou négatives. Une simulation permet d'illustrer les méthodes d'estimation dans le cas bidimensionnel. Les résultats obtenus par les méthodes bayésiennes par les chaînes de Markov par Monte Carlo (CMMC) indiquent un biais relatif assez faible de moins de 5% pour les coefficients de régression des moyennes contrairement à ceux du terme de covariance qui semblent un peu plus volatils.
Deuxièmement, le chapitre 4 présente une extension de la régression multidimensionnelle de Poisson avec des effets aléatoires ayant une densité gamma. En effet, conscients du fait que les données d'abondance des espèces présentent une forte dispersion, ce qui rendrait fallacieux les estimateurs et écarts types obtenus, nous privilégions une approche basée sur l'intégration par Monte Carlo grâce à l'échantillonnage préférentiel. L'approche demeure la même qu'au chapitre précédent, c'est-à-dire que l'idée est de simuler des variables latentes indépendantes et de se retrouver dans le cadre d'un modèle linéaire mixte généralisé (GLMM) conventionnel avec des effets aléatoires de densité gamma. Même si l'hypothèse d'une connaissance a priori des paramètres de dispersion semble trop forte, une analyse de sensibilité basée sur la qualité de l'ajustement permet de démontrer la robustesse de notre méthode.
Troisièmement, dans le dernier chapitre, nous nous intéressons à la définition et à la construction d'une mesure de concordance donc de corrélation pour les données augmentées en zéro par la modélisation de copules gaussiennes. Contrairement au tau de Kendall dont les valeurs se situent dans un intervalle dont les bornes varient selon la fréquence d'observations d'égalité entre les paires, cette mesure a pour avantage de prendre ses valeurs sur (-1;1). Initialement introduite pour modéliser les corrélations entre des variables continues, son extension au cas discret implique certaines restrictions. En effet, la nouvelle mesure pourrait être interprétée comme la corrélation entre les variables aléatoires continues dont la discrétisation constitue nos observations discrètes non négatives. Deux méthodes d'estimation des modèles augmentés en zéro seront présentées dans les contextes fréquentiste et bayésien basées respectivement sur le maximum de vraisemblance et l'intégration de Gauss-Hermite. Enfin, une étude de simulation permet de montrer la robustesse et les limites de notre approche.
Utilisation de splines monotones afin de condenser des tables de mortalité dans un contexte bayésien
Thèses et mémoires dirigés / 2011-04
Patenaude, ValérieAbstractDans ce mémoire, nous cherchons à modéliser des tables à deux entrées monotones
en lignes et/ou en colonnes, pour une éventuelle application sur les tables
de mortalité. Nous adoptons une approche bayésienne non paramétrique et représentons
la forme fonctionnelle des données par splines bidimensionnelles. L’objectif
consiste à condenser une table de mortalité, c’est-à-dire de réduire l’espace
d’entreposage de la table en minimisant la perte d’information. De même, nous
désirons étudier le temps nécessaire pour reconstituer la table.
L’approximation doit conserver les mêmes propriétés que la table de référence,
en particulier la monotonie des données. Nous travaillons avec une base
de fonctions splines monotones afin d’imposer plus facilement la monotonie au
modèle. En effet, la structure flexible des splines et leurs dérivées faciles à manipuler
favorisent l’imposition de contraintes sur le modèle désiré. Après un rappel
sur la modélisation unidimensionnelle de fonctions monotones, nous généralisons
l’approche au cas bidimensionnel. Nous décrivons l’intégration des contraintes de
monotonie dans le modèle a priori sous l’approche hiérarchique bayésienne. Ensuite,
nous indiquons comment obtenir un estimateur a posteriori à l’aide des
méthodes de Monte Carlo par chaînes de Markov. Finalement, nous étudions le
comportement de notre estimateur en modélisant une table de la loi normale ainsi
qu’une table t de distribution de Student. L’estimation de nos données d’intérêt,
soit la table de mortalité, s’ensuit afin d’évaluer l’amélioration de leur accessibilité.
Analyse bayésienne et classification pour modèles continus modifiés à zéro
Thèses et mémoires dirigés / 2010-08
Labrecque-Synnott, FélixAbstractLes modèles à sur-représentation de zéros discrets et continus ont une large gamme d'applications et leurs propriétés sont bien connues. Bien qu'il existe des travaux portant sur les modèles discrets à sous-représentation de zéro et modifiés à zéro, la formulation usuelle des modèles continus à sur-représentation -- un mélange entre une densité continue et une masse de Dirac -- empêche de les généraliser afin de couvrir le cas de la sous-représentation de zéros. Une formulation alternative des modèles continus à sur-représentation de zéros, pouvant aisément être généralisée au cas de la sous-représentation, est présentée ici. L'estimation est d'abord abordée sous le paradigme classique, et plusieurs méthodes d'obtention des estimateurs du maximum de vraisemblance sont proposées. Le problème de l'estimation ponctuelle est également considéré du point de vue bayésien. Des tests d'hypothèses classiques et bayésiens visant à déterminer si des données sont à sur- ou sous-représentation de zéros sont présentées. Les méthodes d'estimation et de tests sont aussi évaluées au moyen d'études de simulation et appliquées à des données de précipitation agrégées. Les diverses méthodes s'accordent sur la sous-représentation de zéros des données, démontrant la pertinence du modèle proposé.
Nous considérons ensuite la classification d'échantillons de données à sous-représentation de zéros. De telles données étant fortement non normales, il est possible de croire que les méthodes courantes de détermination du nombre de grappes s'avèrent peu performantes. Nous affirmons que la classification bayésienne, basée sur la distribution marginale des observations, tiendrait compte des particularités du modèle, ce qui se traduirait par une meilleure performance. Plusieurs méthodes de classification sont comparées au moyen d'une étude de simulation, et la méthode proposée est appliquée à des données de précipitation agrégées provenant de 28 stations de mesure en Colombie-Britannique.
Modélisation bayésienne avec des splines du comportement moyen d'un échantillon de courbes
Thèses et mémoires dirigés / 2009-08
Merleau, JamesAbstractCette thèse porte sur l'analyse bayésienne de données fonctionnelles dans un contexte hydrologique. L'objectif principal
est de modéliser des données d'écoulements d'eau d'une manière parcimonieuse tout en reproduisant adéquatement les caractéristiques statistiques de celles-ci. L'analyse de données fonctionnelles nous amène à considérer les séries chronologiques
d'écoulements d'eau comme des fonctions à modéliser avec une méthode non paramétrique. Dans un premier temps, les fonctions sont rendues plus homogènes en les synchronisant. Ensuite, disposant d'un échantillon de courbes homogènes, nous procédons à la modélisation de leurs caractéristiques statistiques en faisant appel aux splines de régression bayésiennes dans un cadre probabiliste assez général.
Plus spécifiquement, nous étudions une famille de distributions continues, qui inclut celles de la famille exponentielle, de laquelle les observations peuvent provenir. De plus, afin d'avoir un outil de modélisation non paramétrique flexible, nous traitons les noeuds intérieurs, qui
définissent les éléments de la base des splines de régression, comme des quantités aléatoires. Nous utilisons alors le MCMC avec sauts réversibles afin d'explorer la distribution a posteriori des noeuds intérieurs. Afin de simplifier cette procédure dans notre contexte général de modélisation, nous considérons des approximations de la distribution marginale des observations, nommément une approximation basée sur le critère d'information de Schwarz et une autre qui fait appel à l'approximation de Laplace. En plus de modéliser la tendance centrale d'un échantillon de courbes, nous proposons aussi une méthodologie pour modéliser simultanément la tendance centrale et
la dispersion de ces courbes, et ce dans notre cadre probabiliste général. Finalement, puisque nous étudions une diversité de distributions statistiques au niveau des observations, nous mettons de l'avant une approche afin de déterminer les distributions les plus adéquates pour
un échantillon de courbes donné.
Statistical methods for insurance fraud detection
Thèses et mémoires dirigés / 2008
Poissant, MathieuAbstractMémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
BART applied to insurance
Thèses et mémoires dirigés / 2007
Paradis-Therrien, CatherineAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Estimation non paramétrique bayésienne de courbes de croissance
Thèses et mémoires dirigés / 2007
Ubartas, CindyAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Modèles alternatifs en méta-analyse bayésienne sur les rapports de cotes
Thèses et mémoires dirigés / 2007
Croteau, JordieAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Modèle bayésien pour les prêts investisseurs
Thèses et mémoires dirigés / 2006
Bouvrette, MathieuAbstractMémoire numérisé par la Division de la gestion de documents et des archives de l'Université de Montréal.
Impact du choix de la fonction de perte en segmentation d'images et application à un modèle de couleurs
Thèses et mémoires dirigés / 2006
Poirier, Louis-FrançoisAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Inférence bayésienne pour la reconstruction d'arbres phylogénétiques
Thèses et mémoires dirigés / 2006
Oyarzun, JavierAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Quelques utilisations de la densité GEP en analyse bayésienne sur les familles de position-échelle
Thèses et mémoires dirigés / 2005
Desgagné, AlainAbstractThèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Impact de la taille de la partition de l'espace-paramètre sur les résultats des tests d'hypothèses multiples sous différentes fonctions de perte
Thèses et mémoires dirigés / 2004
Chassé St-Laurent, ÉtienneAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Approximation de la distribution de la distance entre deux courbes empiriques
Thèses et mémoires dirigés / 2004
Ouellette, NadineAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Moyennage bayésien de modèles de régression linéaire simple
Thèses et mémoires dirigés / 2003
Dragomir, AliceAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Analyse du degré d'association entre l'usage du téléphone mobile pendant la conduite et les accidents de voiture
Thèses et mémoires dirigés / 2002
Courchesne, StéphaneAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Utilisation des ondelettes de Haar en estimation bayésienne
Thèses et mémoires dirigés / 2001
Leblanc, AlexandreAbstractThèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Conception de systèmes experts d'identification de cibles à l'aide de la logique floue
Thèses et mémoires dirigés / 2001
Bouchard, PascalAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Une approche bayésienne de la classification hiérarchique
Thèses et mémoires dirigés / 2000
Labbe, AurélieAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Estimateurs d'Horvitz-Thompson robustes basés sur des modèles bayésiens
Thèses et mémoires dirigés / 2000
Pierre, FritzAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Approche bayésienne pour estimer le rapport de cotes dans un tableau de contingence 2 X 2
Thèses et mémoires dirigés / 1999
Fredette, MarcAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Approche bayésienne à la classification de patients séropositifs
Thèses et mémoires dirigés / 1999
Robert, Anne-MarieAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
On robust credibility models for premiums, including weighted regression
Thèses et mémoires dirigés / 1998
Pitselis, GeorgiosAbstractThèse numérisée par la Direction des bibliothèques de l'Université de Montréal.
Comparaison bayésienne de coûts entre deux traitements pour des mélanges de lois
Thèses et mémoires dirigés / 1998
Desgagné, AlainAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Approche bayésienne de la régression poissonienne
Thèses et mémoires dirigés / 1998
Vachon, MarylèneAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Modèle de régression bayésien alternatif permettant la détection des valeurs aberrantes
Thèses et mémoires dirigés / 1997
Lemire, Marie-HélèneAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Estimation bayésienne de données directionnelles à l'aide de la densité normale enroulée
Thèses et mémoires dirigés / 1996
Paquet, SteeveAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Approximation des règles de Bayes pour des paramètres non négatifs
Thèses et mémoires dirigés / 1996
Dickner, MarcoAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Utilisation de la transformée de Fourier rapide en estimation bayésienne
Thèses et mémoires dirigés / 1995
Leblanc, AlexandreAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Estimation bayésienne des paramètres d'un modèle contaminé
Thèses et mémoires dirigés / 1995
Houle, Anne-MarieAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Estimation bayésienne dans un modèle d'analyse de variance non-équilibré à un facteur avec effet aléatoire
Thèses et mémoires dirigés / 1994
Belzile, EricAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.
Estimation bayésienne d'une fonction avec contraintes
Thèses et mémoires dirigés / 1992
Bennaghmouch, ZouhaïrAbstractMémoire numérisé par la Direction des bibliothèques de l'Université de Montréal.