Passer au contenu

/ Département de mathématiques et de statistique

Rechercher

 

Bédard, Mylène

Vcard

Professeure agrégée

Faculté des arts et des sciences - Département de mathématiques et de statistique

André-Aisenstadt local 4223

514 343-6111 ext 2727

Courriels

Cours donnés

  • ACT3251 A - Théorie du risque

Expertises

Encadrement Tout déplier Tout replier

Étude de la performance d'un algorithme Metropolis-Hastings avec ajustement directionnel Thèses et mémoires dirigés / 2011-08
Mireuta, Matei
Abstract
Les méthodes de Monte Carlo par chaîne de Markov (MCMC) sont des outils très populaires pour l?échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Étant donné leur facilité d?application, ces méthodes sont largement répandues dans plusieurs communautés scientifiques et bien certainement en statistique, particulièrement en analyse bayésienne. Depuis l?apparition de la première méthode MCMC en 1953, le nombre de ces algorithmes a considérablement augmenté et ce sujet continue d?être une aire de recherche active. Un nouvel algorithme MCMC avec ajustement directionnel a été récemment développé par Bédard et al. (IJSS, 9 :2008) et certaines de ses propriétés restent partiellement méconnues. L?objectif de ce mémoire est de tenter d?établir l?impact d?un paramètre clé de cette méthode sur la performance globale de l?approche. Un second objectif est de comparer cet algorithme à d?autres méthodes MCMC plus versatiles afin de juger de sa performance de façon relative.

New simulation schemes for the Heston model Thèses et mémoires dirigés / 2012-06
Bégin, Jean-François
Abstract
Les titres financiers sont souvent modélisés par des équations différentielles stochastiques (ÉDS). Ces équations peuvent décrire le comportement de l'actif, et aussi parfois certains paramètres du modèle. Par exemple, le modèle de Heston (1993), qui s'inscrit dans la catégorie des modèles à volatilité stochastique, décrit le comportement de l'actif et de la variance de ce dernier. Le modèle de Heston est très intéressant puisqu'il admet des formules semi-analytiques pour certains produits dérivés, ainsi qu'un certain réalisme. Cependant, la plupart des algorithmes de simulation pour ce modèle font face à quelques problèmes lorsque la condition de Feller (1951) n'est pas respectée. Dans ce mémoire, nous introduisons trois nouveaux algorithmes de simulation pour le modèle de Heston. Ces nouveaux algorithmes visent à accélérer le célèbre algorithme de Broadie et Kaya (2006); pour ce faire, nous utiliserons, entre autres, des méthodes de Monte Carlo par chaînes de Markov (MCMC) et des approximations. Dans le premier algorithme, nous modifions la seconde étape de la méthode de Broadie et Kaya afin de l'accélérer. Alors, au lieu d'utiliser la méthode de Newton du second ordre et l'approche d'inversion, nous utilisons l'algorithme de Metropolis-Hastings (voir Hastings (1970)). Le second algorithme est une amélioration du premier. Au lieu d'utiliser la vraie densité de la variance intégrée, nous utilisons l'approximation de Smith (2007). Cette amélioration diminue la dimension de l'équation caractéristique et accélère l'algorithme. Notre dernier algorithme n'est pas basé sur une méthode MCMC. Cependant, nous essayons toujours d'accélérer la seconde étape de la méthode de Broadie et Kaya (2006). Afin de réussir ceci, nous utilisons une variable aléatoire gamma dont les moments sont appariés à la vraie variable aléatoire de la variance intégrée par rapport au temps. Selon Stewart et al. (2007), il est possible d'approximer une convolution de variables aléatoires gamma (qui ressemble beaucoup à la représentation donnée par Glasserman et Kim (2008) si le pas de temps est petit) par une simple variable aléatoire gamma.

Recyclage des candidats dans l'algorithme Metropolis à essais multiples Thèses et mémoires dirigés / 2014-03
Groiez, Assia
Abstract
Les méthodes de Monte Carlo par chaînes de Markov (MCCM) sont des méthodes servant à échantillonner à partir de distributions de probabilité. Ces techniques se basent sur le parcours de chaînes de Markov ayant pour lois stationnaires les distributions à échantillonner. Étant donné leur facilité d?application, elles constituent une des approches les plus utilisées dans la communauté statistique, et tout particulièrement en analyse bayésienne. Ce sont des outils très populaires pour l?échantillonnage de lois de probabilité complexes et/ou en grandes dimensions. Depuis l?apparition de la première méthode MCCM en 1953 (la méthode de Metropolis, voir [10]), l?intérêt pour ces méthodes, ainsi que l?éventail d?algorithmes disponibles ne cessent de s?accroître d?une année à l?autre. Bien que l?algorithme Metropolis-Hastings (voir [8]) puisse être considéré comme l?un des algorithmes de Monte Carlo par chaînes de Markov les plus généraux, il est aussi l?un des plus simples à comprendre et à expliquer, ce qui en fait un algorithme idéal pour débuter. Il a été sujet de développement par plusieurs chercheurs. L?algorithme Metropolis à essais multiples (MTM), introduit dans la littérature statistique par [9], est considéré comme un développement intéressant dans ce domaine, mais malheureusement son implémentation est très coûteuse (en termes de temps). Récemment, un nouvel algorithme a été développé par [1]. Il s?agit de l?algorithme Metropolis à essais multiples revisité (MTM revisité), qui définit la méthode MTM standard mentionnée précédemment dans le cadre de l?algorithme Metropolis-Hastings sur un espace étendu. L?objectif de ce travail est, en premier lieu, de présenter les méthodes MCCM, et par la suite d?étudier et d?analyser les algorithmes Metropolis-Hastings ainsi que le MTM standard afin de permettre aux lecteurs une meilleure compréhension de l?implémentation de ces méthodes. Un deuxième objectif est d?étudier les perspectives ainsi que les inconvénients de l?algorithme MTM revisité afin de voir s?il répond aux attentes de la communauté statistique. Enfin, nous tentons de combattre le problème de sédentarité de l?algorithme MTM revisité, ce qui donne lieu à un tout nouvel algorithme. Ce nouvel algorithme performe bien lorsque le nombre de candidats générés à chaque itérations est petit, mais sa performance se dégrade à mesure que ce nombre de candidats croît.

Publications choisis Tout déplier Tout replier

On the empirical efficiency of local MCMC algorithms with pools of proposals

Bédard, Mylène et Mireuta, Matei, On the empirical efficiency of local MCMC algorithms with pools of proposals 41, 657--678 (2013), , Canad. J. Statist.

Scaling analysis of multiple-try MCMC methods

Bédard, Mylène, Douc, Randal et Moulines, Eric, Scaling analysis of multiple-try MCMC methods 122, 758--786 (2012), , Stochastic Process. Appl.

Simulating from the Heston model: A gamma approximation scheme

Bégin, Jean-François, Bédard, Mylène et Gaillardetz, P., Simulating from the Heston model: A gamma approximation scheme , 24 (2012), , Quantitative Finance

Scaling analysis of delayed rejection MCMC methods

Bédard, Mylène, Douc, Randal et Moulines, Eric, Scaling analysis of delayed rejection MCMC methods , 28 (2010), , Methodology & Computing in Applied Probability

On a directionally adjusted Metropolis-Hastings algorithm

Bédard, Mylène et Fraser, D.A.S. , On a directionally adjusted Metropolis-Hastings algorithm 9, 33-57 (2009), , International Journal of Statistical Sciences

Optimal scaling of Metropolis algorithms: heading toward general target distributions

Bédard, Mylène et Rosenthal, Jeffrey S., Optimal scaling of Metropolis algorithms: heading toward general target distributions 36, 483--503 (2008), , Canad. J. Statist.

Efficient sampling using Metropolis algorithms: applications of optimal scaling results

Bédard, Mylène, Efficient sampling using Metropolis algorithms: applications of optimal scaling results 17, 312--332 (2008), , J. Comput. Graph. Statist.

Optimal acceptance rates for Metropolis algorithms: moving beyond 0.234

Bédard, Mylène, Optimal acceptance rates for Metropolis algorithms: moving beyond 0.234 118, 2198--2222 (2008), , Stochastic Process. Appl.

Higher accuracy for Bayesian and frequentist inference: large sample theory for small sample likelihood

Bédard, M., Fraser, D. A. S. et Wong, A., Higher accuracy for Bayesian and frequentist inference: large sample theory for small sample likelihood 22, 301--321 (2007), , Statist. Sci.

Weak convergence of Metropolis algorithms for non-i.i.d. target distributions

Bédard, Mylène, Weak convergence of Metropolis algorithms for non-i.i.d. target distributions 17, 1222--1244 (2007), , Ann. Appl. Probab.