WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Modélisation spatiale hiérarchique bayésienne de l'apparentement génétique et de l'héritabilité en milieu naturel à  l'aide de marqueurs moléculaires


par Ciré Elimane SALL
Université Montpellier II - Doctorat 2009
  

précédent sommaire suivant

3.1.2 Les méthodes de Monte Carlo par chaines de Markov

Les méthodes de Monte Carlo par chaînes de Markov (MCMC) permettent d'obtenir un échantillon Y1, . . . , Yn de loi ðY sans simuler directement suivant ðY . Le principe général des méthodes MCMC repose sur l'utilisation d'une chaîne de Markov (V)tEN ergodique de loi stationnaire ðY ;

1Cette méthode est appelée importance sampling en anglais

ainsi, si Y t a comme distribution marginale ðY , Y t+1 est aussi marginalement distribué selon ðY (Marin et Robert, 2007). On appelle algorithme MCMC toute méthode produisant une chaîne de Markov ergodique de loi stationnaire la distribution d'intérêt (Robert, 1996). Le théorème ergodique garantit la convergence presque sûre de

1
T

T

E

t=1

h(Y t)

vers EY [h(Y )] = f h(Y )dðY (Y ) lorsque T tend vers l'infini pour toute fonction h réelle dont l'espérance en valeur absolue est finie et ceci quelque soit la distribution initiale (Marin et Robert, 2007).

En inférence bayésienne, la méthode MCMC la plus couramment utilisée pour simuler selon la loi a posteriori ðö|Y (ö|Y ) est celle dite de Metropolis-Hastings (Parent et Bernier, 2007). celle approche, décrite par l'Algorithme 1, repose sur l'utilisation d'une loi dite loi instrumentale ou loi de proposition de densité conditionnelle qö|öt-1(ö|öt-1) et sur le calcul du ratio de MétropolisHasting suivant :

ñ=

fö|Y (ö|Y )
t-1|Y (öt-1|Y )

qöt-1|ö(öt-1|ö)

qö|öt-1(ö|öt-1)

=

fY |ö(Y |ö)fö(ö)

qöt-1|ö(öt-1|ö)

fY |öt-1(Y |öt-1)föt-1(öt-1) qö|öt-1(ö|öt-1)

L'intérêt majeur de l'algorithme de Metropolis-Hastings est qu'il n'est pas nécessaire de calculer les constantes de normalisation. Il suffit donc pour mettre en oeuvre cet algorithme de connaître la loi cible à la constante de normalisation près. Cet algorithme a été d'abord développé par Metropolis et al. (1953) et généralisé plus tard par Hastings (1970). Cependant, bien que, la convergence de l'algorithme de Metropolis-Hastings soit théoriquement garantie pour un large choix de lois de proposition (Roberts et Smith, 1994), le choix de la loi de proposition influence fortement la vitesse de convergence de l'algorithme (Parent et Bernier, 2007). Un mauvais choix de la loi de proposition peut entraîner soit un fort taux de rejet des valeurs proposées et donc la chaîne de Markov bouge difficilement soit une mauvaise exploration du support de la loi cible ðö|Y car la chaîne reste dans un voisinage de la valeur initiale ö0 (Marin et Robert, 2007). Un autre algorithme MCMC est celui de l'échantillonnage de Gibbs qui a été initialement développé par Geman et Geman (1984). Considérons un vecteur ö = (ö1, ... , öK) de dimension K de loi ðö|Y (ö|Y ). Supposons qu'il est possible de simuler selon toutes les lois conditionnelles ðök|ö(-k),Y (ök|ö(-k), Y ), k = 1, ... , K et oil ö(?k) désigne

Algorithme 1 Algorithme de Metropolis-Hastings

Initialisation : choisir ö0

for t from 1 to T do

générer ö ~ qö|öt1(ö|öt-1) et u ~ U[0,1]

fö|Y (ö|Y ) qöt-1|ö(öt-1|ö)

calculer ñ = föt-1|Y (öt-1|Y )qö|öt-1(ö|öt-1)

décider

if u = ñ then öt = ö

else

öt = öt-1

end if end for

le vecteur ö privé de la composante k. L'algorithme d'échantillonnage de Gibbs est donné par l'Algorithme 2. Chaque étape de l'algorithme de Gibbs est en fait scindée en K sous-étapes successives correspondant chacune à la simulation suivant la distribution conditionnelle de l'une des composantes du vecteur ö sachant toutes les autres composantes. La distribution jointe est stationnaire à chacune des K sous-étapes de l'itération t = 1, . . . ,T et si la chaîne est irréductible, elle converge vers ðö|Y pour toute valeur initiale (Marin et Robert, 2007). L'algorithme d'échantillonnage de Gibbs est un cas

Algorithme 2 Algorithme d'échantillonnage de Gibbs

for t from 1 to T do

générer öt1 ~ ðöt 2 , . . . , öt-1

1t-1

2 ,...,öt-1

K ,Y (öt 1|öt-1 K ,Y )

générer öt 2 ~ ðöt K , Y )

2t 1t-1

3 ...,öt-1

K ,Y (öt 1, öt-1

3 . . . , öt-1

...

générer ötK ~ ðöt 3 . . . , öt

Kt 1t 3...,öt K-1,Y (öt 1, öt K-1, Y )

end for

particulier de l'algorithme de Metropolis-Hastings

Alors que la mise en oeuvre de l'algorithme de Metropolis-Hastings exige de connaître la loi a posteriori à une constante multiplicative près, celle de l'algorithme d'échantillonnage de Gibbs exige la connaissance des distributions conditionnelles complètes. Ainsi, l'algorithme de Metropolis-Hastings comparé à celui de l'échantillonnage de Gibbs est générique en ce sens qu'il présente de plus larges possibilités d'utilisation.

Paramètre inconnu

Variable latente

Variable observée

IBD

IBS

Ä

FIG. 3.1 - Graphe acyclique orienté du modèle bayésien hiérarchique

précédent sommaire suivant