WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Etude des Phénomènes Critiques par les Méthodes de Monte Carlo : Cas du modèle d'Ising à 2 D pour la transition de phase Ferro<->Para

( Télécharger le fichier original )
par Rostand Choisy TCHUENTE
Université de Douala - Cameroun - Maîtrise / Master en Physique (Physique de la matière condensée) 2006
  

précédent sommaire suivant

1.C. Principes de la simulation de Monte Carlo à l'équilibre thermique

Il est à présent question pour nous de présenter les éléments de base de la simulations par Monte Carlo, à travers les trois idées maîtresses : « l'échantillonnage important», « la balance détaillé » et le « rapport d'acceptation ». Maîtriser le sens de ces termes nous offrira d'avantage informations sur la simulation de Monte Carlo à l'équilibre thermique développée ces trente dernières années.

1.C.1. L'estimateur

Nous avons dit plus haut que la recherche des valeurs moyennes représente les principaux objectifs des simulations Monte Carlo, mais pour accélérer le processus il serait plus facile d'orienter nos résultats vers des valeurs probables.

Nous avons obtenu de (1.3), l'expression de la moyenne de Q, par sommation sur tous les états ì du système et sur leurs probabilités respectives

(1.31)

Pour de grands systèmes, le mieux que nous pouvons avoir est la moyenne sur une somme restreinte d'états. Il est donc nécessaire d'introduire une quantité dans le calcul. La technique de Monte Carlo s'exerce à choisir ce champ restreint d'état avec une probabilité de distribution öì. En supposant que nous choisissons M états, l'on aura une meilleure estimation de Q par

(1.32)

Cette expression est l'estimateur de Q, nous donnant une estimation de Q sur un model réduit et avec la propriété que lorsque le nombre M d'états dans l'échantillon grandit, l'on se rapproche de la vraie valeur par Q. C'est-à-dire :

Reste alors à déterminer M pour une meilleure expression de Q. Pour ce faire, il suffit de considérer une équiprobabilité entre les états du système (c'est à dire), d'où :

(1.33)

1.C.2. Echantillonnage important

Tel qu'il a été abordé dans un précédent paragraphe, il est utile d'observer un temps moyen afin de se rassurer que nous parcourrons au moins une période, durant le temps de l'expérience, d'où il se pose le problème de la longueur de la chaîne. A titre d'exemple, un litre de gaz, contient 1022 molécules, soient états possibles qui est un nombre spectaculairement grand d'où l'importance de prendre une matrice de dimension assez grande sinon l'on risquera de ne pas parcourir tous les états. On parle dans ce cas d'échantillonnage important.

1.C.2.1. Processus11(*) de Markov

Dans une simulation par Monte Carlo l'étape difficile est la détermination de l'estimateur approprié. Au départ, nous ne pouvons pas simplement choisir au hasard certains états et les accepter ou rejeter en les prenant équiprobables à. Le résultat ne sera pas meilleur que celui issu d'un échantillonnage hasardeux. L'on court le risque de répéter virtuellement certains états autant que leurs probabilités sont exponentiellement petites. Les algorithmes des méthodes de Monte Carlo utilisent le processus de Markov pour choisir les états utilisés (considérées).

Le processus de Markov est le mécanisme qui génère un état í du système à partir d'un autre connu. L'état généré n'est pas toujours le même, il parcourt le système à la recherche de nouveaux états avec une probabilité de transition P sur lesquels il impose deux conditions:

i) elles ne varient pas avec le temps.

2i) elles dépendent uniquement des propriétés du système sur les états u et í.

Ceci traduit le fait que la probabilité de transition d'un état u à un autre í du processus de Markov est toujours constante et devra satisfaire la relation de fermeture

(1.34)

Dans la simulation de Monte Carlo, nous utiliserons à répétition le processus de Markov pour générer la chaîne de Markov de nouveaux états. Il est généralement utilisé spécialement lorsqu'on veut partir de n'importe quel état du système et générer une suite de configurations de certains états précis (final) par exemple.

Pour parachever cette étude, il est utile d'imposer deux nouvelles conditions : « Ergodicité » et « balance détaillée ou spécifique » sur le processus de Markov.

* 11 Le processus est une famille de variable aléatoires à valeurs dans un espace mesurable E quelconque, indexée par  ; il est dit continu si . [10]

précédent sommaire suivant







9Impact, le film from Onalukusu Luambo on Vimeo.



Appel aux couturier(e)s volontaires

Hack the pandemiuc !

Moins de 5 interactions sociales par jour



BOSKELYWOOD from Ona Luambo on Vimeo.