WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Estimation de l'erreur de trocature de l'espace d'états du système d'attente m/m1: méthode stabilité forte

( Télécharger le fichier original )
par Haoua LARAB
Université Abderrahmane Mira Bejaia - Master Recherche Operationnelle 2011
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

2.4 Conclusion

Nous avons abordédans ce chapitre, d'une manière générale et claire les notions de base de la théorie des files d'attente. Nous avons étudiéles systèmes de files d'attente Markoviens comme, M/M/1, M/M/m et M/M/1/N de la théorie des files d'attente élémentaire, et les systèmes de files d'attente non Markoviens : M/G/1 et G/M/1 de la théorie des files d'attente intermédiaire (la méthode de la chaàýne induite qui ramène l'étude du processus non Markovien a` celle d'une chaàýne de Markov a` temps discret).

3

Chaàýnes de Markov tronquées

3.1 Chaàýnes de Markov tronquées

Les chaàýnes de Markov constituent l'outil principal pour la mod'elisation et la r'esolution de problèmes dynamiques stochastiques. Dans ce chapitre, nous allons voir certains r'esultats consacr'es aux chaàýnes de Markov tronqu'ees.

Les chaàýnes de Markov sont connues, dans des situations d'applications pratiques qui se trouvent dans les t'el'ecommunications (r'eseaux de files d'attente, de radiodiffusion, de communication par satellite), l''evaluation de performance informatique (r'eseaux informatiques, programmation parallèle, stockage et retransmission en m'emoire tampon), la fabrication (lignes d'assemblage, systèmes de manutention), la fiabilit'e (analyse de panne), et la th'eorie d'inventaire, l'analyse de performances des systèmes informatiques.

Cependant, la mod'elisation des situations r'eelles, en simplifiant les hypothèses et les estimations en utilisant l'analyse de perturbations conduisant a` des erreurs introduites par ces inexactitudes. Nous allons pr'esenter quelques travaux sur le problème de troncature des chaàýnes de Markov.

3.1.1 Principe de troncature

En g'en'eral, le »principe de troncature» peut être 'enonc'e comme suit : »Pour r'esoudre un système infini d''equations lin'eaires a` un nombre infini d'inconnues, on limite le système aux n premières 'equations, et on n'eglige le reste des 'equations». Ce principe à'et'e introduit en 1913 par Riesz [40].

3.1.2 D'efinitions

Nous rappelons d'abord brièvement quelques d'efinitions essentielles des chaàýnes irr'eductibles a` valeurs dans un ensemble d'enombrable S. De nombreux r'esultats suppl'ementaires peuvent être trouv'es dans les ouvrages de Meyn et Tweedie [33] et de Nummelin [34] :

. Soient X et Y deux variables al'eatoires a` valeurs r'eelles de fonction de r'epartition F et G respectivement, X est dite stochastiquement inférieure a` Y, est on note X st Y , si pour tout t on a :

. P = (p(i,j))i,j>1 est dite stochastiquement inférieure a` Q = (q(i,j))i,j>1, not'e P st Q, ssi :

Vi = 1,Vm = 1, Xm p(i,j) = Xm q(i,j). (3.1)

j=1 j=1

. Q = (q(i, j))i,j>1 est dite stochastiquement monotone ssi :

i j Vm Xm q(i,k) = Xm q(j,k). (3.2)

k=1 k=1

. On appelle »small set» une partie A de S, pour laquelle il existe un m > 0 et une mesure non triviale õm sur S tels que, pour tout i dans A et tout j dans S, on ait

p(m)(i, j) = õm(j) (3.3)

Pour une chaàýne irr'eductible a` valeurs dans S, toute partie finie est un »small set»(i,e petite s'erie).

. Soit Z = (Z(k))k>0 une chaàýne irr'eductible et A une partie de S, le temps d'atteinte l'ensemble A est d'efini par :

ôA = inf{k = 1; Z(k) E A}, (3.4)

La chaine Z = (Z(k))k>0 est dite geometriquement recurrente s'il existe un »small set» B et un nombre r > 1, dependant eventuellement de B, tel que

sup

iEEi {rôB} < +8. (3.5)

. L'etat i est dit geometriquement recurrent s'il existe r > 1, dependant eventuellement de i, tel que :

Eirôi < +8, (3.6)

Si la chaine est geometriquement recurrente, tous les etats sont geometriquement recurrents.

i> La chaine Z = (Z(k))k>0 est dite uniformement recurrente s'il existe un »small set» B et un nombre r > 1, dependant eventuellement de B, tel que

sup EirôB < +8. (3.7)

iEs

3.2 Diff'erentes techniques de la troncature des chaines de Markov

Soit P = (P(i, j))i, j = 1, une matrice stochastique infinie, irreductible et recurrente positive elle admet une distribution stationnaire unique ðn = (ðn(j))j>1, le calcul de cette distribution etant en general difficile sinon impossible.Pour cela, une solution consiste a` approcher P par une matrice stochastique finie Pn.

»Le Coin Nord-Ouest» d'ordre n de la matrice P :

Tn = (P(i, j))n>i,j>1.

P etant irreductible, il existe au moins une ligne i pour laquelle

Xn
j=1

P(i, j) < 1

alors la matrice tronquee Tn n'est pas stochastique.

A partir de Tn, on construit une matrice stochastique (Pn(i, j))n>i,j>1 verifiant Pn = Tn

c'est a` dire Pn(i, j) > P(i, j) pour 1 = i, j = n; cela peut se faire de plusieurs facons, citons les principales :

3.2.1 Augmentation linéaire

La masse de probabilitéperdue lors de la troncature de P est redistribuée sur les colonnes de Pn, plus précisément, soit

An = (án(i,j))1<i,j<n,

une matrice stochastique quelconque, on pose pour 1 = i, j = n,

X

Pn(i,j) = P(i,j) + án(i, j)

k>n

En particulier, on obtient :

P(i, k).

- L'augmentation de la première colonne, travaux de Kalashnikov et Rachev [27], seulement si án(i, 1) = 1 pour 1 = i = n;

- L'augmentation de la dernière colonne [51], seulement si án(i, n) = 1 pour 1 = i = n ; - L'augmentation uniforme án(i,j) = n-1 pour 1 = i,j = n .

- On peut aussi prendre pour A, une matrice dont toutes les lignes sont identiques,c'est un cas considérépar Gibson et Seneta [11].

- Encore plus simplement, on peut comme van Dijk [48], choisir A booléenne.

3.2.2 Renormalisation

On pose s(i, n) = Pn P(i,j), on choisit alors pour 1 = i,j = n :

j=1

P (i, j)

Pn(i, j) = s(i,n) .

En prenant n assez grand afin que s(i, n) > 0.

Notons que les deux conditions Pn stochastique et Pn = Tn, impliquent lim

n-400

Pn(i,j) =

P(i, j). Par consequent si n est grand, Pn et P sont voisines, ce qui amène aux questions suivantes :

(Q1) Pn admet-elle une distribution stationnaire ðn ? - (Q2) ðn converge-t-elle, en un sens a` préciser vers ð ?

En ce qui concerne (Q1), l'existence d'une distribution stationnaire ðn a étéétudiépour divers types de matrices Pn, en particulier par Seneta [41, 39]. Nous notons que si

l'état 1 est récurrent positif pour Pn, il existe au moins une distribution stationnaire ðn. En effet, la chaàýne réduite a` la classe de l'état récurrent 1 admet une distribution stationnaire qu'on peut compléter par 0 sur les autres états.

De nombreux travaux ont étéconsacrés a` l'étude de (Q2), parmi les plus intéressants, citons :

(1) Wolf [50], qui s'est intéresséa` l'approximation de la distribution stationnaire d'une matrice infinie P, irréductible, récurrente positive, par ailleurs quelconque, par les distributions stationnaires de matrices finies Pn. Il a examinéquatre types de matrices Pn, obtenues par:

. Augmentation de la première colonne;

. Augmentation de la dernière colonne;

. Augmentation uniforme des colonnes;

. Renormalisation.

et établit la convergence en variation de ðn vers ð, sous des conditions analogues au critère de Foster.

(2) Seneta [41] a prouvéque ðn converge faiblement vers ð . Cette prouve a étérepris par Gibson et Seneta [11] pour établir la convergence faible de ðn vers ð quand P est stochastiquement monotone et Pn construite par augmentation.

(3) Heyman [20] a construit des chaàýnes Xn et X de matrices de transitions respectives Pn et P et il a introduit les temps de retour en 1, Cn et C des chaàýnes Xn et X puis le temps nécessaire pour que la chaàýne X dépasse la barrière n; en s'appuyant sur les résultats de Heyman et Whitt [21], il établit une condition suffisante pour assurer la convergence faible de ðn vers ð .

(4) Kalashnikov et Rachev [27] ont aussi étudiéle problème d'approximation d'une chaàýne de Markov infinie, l'essentiel de leurs travaux est orientévers l'approximation uniforme de la chaàýne initiale par des chaàýnes finies construites par augmentation de la première colonne.

(5) Tweedie [46] s'est intéressé, en particulier aux chaàýnes géométriquement ergodiques et les chaàýnes de Markov stochastiquement monotone, pour étudier les deux questions. Il a considéréPn, »la matrice coin nord-ouest de troncature» de P. On connaàýt que les approximations de ð(j)/ð(0) peut être construite a` partir de Pn, mais seulement dans des cas particuliers, sont celles connues de la convergence de la distribution de probabilitévers elle-même. Il a montre ainsi que cette convergence se produit toujours pour deux autres classes générales de chaàýnes de Markov : les chaàýnes géométriquement ergodiques, et celles dominées par les chaàýnes stochastiquement monotones. Dans les cas particuliers, de

manière uniforme, les chaàýnes ergodiques et les chaàýnes stochastiquement monotones, il a obtenu des estimations d'erreur d'approximation ||ð(n) - ð||.

(6) Zhao et Liu [51] ont prouvéque la la chaàýne de Markov censurée fournit la meilleure approximation dans le sens que, pour une taille de troncature donnée, la somme des erreurs est le minimum et ils ont montré, par exemple, que la méthode d'augmenter la dernière colonne n'est pas toujours la meilleure.

3.2.3 Distance entre les distributions stationnaires

Les résultats établis par Simonot [42] ne concernent que les distributions de probabilité»transitoires», en faisant tendre n vers l'infini nous obtiendrons un majorant de la distance entre les distributions limites. Une comparaison de ce résultat avec les résultats obtenus par d'autres auteurs a étéconsidérépar le même auteur. De même, Gibson et Seneta [11] ont traitéce problème, ils ont établi la convergence faible de ðn vers ð sous les mêmes hypothèses sur ce qui concerne les matrices P, Q et Pn.

En outre, Heyman [20] considère la même question sous les hypothèses suivantes :

(A1) P est irréductible, récurrente positive et stochastiquement monotone;

(A2) Pn est une matrice stochastique vérifiant Pn(i, j) = P(i, j) pour 1 = i, j = n ;

(A3) L'état 1 est récurrent positif pour Pn ;

(A4) lim

n-4+8

Pn(i,j) = P(i,j).

et en déduisant la convergence faible de ðn vers ð.

3.3 Exemple de la troncature sur un réseau de files d'attente en tandem avec blockage

Dans la pratique, l'espace d'états rencontréest souvent grand ou infini, c'est le cas par exemple d'une file d'attente a` capacitéd'attente infinie. Lors d'évaluation des performances de tels systèmes et pour des raisons de la complexitédu calcul, on rencontre alors des problèmes liés a` leur dimension. Alors, la troncature de l'espace d'états devient a` ce niveau nécessaire. Dans cette section, nous présentons un exemple illustratif de la troncature d'espace d'états d'un réseau de files d'attente en tandem avec blockage.

Considérons un réseau de files d'attente en tandem constituéde deux files : la première est la file M/M/1/8 et la seconde est la file M/M/1/N. Supposons que lorsque la deuxième

file est saturée, alors le premier serveur sera bloqué. Chaque station contient un seul serveur et la discipline de service est FIFO (le premier arrivépremier servi).

Les durées de temps de service des deux serveurs suivent des lois exponentielles de pa-

rametres /t1 et /t2 respectivement.

Les temps d'inter-arrivées dans le réseau sont également exponentielles de parametre ë(i) qui dépend de nombre de clients présents dans la premiere file.

La distribution stationnaire conjointe de la taille de ce réseau en tandem avec blockage (nombre total de clients présents dans le réseau) n'existe pas sous forme explicite (voir par exemple Hordijk [24] et Van Dijk [48]).

Ainsi, plusieurs auteurs ont proposédifférentes approches d'approximation de celle-ci. Entre autres, on peut citer les approximations numériques : Boxma et Konheim [8], Hillier et Boling [22] et Latouche et Neuts [32], les approximation par bornes de perturbation : Van Dijk [48]. Ce dernier auteur a considéréun cas de troncature de l'espace d'états de la chaàýne de Markov décrivant l'état de ce réseau de files d'attente, et cela tout en limitant la capacitéd'attente de la premiere file a` Q buffers.

Dans ce cas, l'auteur [48] a démontréque sous certaines hypotheses supplémentaires que la distribution stationnaire de la taille de ce réseau peut-être exhibée sous forme explicite.

A4 =

?
???

á11 á12 á13 á14 á21 á22 á23 á24 á31 á32 á33 á34 á41 á42 á43 á44

?
???

,

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"L'ignorant affirme, le savant doute, le sage réfléchit"   Aristote