WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Etude de l'impact du protocole TCP Sur les performances et Capacites du systeme UMTS -HSDPA

( Télécharger le fichier original )
par Abdessamad Darim
Faculte Science Technique Marrakech - DESA 2008
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

N° d'ordre :

UNIVERSITÉ CADI AYYAD

FACULTÉ DES SCIENCES ET TECHNIQUES - MARRAKECH

****************************

MÉMOIRE

Présenté à la FST pour obtenir :

Le Diplôme des Études Supérieures Approfondies (DESA)

UFR : Télécommunications instrumentations et micro électroniques

Référence : P06/03

Étude de l'impact du protocole TCP sur la capacité et performance du système UMTS-HSDPA

Par :

Abdessamad Darim

(Licence : Electronique)

Soutenu le : /03/08 devant la commission d'examen :

Président  : Abdel jalil El Kari PES FST

Encadrant : Rajaa El Assali PA ENSA

Examinateurs  : Brahim Essaid PES FSSM

Nourdine Idboufker PA ENSA

À ma femme

À mes parents

À mes soeurs et frères

À mes amis

Et à tous ceux que j'aime

« Pour faire de grandes choses, il ne faut pas être

Un si grand génie, il ne faut pas être au-dessus des

Hommes, il faut être avec eux»

Montesquieu

REMERCIEMENTS

Je tiens tout d'abord à remercier Madame El Assali professeur `a l'ENSA de Marrakech, de m'avoir accueilli au sein de la composante INSA de Marrakech et d'avoir accepté de diriger mon projet de fin d'étude DESA TER

Mes remerciements vont également à tous mes professeurs et collègues qui ont assuré ma formation durant deux années de DESA,

Et enfin je tiens à remercier Messieurs les professeurs, membres de jury d'avoir accepté de juger et d'évaluer ce travail.

Sommaire

1

Introduction Generale 13

Chapitre 1 : Réseau UMTS 14

Introduction 15

1. 1 Technique d'accès radio 15

1.1. 1 Techniques de base 17

1.1. 2 Technique d'étalement 18

1. 2 Présentation du système UMTS 18

1.2 1 Principes de base 19

1.2 2 Service UMTS 19

1. 3 Architecture globale de l'UMTS 22

1.3 1 Domaine Equipement utilisateur 23

1.3 2 UTRAN ( Universal terestrial Radio Network Acces ) 23

1.3 3 Node B 25

1.3 4 Réseau Coeur 25

1. 4 Les interfaces logiques dans l`UTRAN 25

1.4 1 L'interface Uu 26

1.4 2 Canaux UMTS 27

1.4.2. 1 Canaux logiques : 27

1.4.2. 2 Canaux de transport 28

1.4.2. 3 Canaux physiques 29

1.4 3 Couche physique 31

1.4 4 Couche liaison : 36

1.4.4 1 Couche MAC 36

1.4.4 2 MAC Architecture 37

1.4.4 3 La couche RLC (Radio Link Control ) 39

1.4.4 4 La couche PDCP (Packet Data Convergence Protocol) 42

1.4.4 5 La couche RRC (Radio Ressource Control) 42

1.4.4 6 Protocole ARQ (Automatic Repeat Request Protocol) 42

1.4.4.6 1 Protocole Stop Wait 44

1.4.4.6 2 Protocole Glissement de fenêtre « Sliding Window « 44

1.4 5 Power control 45

1. 5 Modélisation de la capacité cellulaire 46

1.5. 1 Capacité du sens descendant 46

CONCLUSION : 47

Chapitre 2  :  Technique HSDPA 73

Introduction 49

2.1 Présentation générale du HSDPA 49

2.2 Structure HSDPA 50

2.3 Architecture de Protocole 52

2 .4 Canaux HSDPA 53

2.5 Mécanisme de retransmission hybride HARQ 57

2.5.1 Protocole HARQ 58

2.6 Modulation et codage adaptatifs 59

2.7 Fonctionnement de la couche physique 61

2.8 FCSS (Fast Cell Site Selection) 63

2.9 Interval de temps de transmission (TTI) 63

2.10 Modélisation du HSDPA et Sortie de Cellule 64

2.10.1 HARQ 64

2.10.2 AMC 64

2.10.3 Ordonnancement rapide (Fast Scheduling) 65

2.10.3.1 Méthode de Round Robin (RR) 66

2.10.3.2 Méthode FFTH (Fast Fair Throughput) 67

2.10.3.3 Méthode du Maximum C/I (Signal sur Interférence) 68

2.10.3.4 Méthode du Proportionnel Fair 69

Résultats 71

Conclusion : 72

Chapitre 3 :  TCP au dessus des réseaux sans fils 73

Introduction 73

3.1 Facteurs d'environnement sans fils 73

3.1.1 Limitation de largeur de Bande et Durée RTT 73

3.1.2 Taux de perte élevé 75

3.1.3 Mobilité 76

3.1.4 Asymétrie de la largeur de bande 76

3.2 Performance TCP 77

3.2.1 Présentation des procédés 77

3.2.1.1 Solutions niveau liaison 78

3.2.1.2 Split Solutions 78

3.2.3 End-to-End Solutions 79

Chapitre 4 :  TCP au dessus des réseaux sans fils 80

Introduction 80

4.1 Performance TCP 81

4.2 Architecture de la connexion TCP au dessus UMTS-HSDPA 81

4.3 Comparaison entre RLC, MAC-hs, et TCP 84

4.3.1 Fiabilité 84

4.3.2 Contrôle de flux et Glissement de fenêtre 85

4.3.3 Segmentation 85

4.4 Modélisation du TCP au dessus UMTS-HSDPA 86

La variation du débit binaire TCP au-dessus de l'interface radio est due à deux raisons : diminution de la taille de fenêtre TCP, et retransmissions des segments TCP. 86

4.4.1 Timeout 86

4.4.1.1 Proposition 87

4.4.1.2 Preuve 87

4.4.2 Démarrage lent ( Slow Start ) 88

4.4.3 Temps de rétablissement du premier perte 89

4.4.4 Etat de stabilité 90

4.5 Effet du TCP sur les réseaux sans fils a canal partage 93

CONCLUSION 95

Perspective : Erreur ! Signet non défini.

Liste des figures

Figure 1.1 Technique d'accès Parmi les méthodes d'accès de base : 17

Figure 1.2- Architecture générale du réseau UMTS 23

Figure 1.3 - Éléments du réseau d'accès UTRAN 24

Figure 1.4 Architecture générique des interfaces de l`UTRAN 26

Figure 1.5 Couches de protocoles de l'interface radio Uu 27

Figure 1.6 - Fonctions de la couche physique dans la chaîne de transmission UTRA/FDD 31

Figure 1.7- Exemple d'une chaîne d'émission utilisant la modulation QPSK 35

Figure 1.8 : Architecture Générale du MAC du UMTS cote UE 38

Figure 1.9 Format du MAC PDU 39

Figure 1.10 Format d`un paquet RLC-PDU en mode de UM 40

Figure 1.11 Format d`un RLC-PDU en m ode AM 41

Figure 1.12 Architecture de la couche PDCP 42

Figure 1.13 probability en fonction du nombre d'utilisateur dans le sens Descendant 47

Figure 2.1 - Architecture système avec le HSDPA 50

Figure 2.2 Architecture Protocolaire de l'interface Radio du système hsdpa 51

Figure 2.3 Architecture Protocolaire de l'interface Radio du système HSDPA 51

Figure 2.4 Les entités fonctionnelles incluses dans la MAC-hs 53

Figure 2.5 - Exemple de multiplexage de code avec deux usagers actifs 54

Figure 2.6 - Relation du timing entre le canal HS-SCCH et le HS-DSCH 55

Figure 2.7 - Structure du canal HS-DPCCH 56

Figure 2.8 - Technique HARQ dans la chaîne de codage du canal HS-DSCH 58

Figure 2.9 - Principe de fonctionnement de l'HARQ 58

Figure 2.10 - Constellations de la modulation 16-QAM et QPSK 60

Figure 2.11 - Fonctionnement de la couche physique du HSDPA 63

Figure 2.12 Debit de sortie de la cellule HSDPA pour différent algorithme 70

Figure 2.13 Débit de sortie de la cellule HSDPA pour différent algorithme 70

Figure 4.1 Structure protocolaire de la connexion TCP au dessus du système UMTS 83

Figure 4.2 Structure protocolaire de la connexion TCP au dessus du système UMTS 83

Figure 4.3 Effet du TCP sur la performance d'une application de 32 kbps 92

Figure 4.4 Effet du TCP sur la performance d'une application de 64 kbps 92

Figure 4.5 Effet du TCP sur la performance d'une application de 128 kbps 92

Figure 4.6 Effet du TCP sur la capacite d'une cellule HSDPA 95

Liste des tableaux

tableau 3.1 Classes de services de l'UMTS 21

tableau 3.2 Comparaison du canal HS-DSCH avec les autres canaux du lien descendant 54

tableau 3.3 - Schémas de modulation et de codage MCS sur le lien DL 61

tableau 3.4- Catégories de terminaux supportant la technologie HSDPA 61

Abbreviations

3GPP Third Generation Partnership Project

Ack Acknowledgement

AM Acknowledge Mode

AMC Adaptive Modulation and Coding

ARQ Automatic Repeat reQuest

BER Bit Error Rate

BlER Block Error Rate

BMC Broadcast/Multicast Control Protocol

CDMA Code Division Multiple Access

CN Core Network

DupAck Duplicated Acknowledgement

EDGE Enhanced Data Rates for GSM Evolution

FDD Frequency Division Duplex

FEC Forward Error Correction

FTP File Transfer Protocol

GGSN Gateway GPRS Support Node

GMSC Gateway Mobile Switching Centre

GSM Global System for Mobile communication

GPRS General Packet Radio Service

HARQ Hybrid Automatic Repeat reQuest

HLR Home Location Register

HS High Speed

HSCSD High Speed Circuit Switched Data

HSDPA High Speed Downlink Packet Access

HS-DShCH High Speed Downlink Shared Channel

HS-PDShCH High Speed Physical Downlink Shared Channel

HS-ShCCH High Speed Shared Control Channel

IP Internet Protocol

ITU International Telecommunication Union

Iu Interface UTRAN - Core Network

Iub Interface Node B - RNC

Iur Interface RNC - RNC

MAC Medium Access Control

MAC-b MAC-broadcast

MAC-d MAC-dedicated

MAC-c/sh MAC-common/shared

MAC-hs MAC-high speed

MCS Modulation and Coding Scheme

MinInter-TTI Minimum Inter-TTI

MSC Mobile Switching Centre

MSS Maximum Segment Size

NAck Negative Acknowledgment

OSI Open System Interconnection

Phy Physical Layer

PDCP Packet Data Convergence Pro tocol

PDU Protocol Data Unit

PLMN Public Land Mobile Network

PU Payload Unit

QoS Quality of Services

RLC Radio Link Control

RNC Radio Network Controller

RNS Radio Network Sub-system

RTO Retransmission Time-Out

RTP Real-Time Transport Protocol

RTT Round Trip Time

RRC Radio Resource Control

SACK Selective Acknowledgment

SDU Service Data Unit

Abbreviations 109

SDL Specification and Description Language

SGSN Serving General Packet Radio Service Support Node

SMS Short Message Service

SRF Simulated Radio Frame

SS7 Common Channel Signaling System No. 7

Status PDU Status information control Protocol Data Unit

SuFi Super Field

TCP Transmission Control Protocol

TDD Time Division Duplex

TDMA Time Division Multiple Access

T-slot Three slots

TM Transparent Mode

TTI Transmission Time Interval

UDP User Datagram Protocol

UE User Equipment

UM Unacknowledged Mode

UMTS Universal Mobile Telecommunication System

UTRAN UMTS Terrestrial Radio Access Network

Uu Interface UE - Node B

VLR Visitor Location Register

WCDMA Wideband Code Division Multiple

Contexte & Problématique

Un modèle analytique pour évaluer l'effet du protocole TCP sur la capacité d'UMTS-HSDPA est présenté. On propose également une méthode pour réduire au minimum l'effet du TCP sur les réseaux sans fil à l'aide des canaux partagés. HSDPA (accès à grande vitesse de paquet de Downlink) réalise des débits binaires globaux plus élevés par l'introduction de la modulation et du codage adaptatifs, l'hybride ARQ, les algorithmes d`ordonnancement rapide, la sélection rapide de cellules. Le modèle proposé est utilise pour évaluer l'effet du protocole de TCP relatif au débit binaire de divers services de données (à 64 et à 128kbps). Comme été prévu le flux du débit binaire diminue fortement si la congestion dans le réseau câble augmente. Cependant, la capacité réalisée par HSDPA n'est pas affectée par TCP.

Mot cle : UMTS , HSDPA , ARQ, AMC ,TCP

Abstract

An analytical model to evaluate the impact of TCP on the UMTS-HSDPA capacity is presented. A method to minimize the effect of TCP on wireless networks using shared channels is also proposed. HSDPA (High Speed Downlink Packet Access) achieves higher aggregate bit rates through the introduction of adaptive modulation and coding, Hybrid ARQ, fast scheduling, fast cell selection. The proposed model is used to evaluate the effect of the TCP protocol on the bit rate of various data services (at 64 and 128kbps). As expected the bit rate per flow decreases strongly if congestion in the wired network increases. However, the capacity achieved by HSDPA is not as affected by TCP.

ãÜáÎÕ

äÚÑÖ äãæÐÌ áÊÞííã ÊÇËíÑ ÈÑäÇãÌ ÇáÊÚÇæä Çáäí Úáì ÞÏÑÉ äÙÇã UMTS - HSDPA . äÞÊÑÍ íÖÇ ØÑíÞÉ áÊÞáíá ËÑ ÈÑäÇãÌ ÇáÊÚÇæä Çáäí Úáì ÇáÔÈßÇÊ ÇááÇÓáßíÉ ÂÜÊí ÊÓÊÎÏã ÞäæÇÊ ãÔÊÑßÉ. HSDPA íÍÞÞ ÈÊ ãä Úáì ÇáãÚÏáÇÊ ÇáÇÌãÇáíå ãä ÎáÇá ÅÏÎÇá ÊÚÏíá Úáì ÇáÊßí æÇáÊÑãíÒ arq áåÌíäå æÌÏæáÉ ÓÑíÚÉ ÓÑÚÉ ÇÎÊíÇÑ ÇáÎáíÉ. åÐÇ ÇáäãæÐÌ ÇáãÞÊÑÍ íÓÊÎÏã áÊÞííã ÊËíÑ ÈÑäÇãÌ ÇáÊÚÇæä Çáäí Úáì ãÚÏá ÇáÈÊ áãÎÊá ÎÏãÇÊ ÇáÈíÇäÇÊ (64 í æ128kbps).

æßãÇ ßÇä ãÊæÞÚÇ Çä ÈÊ ãÚÏá ÊÏÞ ÇáÇäÎÇÖÇÊ ÈÞæÉ ÇÐÇ ÇáÇÒÏÍÇã í ÇáÔÈßå ÇáÓáßíå ÇáÒíÇÏÇÊ. ÔÈå äãæÐÌ ÊÍáíáí áÊÞííã ÇáÞÏÑÉ ÎáíÉ åæ ÇíÖÇ ÇáãÚÑæÖÉ í åÐå ÇáæÑÞå æÇáãÑÇÓáÇÊ Èíä ÇáÎáíÉ ÇáÞÏÑÉ æãÖãæäå ÈÑäÇãÌ ÇáÊÚÇæä Çáäì åæ ÇÈáÛ ãÚÏá ÇáÈÊ í åÐå ÇáæÑÞå áÌæáÉ ÑæÈä ÇáãÌÏæá. æãÚ Ðáß Çä ÇáÞÏÑÉ ÇáÊí ÍÞÞåÇ HSDPA áíÓÊ ßãÇ åí ãÊÇËÑå ÈÑäÇãÌ ÇáÊÚÇæä Çáäí. ÈÇÓÊÎÏÇã åÐå ÇáäÊíÌÉ æÓíáÉ ááÍÇÙ Úáì ÓÚÑ ÇáÞØÚå ÇáæÇÍÏÉ ãä ÈÑäÇãÌ ÇáÊÚÇæä Çáäí í ÊÏÞ ãÚíä Ïæä Çä ÊÊÎáì Úä ÇáßËíÑ ãä ÞíãÉ ÇáÎáíÉ åí ÇáÞÏÑÉ ÇáãÞÊÑÍÉ

Introduction Générale

TCP (Transport Control Protocole) est un protocole qui assure une transmission fiable des données et un contrôle de flux au niveau de la couche de transport. Ceci est assure par l'utilisation d'un mécanisme de transmission a fenêtre glissante couple avec un mécanisme de retransmission des segments TCP erronées et un contrôle de la taille de la fenêtre de transmission en fonction des congestions dans les réseaux. TCP est utilise comme protocole de transport dans la majorité des services véhicules sur Internet (presque 90%) et il est prévu d'occuper une large partie des services " données " véhicules dans les réseaux mobiles de troisième génération. Dans les réseaux sans fil, les erreurs sur l'interface radio sont interprétées par TCP comme étant des congestions ce qui entraînera une retransmission des

Segments TCP contenant les erreurs et une baisse de la taille de la fenêtre de transmission. Ceci entraînera une baisse de la capacité totale du système et une perte d'efficacité du a une baisse de la fenêtre sans qu'il y ait de congestion baisse). L'utilisation de Hybrid-ARQ résout une partie ce problème. En effet, ARQ retransmet les paquets erronés au niveau de la couche MAC - hs empêchant ainsi le transfert des erreurs à la couche transport. Par conséquent, les erreurs causées par l'interface radio seront transparentes par rapport à la couche transport. Cependant, le mécanisme Hybrid-ARQ génère un délai de réception du aux retransmissions fréquentes des paquets. Si ce délai est important (ce qui est le cas malheureusement cause des erreurs fréquentes sur l'interface radio), un phénomène de " timeout " surgit (i.e. un timer déclenché au moment de la transmission du segment TCP expire sans recevoir un acquittement du récepteur indiquant la réception du segment sans erreur). TCP mal interprète ce délai comme étant du a une congestion et déclenché un mécanisme de

Retransmission suivie d'une baisse de la fenêtre de transmission jusqu' à sa valeur initiale entraînant ainsi une perte d'efficacité et une baisse de la capacité totale du système. Dans cette partie de la thèse, on a développe une analyse mathématique de ce problème en proposant un modèle analytique capable de déterminer quantitativement l'effet des algorithmes d'ordonnancement (étudies précédemment) sur les performances et services TCP véhicules sur HSDPA. Par conséquent nous allons fournir des études et modélisations analytiques couvrant les aspects suivants:

· Capacité du système UMTS dans le sens descendant

· Analyse et modélisation de la capacité des cellules HSDPA

· Caractérisation et modélisation de l'interaction entre le protocole TCP et l'entité MAC-hs. Cette interaction est due essentiellement à l'utilisation des techniques Hybrid-ARQ et algorithme d'ordonnancement (scheduling) dans le système.

Chapitre 1 :

Ce chapitre décrit brièvement l'évolution des réseaux cellulaires. Nous s'intéressons uniquement aux réseaux UMTS .Durant ce Chapitre nous définissons l'architecture des réseaux, le différent type de canaux et couche en fin nous procéderons à une modélisation de la capacité du système UMTS dans le sens descendant

Chapitre 2 :

Ce chapitre commence par une description détaillée du système HSDPA et les nouveaux mécanismes introduits par cette technique tel que les nouveaux canaux , par la suite nous passerons à une modélisation analytique de la capacité de la cellule

Chapitre 3 :

Dans ce chapitre nous étudierons le protocole TCP

Chapitre 4 :

Ce chapitre porte sur l'étude de l'impact du protocole TCP sur les système UMTS et HSDPA en prenant comme algorithme d'ordonnancement le fair throuphput

Chapitre 1 : Réseau UMTS

Introduction

Pendant les deux dernières décennies, l'Internet est devenu dans le monde entier le plus grand réseau pour l'échange d'information. Le transfert de données dans les réseaux cellulaires sera sans doute l'un des principaux marchés de télécommunication les années à venir.

Les utilisateurs demanderont de plus en plus la même qualité de service sur leurs systèmes cellulaires que celle reçue avec les environnements câblés. Ainsi le développement technologiques de ces réseaux à connu grand essor en effet , après la première génération des téléphones mobiles des années 1970-1980 caractérisée par une modulation analogique, une couverture limitée, la deuxième génération a vu le jour. Cette deuxième génération a introduit la technologie numérique présentant ainsi une meilleure qualité de service et assurant une certaine confidentialité. Elle comprenait quatre systèmes : Le GSM (Global System for Mobile Communication) en Europe, Le D-AMPS (Digital AMPS) aux Etats-Unis, Le Code Division Multiple Access (IS-95)-Qualcomm aux Etats-Unis aussi Le PDC (Personal Digital Cellular) au Japon.

Mais au début des années 90, la norme GSM était adoptée en Europe et depuis, elle s'est imposée à peu près partout, sauf au Japon, en Amérique du Nord. Les réseaux GSM qui n'autorisent qu'au mieux des débits de 9.6 Kbit/s destiner principalement aux appels vocaux, aux SMS (Short Message Services) et peu à l'acheminement de données, ce qui n'a pas répondu complètement aux exigences des utilisateurs bien que des améliorations permettant d'atteindre 14.4 Kbit/s ont été prévu. Donc, afin d'assurer des débits plus importants et pour répondre aux attentes des utilisateurs, des nouvelles technologies ont été conçues et il y a eu ainsi passage à la génération 2.5. Les technologies de cette génération sont le HSCSD (High Speed Circuit Switched Data) et le GPRS (General Packet Radio Service) qui permettent théoriquement à l'utilisateur de bénéficier de débits allant jusqu'à 171 Kbit/s. Le HSCSD est une amélioration des services de données en mode circuit de la norme GSM phase 2. Cette technologie permet d'obtenir des débits de 57.4 Kbit/s en concaténant 4 intervalles de temps de 14.4 Kbit/s au sein d'une cellule GSM TDMA. Concernant ses services, ils sont très consommateurs de ressources radio et mal adaptés au monde Internet pourtant cette technologie est très facile à implémenter pour les opérateurs.

Pour le GPRS, c'est une technologie orientée paquet destinée à fonctionner sur les réseaux GSM fonctionnant en mode circuit. Cette commutation de paquets permet de ne pas monopoliser le canal de communication comme c'est le cas en commutation de circuit et autorise une tarification plus souple à l'usage. Outre cet avantage, GPRS permet d'atteindre des débits de 171.2 Kbit/s si le schéma de codage utilisé est sans correction et des débits de 126.4 Kbit/s si le schéma de codage utilisé est avec correction ; ces débits concernent l'infrastructure du réseau, donc pour l'utilisateur final ils sont environ de 160 Kbit/s ou 115 Kbit/s .En fait ces débit élevés correspondent à un utilisateur utilisant les 8 time slots disponibles, mais en réalité les périphériques ne se verront attribuer que deux ou trois time slots, ce qui correspondra à des débits maximum de 28.8 Kbit/s et 43.2 Kbit/s et dans certains cas, GPRS permet une allocation asymétrique des ressources sur les deux voies montantes et descendantes (par exemple 1 slot sur la voie montante et 4 sur la voie descendante) ce qui correspondra à un débit de 14.4 Kbit/s pour le lien montant et 57.6 Kbit/s pour le lien descendant .Une autre évolution de GSM formant la génération 2.75 est en passe d'être déployée ; c'est la technologie EDGE (Enhanced Data rate for GSM Evolution) qui est conçue pour fournir un pont entre les technologies de deuxième génération et celles de troisième génération donc entre GPRS et UMTS. EDGE utilise une technologie en mode paquets offrant des débits de 384 Kbit/s pour un utilisateur immobile donc elle permet de tripler le débit de l'interface radio entre les terminaux et un BTS (Base Transceiver Station) ; en réalité, ce débit ne dépasse pas les 250 Kbit/s pour un utilisateur en mouvement. Or le monde des télécommunications connaît une augmentation du volume des communications mobiles et un développement extrêmement rapide de l'Internet ,tant au niveau du nombre d'abonnés qu'au nombre de services offerts , pour faire face a cet évolution , il est nécessaire d'effectuer un saut technologique et de franchir le pas vers les réseaux cellulaires de 3 eme génération , un changement de la configuration et la structure des réseaux existant est devenu essentiel .Ces systèmes de troisième génération, et en particulier l'UMTS, devront évident assurer la continuité avec les services actuels de téléphonie mobile, mais aussi de supporter de nouveaux services de transmission de données en mode paquet, à haut débit, avec différentes qualités de service pour répondre aux besoins des usagers pour des systèmes mobiles d'accès à l'Internet. Plusieurs version ont été développe ; La première version de l'UMTS : dite Release 99 , Elle utilise la technique WCDMA comme technique d'accès et emploie pour son domaine de paquet le réseau GPRS pour fournir la convergence en IP ,tout en appliquant les protocoles ATM pour technique de transmission . Cette étape d'évolution reste insuffisante pour compléter la compatibilité avec le monde IP. L'interface air comme indiquée dans la version 99 ne fournit pas les débits nécessaires. L'augmentation de l'utilisation de l'Internet et des services de données motive l'évolution des réseaux cellulaires des troisièmes et après troisièmes générations. Par conséquent L'UMTS ( Universal Mobile for Télécommunications System) a été prépare pour cette évolution a travers les versions successives (releases) de la norme développées au sein du 3GPP ( Third génération partnership project). Après ses promesses de départ d'être capable de supporter des transferts de données à 2Mb/s, qui se sont avérés par la suite être plutôt que 384 kbit/s, Dans ce contexte, HSDPA ( High Speed Downlink Packet Access) a été développe dans les releases 5 et 6 pour poursuivre l'évolution du mode "paquet" de l'UMTS.

1. 1 Technique d'accès radio

Dans cette section, nous allons présenter les méthodes d'accès de base avant de détailler le principe d'étalement de spectre sur lequel s'appuie le WCDMA. Nous verrons ensuite les codes d'étalement utilisés dans le processus d'étalement.

1.1. 1 Techniques de base

Figure 1. 1 Technique d'accès

Parmi les méthodes d'accès de base :

Le FDMA représente la technique la plus utilisée dans les réseaux mobiles de première génération. Avec cette méthode, le spectre est divisé en plusieurs canaux radio avec une largeur de bande (delta f) Quand un usager désire effectuer un appel, un des canaux est alors exclusivement alloué à cet usager pendant toute la durée de la communication. Cette technique s'applique principalement aux signaux analogiques.

Le TDMA est surtout utilisé dans les systèmes de deuxième génération, tels que le GSM ou le IS-136 (appelé aussi Digital AMPS). Par cette technique, une même bande de fréquences est partagée par un certain nombre d'utilisateurs qui se voient attribués un intervalle (slot) de temps unique, comme le montre Dans le cas de la norme européenne GSM, chaque canal de 200 kHz est divisé en huit tranches de temps, tandis que selon la norme américaine IS-136, chaque canal de 30 kHz est divisé en trois tranches de temps. Ces systèmes permettent d'avoir, dans des conditions réelles d'utilisation, une capacité en terme de nombre d'utilisateurs 3 à 6 fois supérieure à celle des systèmes qui se basent sur le FDMA

Le WCDMA, utilisé entre autre en UMTS, permet à un grand nombre d'usagers d'utiliser la même onde porteuse mais sans s'interférer les uns avec les autres. Elle consiste à répartir l'information radioélectrique émise sur une bande de fréquences plus large que celle réellement nécessaire à la transmission du signal utile (étalement de spectre). Ce dernier apparaît alors comme un bruit et sa densité spectrale est constante sur l'intégralité de la bande occupée. Chaque utilisateur transmet ses informations sur le canal continûment et en utilisant toute la bande passante. Ceci veut dire qu'il y a interférence entre les différents utilisateurs, mais chaque utilisateur envoie sa propre signature avec ses informations. Cette signature est appelée code (désigné par pi) et elle est combinée avec les informations utiles avant de tout transmettre. Les codes sont caractérisés par les propriétés suivantes :

· Chaque code doit être facilement distingué de sa répétition dans le temps.

· Chaque code doit être facilement distingué des autres codes utilisés dans le réseau.

· Les différents codes sont pseudo orthogonaux et donc pi ' pj » 0 " i j.

1.1. 2 Technique d'étalement

La technique d'étalement de spectre est utilisée pour affecter à chaque utilisateur un code, ou séquence, unique qui détermine les fréquences et la puissance utilisées. Le signal contenant l'information de l'émetteur est modulé avec la séquence qui lui est attribuée, ensuite le récepteur recherche la séquence en question. En isolant toutes les séquences provenant des autres utilisateurs (qui apparaissent comme du bruit), le signal original de l'utilisateur peut alors être extrait.

1. 2 Présentation du système UMTS

L'Universel Mobile Télécommunications System (UMTS) est la nouvelle norme de téléphonie mobile, appelée aussi plus généralement téléphonie de troisième génération ou 3G. Les puristes préfèrent utiliser le terme W-WCDMA ( Wide band Code Division Multiple Access ) qui reprend le nom de la technologie déployée en Europe et par certains opérateurs asiatiques. Cette technologie permet de faire transiter davantage de données et va permettre l'apparition de contenus multimédias sur les téléphones mobiles tel la visiophonie. On parlera alors plutôt de terminaux multimédias. Ainsi, en plus de ces évolutions technologiques, la troisième génération doit répondre à la notion de qualité, de variété, de capacité et de couverture. L'organisme UIT (Union Internationale des Télécommunications) qui règlemente les différents standards de télécommunications au niveau mondial avait pour objectif de définir un standard unique et international pour la troisième génération : l'IMT-2000. Mais cela a échoué puisque pas moins de quinze technologies d'accès radio lui ont été proposées. Au final, seulement 6 technologies d'accès radio terrestre auront été gardées : UTRA/FDD, UTRA/TDD, TD-SWCDMA, WCDMA2000, UWC-136, DECT. L'UMTS quant à lui regroupe les deux premières technologies.

1.2 1 Principes de base

Selon l'UIT, les 6 réseaux d'accès radio terrestre, dont l'UMTS fait parti, doivent satisfaire aux caractéristiques techniques suivantes :

v Garantir des services à haut débit avec un minimum de 144kbps dans tout type d'environnement et jusqu'à 2Mbps dans des environnements intérieurs et avec une mobilité réduite.

v Transmettre des données symétriques (même débit montant et descendant) et asymétriques

v Fournir des services à commutation de circuits (idéal pour la voix) et à commutation de paquets (idéal pour la transmission de données)

v Qualité de parole comparable à celle des réseaux câblés

v Capacité et efficacité spectrale doivent être supérieures à celles des systèmes cellulaires actuels de deuxième génération

v Possibilité d'offrir des services multimédias lors d'une même connexion avec des qualités de services différentes (débit, taux d'erreurs, ...) pour les différents types de médias (voix, audio, données)

v Compatibilité avec les réseaux d'accès radio de deuxième génération

v Itinérance entre les différents systèmes de troisième génération, c'est-à-dire la compatibilité entre eux.

v Couverture universelle associant des satellites aux réseaux terrestres

1.2 2 Service UMTS

Standardiser un nouveau service nécessite généralement une modification des spécifications techniques, procédées long et ardues qui peut représenter un frein à l'innovation et à la standardisation de services. [1]

Par conséquent, dans l'UMTS, on standardise uniquement certains services afin de préserver une continuité dans l'offre et on donne les moyens aux opérateurs et aux fournisseurs de services de développer et de personnaliser leurs propres. Les services standardisés en UMTS regroupent les :

- services support (bearer services) ;

- télé services (remote services) ;

- services supplémentaires.

Un service support est une sorte de « tuyau » que l'opérateur du réseau mobile met à la disposition de l'abonné pour transmettre de l'information entre deux points. Il joue un rôle fondamental dans le réseau en transportant l'information liée au service (voix, données, vidéo...) et à la signalisation. Les télés services proposent une offre complète pour la transmission d'information en incluant les fonctions de l'équipement terminal. On peut citer, par exemple, la transmission de la voix (téléphonie et appels d'urgence), le service de messages courts SMS (Short Message Service), la transmission de fax ou alors des services de voix groupés (communication en groupe, voix en diffusion). Les services supplémentaires sont toujours proposés en association ou comme complément à un service support ou à un télé service. Ils offrent la possibilité de personnaliser les services support et les télé services, en apportant des fonctionnalités additionnelles

Un même service supplémentaire peut être proposé en association avec des services support ou des télé-services différents. Parmi ces services, nous pouvons citer le renvoi d'appel, le transfert d'appel, le rappel automatique, etc. Chaque service support est caractérisé par un certain nombre d'attributs qui concernent, entre autres, le débit, le temps qu'il met pour acheminer l'information d'un bout à l'autre, le taux d'erreur qu'il garantit, etc.

Tous ces paramètres doivent être choisis pour que le service support soit le plus adapté possible, car la qualité finale du service offert, appelée QoS (Quality of Service), en dépend. La QoS regroupe une série de caractéristiques quantitatives et qualitatives qui permettent au destinataire de considérer que la qualité du service est satisfaisante. A chaque Service correspond une QoS particulière. Ainsi, les services support doivent-ils être choisis en conséquence

Les caractéristiques du service support sont choisies pour chaque télé-service ou application en fonction de la QoS que ces services ou applications requièrent. Ainsi, un service support pourra être caractérisé en fonction de la capacité du réseau pour le transfert de l'information et de la qualité de l'information une fois transférée. Ces paramètres sont spécifiés ou négociés lors de l'établissement de la communication et il est possible de les modifier de manière dynamique au cours de celle-ci.

Le transfert de l'information fait référence à la capacité du réseau à acheminer différents types d'information entre deux ou plusieurs points. La qualité de l'information transférée entre deux ou plusieurs points peut être quantifiée en fonction d'un nombre limité de paramètres :

v le délai maximum toléré pour le transfert de l'information ;

v les variations du délai ;

v le débit binaire ;

v le taux d'erreur binaire.

La maîtrise des variations du délai est fondamentale pour offrir des services en temps réel. Le taux d'erreur binaire BER (Bit Error Rate) mesure le rapport entre le nombre de bits d'informations erronés et le nombre total de bits transmis. Le débit représente la quantité d'information transmise entre deux points par intervalle de temps et que l'on mesure en bits par seconde (bps).

En conclusion, l'application doit indiquer ses besoins en termes de QoS au réseau UMTS. Plus précisément, elle doit spécifier les attributs du service support requis : le type de trafic (temps réel ou non), les caractéristiques du trafic (point à point, point à multipoint), le délai de transfert maximum, les variations du délai et le taux d'erreur.

Nous allons donner quelques exemples de services que l'UMTS peut offrir suivant un découpage par « classes » qui dépendent de la QoS désirée. Ces classes de services sont résumées dans le tableau 3.1 et définies comme suit :

Service

Délai

Exemples d'application

Débit

Tolérant à des erreurs

Conversationnel (temps réel)

<< 1s

Téléphonie

Vidéophonie

28.8 kbps

32-384 kbps

Oui

Oui

Interactif

environ 1 s

Commerce électronique

Internet

Non garanti

N on garanti

Non

Non

Streaming

< 10 s

Audio/vidéo haute qualité

32-128 kbps

Oui

Arrière-plan (Background)

> 10 s

Fax

E-mail

Non garanti

Non garanti

Oui

Non

Tableau 1 Classes de services de l'UMTS [6,7]

a) Services conversationnels [5].

Les services de cette catégorie permettent de transmettre principalement du son et des images entre deux personnes ou groupes de personnes. Leur qualité est donc assez sensible à des délais dans la transmission, ces délais pouvant être facilement perceptibles par les utilisateurs. Parmi ces services, nous pouvons citer la téléphonie en mode circuit, la téléphonie en mode paquet utilisant le protocole VoIP (Voice over IP) et la vidéophonie. Néanmoins, cette dernière est moins tolérante aux erreurs que la téléphonie et requiert généralement un débit plus important [4]

b) Services interactifs : ce type de service est caractérisé par le fait que le terminal ayant envoyé un message/commande attend une réponse du destinataire dans un certain intervalle de temps. Par conséquent, un paramètre clé pour identifier la QoS des services interactifs est le temps d'aller-retour, c'est à dire le temps écoulé entre le moment où le message/commande est émis et celui où la réponse arrive. Comme exemple, nous pouvons citer le commerce électronique ainsi que les services de localisation qui se développent de plus en plus ; [6,7].

c) Services streaming : on retrouve dans cette classe les services qui traitent l'information au niveau du terminal de façon continue, c'est à dire au moment même où elle est reçue (avant de la recevoir dans sa totalité). Ce type de service est unidirectionnel. Ces services sont assez récents et offrent un potentiel d'application assez vaste. Le streaming audio et vidéo sont des exemples d'applications typiques. [7]. A la différence des services conversationnels, les services de type streaming sont assez asymétriques (on ne reçoit pas au même débit que l'on émet) et on peut tolérer dans ce cas des délais importants ;

d) Services en arrière-plan : il existe des services qui ne posent, ou presque, aucune contrainte de temps dans le transfert de l'information qu'ils génèrent. Ils peuvent s'exécuter en « arrière-plan » (background). Parmi ces services, nous pouvons trouver l'envoi d'un courrier électronique, d'un message court SMS ou alors le téléchargement d'un fichier. Le paramètre pour quantifier la QoS de ce type de ce service est principalement le taux d'erreurs qui doit être souvent assez [4]

1. 3 Architecture globale de l'UMTS

Le réseau UMTS repose sur une architecture flexible et modulaire. Cette architecture n'est associée ni à une technique d'accès radio, ni à un ensemble de services, ce qui assure sa compatibilité avec d'autres réseaux mobiles et garantit son évolution[3]. Une telle architecture, illustrée à la Figure 1 2 , est composée de trois « domaines » :

_Le domaine de l'équipement de l'usager UE (User Equipement),

_Le réseau d'accès radio « universel » UTRAN (Universel Terestrial Radio Access Network)

_ Le réseau coeur CN (Core Network).

Figure 1. 2- Architecture générale du réseau UMTS

Chaque domaine réalise une fonction bien précise dans le réseau, tandis que les points d'échange, notés par Uu et Iu, Iub servent d'interfaces permettant les échanges entre les différentes parties du réseau.

1.3.1 Domaine Equipement utilisateur

Le domaine de l'équipement utilisateur (UE) comprend l'ensemble des équipements terminaux. Il comprend à la fois l'équipement Terminale et l'USIM. Ce domaine permet à l'utilisateur d'accéder à l'infrastructure par l'intermédiaire de l'interface Uu. .

L'équipement mobile se subdivise en deux parties [10].

- l'équipement terminal (TE) est la partie où les données d'information sont génères en émission ou traitées en réception

- USIM (Universel Subscriber Identity Module), quand à elle, est une application qui gère les procédures d'authentification et de chiffrement services auxquels l'abonné a souscrit. L'USIM réside dans une carte à puce appelée UICC (UMTS Integrated Circuit Card). Elle peut être utilisée terminal UMTS indépendamment du fabricant et en général de l'opérateur du réseau : la carte associe un abonné à un ou plusieurs fournisseurs de services et pas nécessairement à l'opérateur du réseau courant.

1.3.2 UTRAN ( Universal terestrial Radio Network Acces )

L'UTRAN assure le transport des flux entre le terminal mobile et le réseau coeur. Il fournit à l'UE (User Equipment) les ressources radio et les mécanismes nécessaires pour accéder au Réseau Coeur (Core Network) [9,12]. L'UTRAN contient les entités qui contrôlent les fonctions liées à la mobilité et l'accès au réseau. Ils également assurent établissement et libération des connexions radio L'UTRAN se compose des sous-systèmes par dite RNS (Radio Network Subsystem). Reliés au réseau Coeur par l'interface Iu . Chaque RNS se contient RNC (Radio Network Contrôler) et un ou plusieurs node B comme le montre la Figure1.3

RNS

RNC

RNS

RNC

Core Network

NodeB

NodeB

NodeB

NodeB

Iu

Iu

Iur

Iub

Iub

Iub

Iub

Figure 1.3 - Éléments du réseau d'accès UTRAN

Le RNS Radio Network Subsystem)

Il est constitué d'un seul contrôleur de réseau radio RNC et de plusieurs noeuds B (Node B).

Le RNC (Radio Network Controller)

Le RNC contrôle et gère les ressources radio (établissement, maintien et libération des canaux radio), effectue le contrôle d'admission CAC (Call Admission Control) et alloue des codes pour des nouveaux liens radio. Il effectue également le contrôle de la charge et de congestion, ainsi que d'autres fonctions liées à la mobilité notamment le handover qui permet à un terminal mobile de se déplacer d'une cellule à l'autre. Deux types de RNC sont définis [12]. Le Serving RNC (S-RNC): il gère les connexions radio avec le mobile et sert de point de rattachement au core network via l'interface Iu. Il contrôle et exécute le handover. Il assure aussi les fonctions de Division/recombinaison dans le cas du soft-handover pour acheminer un seul flux vers l'interface Iu. Le Drift RNC (D-RNC): sur ordre du S-RNC, il gère les ressources radio des stations de base (Node B) qui dépendent de lui. Il effectue la recombinaison des liens lorsque du fait de la macro diversité, plusieurs liens radio sont établis avec des stations de base qui lui sont rattachés. Il route les données utilisateurs vers le Serving RNC dans le sens montant et vers ses stations de base dans le sens descendant.

1.3.3 Node B

Il assure la transmission et la réception d'informations entre l'UTRAN et un ou plusieurs équipements usagers. Parmi ses fonctions, on peut citer le contrôle de puissance. En effet, la puissance d'émission de l'UE est contrôlée systématiquement pour lui assurer la même qualité de service indépendamment de sa position dans le réseau. Allocation des ressources radio. Dans la release 99 le node B contient uniquement les procédures assurant uniquement la gestion de la couche physique tel que : le codage, étalement de spectre et signalisation couche physique. Dans la release 5 et 6, des fonctions intelligentes ont été introduit dans le node B, pour améliorer les performances de la couche MAC est spécialement le HARQ et le programme d'ordonnancement

1.3.4 Réseau Coeur

Le réseau Coeur (Core Network) : il assure la connexion entre les différents réseaux d'accès et entre le réseau UMTS et les autres réseaux comme le réseau téléphonique (PSTN : Public Switched Téléphone Network), le réseau GSM, le réseau RNIS [9] (Réseau Numérique à Intégration de Services ou ISDN : Integrated Services Digital Network), etc. Il fournit le support des services de télécommunications UMTS et gère les informations de localisation des utilisateurs mobiles ainsi qu'il contrôle les services et les caractéristiques du réseau. Le réseau coeur est composé de deux domaines : le domaine à commutation de circuits CS (Circuit Switched domain) et le domaine à commutation de paquets PS (Packet Switched domain).

1.4 Les interfaces logiques dans l`UTRAN

L`architecture générique des interfaces logiques de l`UTRAN est représentée dans la Figure 1.4 La structure de la pile protocolaire se divise en deux couches : la couche du réseau radio RNL (Radio Network Layer) et la couche du réseau de transport TNL (Transport Network Layer). Ces deux couches sont séparées dans le but de pouvoir modifier la couche de transport sans besoin de reconfigurer la couche radio. [13]

Figure 1. 4 Architecture générique des interfaces de l`UTRAN

La couche réseau de transport est destinée à transporter les données de la couche radio au sein de l`UTRAN. La couche réseau radio assure la gestion des ressources de l`interface radio et les fonctions d`établissement et de libération des connexions entre le terminal mobile et le réseau UTRAN. Le plan de contrôle de la couche réseau radio gère les canaux de signalisation nécessaires pour transmettre les données des protocoles applications comme RANAP (Radio Access Network Application Protocol), RNSAP (Radio Network Subsystem Application Part) ou NBAP ( Node B Application Part). Les protocoles du plan de contrôle de la couche réseau radio sont indépendants de la technologie employée dans le réseau de transport .Les protocoles ALCAP (Access Link Control Application Part) du plan de contrôle de la couche réseau de transport assurent les services de signalisation nécessaires pour l`établissement des connexions du plan utilisateur pour transporter les données de la couche réseau radio. Le plan utilisateur de la couche réseau radio contient les protocoles nécessaires pour transporter les flux des données de l`interface radio ainsi que es informations nécessaires aux mécanismes de synchronisation des trames et de macro diversité.

1.4 .1 L'interface Uu

L'interface logique Uu sert à connecter le terminal mobile à la station de base par l'intermédiaire d'une liaison radio. La couche physique de l'interface Uu est basée sur la technique d'accès multiple à répartition en codes WCDMA (Code Division Multiple Access

Dans le but de comprendre les fonctions de l'interface d'accès au réseau UTRAN, nous allons décrire les protocoles de communication mis en oeuvre sur l'interface entre un terminal mobile et le réseau d'accès radio du système UMTS. On pourra distinguer sur cette interface radio trois couches principales de protocoles illustrées à la Figure 1.5

Couche physique (couche 1) ;

ü la couche de liaison de données (couche 2) compose aussi des quatre sous couches :

ü la sous-couche MAC (Medium Access Control) ;

1- la sous-couche RLC (Radio Link Control) ;

2- la sous-couche PDPC (Packet Data Convergence Protocol) ;

3- _ la sous-couche BMC (Broadcast/Multicast Control

ü la couche 3 Réseau est la couche de contrôle de ressource radio RRC (Radio Ressource Control). Elle est divisée en trois sous-couche : la couches : RRC (Radio Ressource Control), MM (Mobility Management) et CC (Call Control).

L3

control

control

control

Logical

Channels

Transport

Channels

C-plane signalling

U-plane information

PHY

L2/MAC

L1

RLC

DC

Nt

GC

L2/RLC

MAC

RLC

RLC

RLC

RLC

RLC

RLC

RLC

Duplication avoidance

UuS boundary

BMC

L2/BMC

control

PDCP

PDCP

L2/PDCP

DC

Nt

GC

Radio

Bearers

RRC

control

Figure 1. 5 Couches de protocoles de l'interface radio Uu

1.4.2 Canaux UMTS

1.4.2.1 Canaux logiques :

Les canaux logiques sont définie selon l'information transporte, nous distinguons alors deux classes de canaux logiques, ceux pour le contrôle et ceux pour le trafic

Canaux logiques de contrôle

Le transfert des donnes de la couche Mac est effectues sur les canaux logiques, il existe deux type de canaux logique : canaux de trafic et canaux de contrôles. Les canaux logiques de contrôles sont utilises pour le transport d'information au niveau de plan de contrôle et ceux de trafic sont utilises pour achemines les information du plan user [16,17]

ü Broadcast control Channel (BCCH) utilisé dans le sens descendant pour la diffusion des informations du réseau au niveau de toutes les cellules.

ü Paging control Channel (PCCH) utilises dans le sens downlink pour achemines les information du paging

ü Common control Channel (CCCH) utilise dans le sens montant et descendant pour transporter l'information de contrôle entre le réseau et UE

ü Dedicated control Channel (DCCH) utilise dans le sens montant et descendant pour transporter les informations de signalisation entre UTRAN et le Mobile. ce canal est utilisé durant l'établissement de connexion avec le RRC

Les canaux logiques de trafic : [16,17]

ü Dedicated Trafic Channel (DTCH) utilise dans le sens descendant et montant, pour la transmission des informations entre l'utran et utilisateur

ü Common Trafic Channel (CTCH) utilise pour la transmission des messages pour les utilisateurs

ü MBMS point to multipoint trafic Channel (MTCH) utilise dans le sens descendant pour transporter le trafic MBMS au mobile

1.4.2.2 Canaux de transport

Les canaux de transport sont des services offerts par la couche 1 aux couches plus élevées. Le canal de transport est unidirectionnelle (montante ou descendant), comprend les caractéristiques exigées pour le transfert des données sur interface par radio. Par exemple, la taille du bloc de transport (pour transporter l'unité de données de la couche MAC est l'une des caractéristiques de canal de transport . Noter que la période correspondante à la transmission du bloc de transport est connue comme l'intervalle de temps de transmission (TTI). Dans la version 99, le TTI peut prendre les valeurs en ms 10, 20, 40, ou 80. Pour le Service conversationnelle, le TTI est fixe 10 ms. Pour les services de données il change selon le service utilisé. Les canaux de transport sont classes en trois groupe : canaux communs, canaux Dédies, et canaux partagés.

Un canal commun est un canal point à multipoint unidirectionnel utilisé pour le transfert d'informations de donnes et de contrôle des couches supérieur entre UTRAN et le Mobile. La couche physique est transparente pour les informations transmises. Les principaux canaux communs sont :

ü Broadcast Channel (BCH) utilise dans le sens descendant pour la diffusion des systèmes informations et spécifique cellule informations

ü The random access channel (RACH)

Il existe un seul type de canal partagé spécifié dans la R99 le DSCH (Downlink Shared Channel). C'est un canal utilisé uniquement sur la voie descendante en association avec un ou plusieurs canaux dédiés. Il est partagé dynamiquement par différents utilisateurs et transporte des données de contrôle ou de trafic.

Un canal dédié est un canal point à point dédié à un seul UE. Le DCH (Dedicated CHannel) est le seul type de canal dédies dans la R99. Ce type de canal existe dans les deux sens de la liaison et transporte des données.

1.4.2.3 Canaux physiques

Canaux physiques dédiés de la voie montante

Il existe deux types de canaux physiques dédiés dans la voie montante :

ü Le canal physique dédié de données DPDCH (Dedicated Physical Data CHannel)

ü Le canal physique dédié de contrôle DPCCH (Dedicated Physical Control CHannel).

De manière générale, dans la voie montante, la transmission de plusieurs services en parallèle dotés de débits différents est accomplie en accommodant plusieurs canaux de transport dédiés (DCH) dans un seul canal physique de données dédié (DPDCH). Cette approche devient rapidement limitée lorsque l'on souhaite accroître le débit utile. Par exemple, avec SF=4, le débit maximum sur le DPDCH est de 960 kbps. Par ailleurs, si l'on considère que cette information a subi un codage avec un taux de codage de 1/2, le débit utile maximum que l'on obtient est de 480 kbps. Une autre manière d'augmenter le débit consiste à agencer l'information des canaux de transport sur plusieurs canaux physiques dédiés. Cette approche est appelée transmission « en Multicode », car plusieurs DPDCH peuvent être réquisitionnés pour transmettre en parallèle cette information, chaque canal étant étalé avec un code de canalisation différente. La valeur SF peut aussi être différente. Le nombre maximum de DPDCH par utilisateur est de six [4]. Les différents DPDCH sont additionnés et étalés avec le même code d'embrouillage . On peut noter que l'information de contrôle associée à la liaison radio est convoyée par un seul DPCCH.

Avec la transmission en Multicode, le débit utile total que l'on obtient en considérant un taux de codage de 1/2, un facteur d'étalement SF=4 et six canaux DPDCH est de 2.88 Mbps. Cependant, dans la pratique, en présence de trajets multiples et des limitations dues au contrôle de puissance, il serait difficile de garantir des performances acceptables avec un tel schéma de transmission.

Canaux physiques dédiés de la voie descendante :

À la différence de la voix montante, il existe un seul type de canal physique dédié dans la voie descendante appelé :

v DPCH (Dedicated Physical CHannel). Ce canal achemine l'information du canal de transport

DCH - information qui peut être du trafic de données ou de contrôle généré par les couches supérieures. Il transporte également de l'information de contrôle engendrée par la couche physique elle-même et, de ce fait, il peut être considéré comme le multiplexage temporel d'un canal physique de données dédié (DPDCH) et d'un canal physique de contrôle dédié (DPCCH).

La transmission en Multicode est également possible dans la voie descendante. Les DPCH sont transmis en parallèle vers l'UE concerné avec la même valeur ou non de SF. Chaque DPCH possède un code de canalisation différent. Par contre, le même code d'embrouillage est appliqué à tous les DPCH impliqués.

Canaux physiques communs

Nous allons citer uniquement trois canaux physiques communs sur la voix descendante :

ü PDSCH (Physical Downlink Shared Channel),

ü CPICH (Common Pilot Channel)

ü SCH (Synchronization Channel).

Le canal PDSCH supporte le DSCH lors de l'envoi de trafic de données à haut débit vers un ou plusieurs équipements usagers situés dans une même cellule. Plusieurs utilisateurs peuvent se partager ce canal à des moments différents. Ceci est particulièrement précieux pour l'UTRAN dans des situations où les codes de canalisation dont dispose la cellule se font rares. L'allocation d'un PDSCH à un UE est cadencée par TTI.

Dans certains cas, UTRAN peut attribuer, dans une même trame, plusieurs PDSCH à un UE en utilisant la technique de transmission Multicode où chaque PDSCH possède la même valeur de SF. Des débits aussi élevés que ceux que l'on obtient avec un canal dédié peut être ainsi atteints.

Comme son nom l'indique, le CPICH est composé d'une séquence prédéfinie de bits dits « pilotes » qui sont transmis en permanence sur la cellule. Le débit de ces bits est constant et égal à 30 kbps, ce qui est fixé avec une valeur de SF constante et égale à 256.

Le CPICH peut être considéré comme un canal « balise » dont les terminaux mobiles se servent, entre autres, pour estimer la qualité du canal de propagation. La précision de cette estimation permet d'améliorer les performances des techniques de détection mises en place à la réception, pour récupérer l'information binaire transmise par le biais des canaux physiques dédiés et communs de la voie descendante.

Le SCH permet aux stations mobiles de se synchroniser avec le réseau et de récupérer le code d'embrouillage spécifique à la cellule courante. Il ne transporte pas d'informations des couches supérieures et il n'est associé à aucun canal de transport.

1.4.3 Couche physique

La couche physique est chargée de transporter l'information générée par les couches supérieures. Il s'agit de véhiculer cette information tout en respectant des contraintes de qualité imposées par le service (délai, débit, taux d'erreur, etc). Nous commencerons par présenter la chaîne de transmission UTRA/FDD. Puis, nous aborderons le multiplexage et le codage canal en détail. Nous verrons ensuite l'application de l'étalement de spectre de manière spécifique au réseau UMTS. Nous terminerons par la modulation radio.

Chaîne de transmission UTRA/FDD : La couche physique fournit le service de transfert d'information à la couche MAC au travers des canaux de transport. En émission, les données fournies par la couche MAC sont passées dans une chaîne de codage de canal avant d'être transmises sur le médium physique. En réception, les données reçues sur un canal physique sont passées dans une chaîne de décodage de canal avant d'être remises à la couche MAC. Lorsque plusieurs canaux de transport de même type sont portés simultanément par un seul canal physique, la chaîne de codage est suivie d'une chaîne de multiplexage et la chaîne de décodage est précédée d'une chaîne de démultiplexage. La Figure 1.6 illustre les différentes opérations de traitement du signal utilisées dans la chaîne de transmission de l'UTRA/FDD.

Figure 1. 6 - Fonctions de la couche physique dans la chaîne de transmission UTRA/FDD

Les fonctions de multiplexage et de codage canal s'appliquent aux canaux de transport par lesquels transitent les bits délivrés par les couches supérieures à la couche physique. Les bits véhiculés par les canaux de transport sont agencés sur les canaux physiques. Une fois qu'ils sont présents dans ces canaux, ils subissent des traitements de signal spécifiques pour pouvoir être transmis à travers l'air. Auparavant, les bits sont convertis en symboles et subissent l'opération d'étalement de spectre qui va les transformer en chips. Ce sont des chips qui sont transmis par l'antenne de l'émetteur après avoir été modulés et placés sur une fréquence porteuse. Les fonctions inverses sont mises en place à la réception

Multiplexage et codage : Les services qui seront offerts par l'UMTS seront riches en contenu multimédia. Supporter ces services implique la transmission en parallèle de plusieurs flots d'information et, avec elle, l'utilisation de plusieurs canaux de transport lors d'une même connexion : Chacun d'eux correspond à un service ayant une QoS différente. Dans le but d'avoir l'assurance que la QoS du service en question soit respectée, et plus particulièrement que le taux d'erreurs et le délai de transmission soient conformes aux attentes, la couche physique met en place des mécanismes de multiplexage flexibles et des techniques performantes de codage pour la détection et la correction des erreurs. Un UE peut utiliser plusieurs canaux de transport simultanément, chacun étant doté de ses propres caractéristiques en termes de qualité de service. Ainsi, un ou plusieurs canaux dédiés de transport (DCH) peuvent être traités en parallèle pour constituer débit binaire de données unique appelé CCTrCH (Coded Composite Transport CHannel). Les bits dans un CCTrCH peuvent être convoyés par un même canal physique. Les différentes étapes de la procédure de multiplexage et de codage dans la voie montante sont mises en évidence dans la et résumées par les points suivants :

Ø Insertion de bits CRC : le CRC (Cyclic Redundancy Check) est une technique de détection d'erreurs en réception, à laquelle les systèmes de radiocommunication ont souvent recours, car elle est efficace et simple à mettre en oeuvre. Avec la détection d'erreurs, il est possible d'estimer la probabilité d'erreur dans un bloc de bits de transport. Cette estimation permet d'évaluer la qualité de la liaison radio et elle peut être utilisée dans des procédures tel que le contrôle de puissance ;

Ø Concaténation et segmentation des blocs de transport : chaque groupe de blocs de transport, correspondant à un même canal de transport dans un intervalle de temps de transmission TTI (Transmission Time Interval), est traité avant d'être envoyé vers le codeur canal, ce afin que le codeur canal ne détecte en entrée qu'une séquence de bits unique dont la taille ne dépasse pas la valeur maximale notée Z. Si le nombre de blocs de transport dans un TTI est M et si p est le nombre de bits par bloc de transport, la longueur de cette séquence après concaténation est M × p. Dans le cas où la taille de la séquence dépasse Z, on applique alors une procédure de segmentation dont l'objet est de diviser la séquence en sous séquences ayant la même taille. La valeur Z est imposée par le type de codage que l'on met en place. Cette opération permet de réduire la complexité du codeur ainsi que celle du décodeur lorsque la séquence à coder est trop longue ;

Ø Codage : une fois que les blocs de transport ont subi les phases de concaténation et de segmentation, les séquences de bits qui en résultent sont livrées au codeur. Le codage fait partie des techniques appelées FEC (Forward Error Correction). L'idée est de coder les bits en émission en ajoutant des bits de redondance, de telle sorte qu'en réception, l'on puisse détecter et corriger d'éventuelles erreurs survenues pendant la transmission. Le codage se décompose donc en deux phases : le codage, qui est appliqué en émission et le décodage en réception.

D'une manière générale, quel que soit le type de codage, l'encodage est effectué en faisant passer une séquence de bits dans un registre à décalages. Ce registre est composé de N états où des opérations algébriques sont appliquées suivant les polynômes générateurs utilisés. Pour k bits qui rentrent dans l'encodeur, on obtient n bits en sortie, ce qui détermine le « taux de codage » défini par le ratio R = k/n. Le paramètre N, appelé « longueur de contrainte », détermine la capacité du codage canal à corriger les erreurs et la complexité de mise en oeuvre de cette technique. Le choix du taux de codage à appliquer dépend du service. Plus le taux de codage est faible, plus les performances de codage sont bonnes, même si en contre partie, le débit utile diminue et les opérations d'encodage et de décodage sont plus complexes. Il existe deux types de codage en UTRA/FDD : le codage « convolutionnel » et le codage « Turbo ». Le premier est particulièrement approprié pour des services de transmission de voix où le taux d'erreur BLER (block Error Rate) que l'on tolère est de l'ordre de 10-3. En revanche, pour des services de transmission de données, le taux d'erreur est généralement plus faible (moins de 10-5). C'est pourquoi l'on fait appel à des techniques plus sophistiquées, tel que le codage Turbo qui peut être vu comme la concaténation de deux encodeurs convolutionnels qui opèrent en parallèle, séparés par un entrelaceur interne

Une fois l'opération de codage terminée, d'autres étapes sont nécessaires avant d'entamer le multiplexage et que nous résumons par ce qui suit : Ajustement de la taille de trames : cette étape, utilisée sur le lien montant, consiste à scinder les séquences de bits codés (ou non) en segments de la même taille et à mettre ces segments en série. Ce procédé est nécessaire lorsque le nombre de bits présents dans la séquence de bits en entrée n'est pas un multiple du nombre de trames par TTI. Afin de s'assurer que tous les segments aient la même taille, des bits de bourrage peuvent être insérés ;

Premier entrelacement : l'entrelacement est une technique qui permet d'obtenir une forme de diversité temporelle et d'éviter ainsi les erreurs en rafale. Ce procédé consiste à mélanger une séquence de bits en émission, de façon à étaler les erreurs pendant la transmission et rendre plus aléatoire leurs propriétés statistiques. L'entrelacement permet donc d'améliorer les performances de l'algorithme de décodage canal utilisé ;

Segmentation des trames : ce traitement vient compléter l'ajustement de la taille des trames et s'applique lorsque le TTI est supérieur à 10 ms. Son rôle est de segmenter la séquence de bits contenue dans un TTI en un nombre entier de trames consécutives ;

Adaptation du débit : un même canal physique peut convoyer des bits d'information issus des différents canaux de transport. Or, le débit d'un canal physique est limité. Il faut donc adapter le débit à la sortie de chaque canal de transport. Pour ce faire, on peut être amené à retrancher des bits dans des flots d'information de chaque canal de transport ou à en rajouter [4].

Multiplexage des canaux de transport : chaque canal délivre une séquence binaire codée tous les 10 ms. Ces séquences sont ensuite concaténées les unes après les autres pour ne créer qu'un flot binaire unique en série : le CCTrCH .

Segmentation des canaux physiques et deuxième entrelacement : la segmentation ne s'applique que lorsque plusieurs canaux physiques sont utilisés pour le même CCTrCH, autrement dit lors d'une transmission en multicode. Dans ce cas, le deuxième entrelacement s'applique individuellement sur chaque canal physique. A la sortie, l'information est répartie sur le ou les canaux physiques. À ce stade, on est sûr que les bits d'information provenant de chaque canal de transport pourront être accommodés dans des trames de 10 ms, et ce en respectant la QoS requise par le service.

Les fonctions de multiplexage et de codage canal sur le lien descendant sont similaires à celles mises en place dans la voie montante. Cependant, il existe des particularités propres au lien descendant. En effet, le nombre de bits présents dans la trame d'un canal physique est dicté par le facteur d'étalement SF. Dans la voie montante, ce paramètre peut changer d'un TTI à un autre. Tandis que, dans la voie descendante, la valeur du SF reste constante tout au long de la communication. Ainsi, les fonctions d'adaptation de débit et de segmentation sont différentes

Application de l'étalement de spectre : Suite à l'opération de multiplexage et de codage, les bits sont transformés en symboles, puis on applique les opérations d'étalement de spectre et de modulation. Auparavant, il convient de citer les paramètres radio qui caractérisent les canaux physiques de l'UTRA/FDD. Parmi ces paramètres, on trouve : Les métriques suivantes sont également référencées pour définir la durée des canaux physiques : Une « trame radio » a une durée où on traite l'information qui s'étend sur quinze intervalles de temps ou slots, soit 38 400 chips (10 ms) ; Un slot est un intervalle de temps de longueur fixe et égale à 2560 chips ( 0.667 ms). Le nombre de bits par slot est variable.

Dans la voie descendante, les codes de canalisation permettent d'identifier les symboles d'information appartenant à chaque utilisateur dans une cellule. Dans la voie montante, ils permettent de différencier les symboles d'information du canal ou des canaux physiques de données dédiés (DPDCH) et du canal physique dédié de contrôle (DPCCH) appartenant à un même utilisateur. Le rôle fonctionnel des codes de canalisation utilisés dans un réseau UTRA/FDD peut être comparé aux slots de temps alloués dans le réseaux mobiles à base de TDMA, aux différents utilisateurs dans la cellule pour les distinguer (du moins pour ce qui concerne la voie descendante).

Les codes d'embrouillage, dans la voie descendante, permettent d'identifier une cellule. Il existe donc un code unique d'embrouillage par cellule. L'utilisation des codes d'embrouillage rend les propriétés statistiques de l'interférence proche de celles d'un bruit Gaussien, sachant que cette interférence est invoquée par les cellules voisines qui émettent sur la même fréquence porteuse. Le code d'embrouillage permet donc de faciliter la tâche du récepteur lors de la détection des symboles transmis. Dans la voie montante, les codes d'embrouillage sont utilisés non seulement pour améliorer les propriétés statistiques des codes de canalisation, mais aussi pour différencier les utilisateurs présents dans une même cellule.

Modulation : La modulation consiste à transformer le signal en bande de base, une fois converti en analogique, en signal radio, afin de pouvoir le transmettre dans l'air. La Figure 1.7 donne un exemple de modulation effectuée au niveau de l'émetteur de la station mobile et de la station de base

Figure 1. 7- Exemple d'une chaîne d'émission utilisant la modulation QPSK

Après avoir été étalé et embrouillé, le signal complexe qui en résulte, composé de chips, est réparti sur une voie réelle et sur une voie imaginaire appelée respectivement « voie I » et « voie Q ». Puis, il est filtré avec un filtre numérique et converti en un signal analogique à l'aide d'un convertisseur numérique/analogique (CAN). Le signal passe encore par un filtre analogique avant d'être modulé en quadrature et transposé sur une fréquence ?. Une fois filtré, le signal analogique est ensuite modulé suivant le principe de la modulation QPSK (Quadrature Phase Shift Keying) [10]. Ce type de modulation permet la transmission de deux chips par symbole. La phase du signal modulé prend différentes valeurs qui représentent une paire unique de chips. Dans le schéma simplifié de la Figure 1.7, le signal modulé est amplifié à l'aide d'un amplificateur de puissance PA (Power Amplifier) avant d'être transmis. Le choix de la modulation QPSK a été effectué précisément avec le souci d'améliorer son efficacité. En effet, l'efficacité de l'amplificateur de puissance est particulièrement importante dans la station mobile, car elle a une influence directe sur la consommation d'énergie du terminal

1.4.4 Couche liaison :

1.4.4.1 Couche MAC

La couche MAC fournit des services à la sous-couche de RLC par l'intermédiaire des canaux logiques (contrôle et du trafic) et coordonne l'accès à la couche physique par l'intermédiaire des canaux de transport. La couche MAC multiplexe les canaux logiques sur les canaux physiques et inversement grâce a une table de correspondance. La couche MAC doit également négocier les paramètres de QoS en gérant les contentions entre les demandes de services et en établissant des priorités entre les accès Les fonctions principales de la couche MAC sont les suivants [16,17]

ü Sélection du format de transport correspondant a chaque canal de transport en fonction du débit instantané et des indications de la couche RRC

ü Gestion des priorités entre flux de donnes pour chaque mobile. lors de la sélection entre plusieurs format de transport, la couche MAC détermines les priorités entre flux de donnes véhicules sur les canaux de transport correspondant .Ces priorités sont base sur les services support Radio, l'état du buffer RLC et les indications de puissance de la couche physique. la gestion de priorité est réalise en sélectionnant le format de transport pour lequel les donnes à la priorité la plus élevée sont transportées sur les canaux physiques à haut débit

ü Gestion dynamique des priorités entre usager a fin d'utiliser les ressources spectrales pour le transfert des données sporadiques. la couche MAC gère les priorités sur les canaux de transport commun et partages

ü Organisation des messages de diffusion de paging

ü Identification des mobiles sur les canaux de transport : Quand plusieurs canaux logiques dédies à différents utilisateurs sont acheminées par le même canal commun (par exemple, FACH, RACH), identification de l' équipement utilisateur (c.-à-d., cell radio network temporary identity ) [ C-RNTI ] ou identité temporaire de l'UTRAN dans le réseau [ U-RNTI ]) (UTRAN radio network temporary identity ) présent dans l'en-tête du MAC est employé pour identifier les canaux logiques de chaque utilisateur du côté de récepteur.

ü Adaptation entre canaux c a d entre les canaux logiques et les canaux de transport

ü Multiplexage et demultiplixage des PDU en provenance ou émis vers les couches supérieures vers ou en provenance de la couche physique sur les canaux de transport commun

ü Commutation dynamique de canal de transport .la couche MAC commute les flux de donnes entre les canaux de transport commun et dédies sur la base des indications de la couche RRC

Dans la version 5, une nouvelle entité du MAC appelé MAC -high speed (MAC -hs) est introduit dans le node B, a été présenté dans les caractéristiques 3GPP. Cette entité est responsable de manipuler et de contrôler le mécanisme de HARQ présenté dans HSDPA. L'entité MAC_hs est responsable d'assembler, et desa-sembler, et de commander à nouveau une couche plus élevée PDU. Les PDUs sont livrés dans l'ordre aux couches plus élevées.

1.4.4.2 MAC Architecture

Afin de manipuler les fonctions décrites précédemment, la couche MAC est divisée en domaines ou entités suivants [16,17]

ü MAC - b est l'entité qui manipule le canal de BCH. Il existe uniquement une seule pour chaque équipement utilisateur, ainsi qu'une seule au niveau de chaque UTRAN (noeud B) comme spécifie par le 3GPP.

ü MAC-d est l'entité qui manipule le canal de DCH. Cette entité est spécifique à chaque utilisateur. Dans l'UTRAN, cette entité est située dans le SRNC. Notez que le chiffrage est exécuté par cette entité.

ü MAC-c/sh/m est l'entité qui manipule le FACH, le PCH, le RACH, le CPCH, le choix de formats de transport, ordonnancement / manipulation de priorité Il y a un MAC-c/sh/m situés dans l'équipement utilisateur et dans l'UTRAN (situé dans le CRNC). Note que dans la version 99, cette entité a été appelée MAC-c/sh. Dans la version 6, c'est appelé MAC-c/sh/m puisqu'il est impliqué dans les services de MBMS en multiplexant et en lisant l'identité de MBMS (qui est employée pour distinguer les services de MBMS).

ü MAC -hs est l'entité qui manipule le canal de HS-DSCH spécifie dans la release 5. Cette entité, située dans le noeud B et dans l'équipement d'utilisateur, est responsable de la fonctionnalité de HARQ, du choix de format de transport et de l'établissement d'ordonnancement.

ü Mac -m est l'entité qui contrôle accès au canal FACH quand il est employé pour porter les canaux logiques de MTCH et de MSCH . Cette entité est ajoutée aux caractéristiques 3GPP dans la version 6. Elle existe seulement dans le côté d'équipement d'utilisateur de l'architecture MAC dans le cas de la combinaison sélective des canaux de MTCH des cellules multiples.

ü MAC-e/es est les entités qui manipulent le canal d'E-DCH. Ces entités sont présentées par le 3GPP dans la version 6.

ü Les architectures générales MAC sur l'équipement d'utilisateur et les côtés d'UTRAN, respectivement, sont dépeintes sur les schémas suivants :

Figure 1 8 : Architecture Générale du MAC du UMTS cote UE

Figure 1 9 Format du MAC PDU

Protocole Data Unit

Le format du MAC PDU est présente sur le schéma 1.9 , se compose d'un en-tête MAC et d'une unité de donnes de MAC (SDU), de taille variable. Le contenu et la taille de l'en-tête MAC dépend du type du canal logique, dans certains cas les donnes de l'entête ne sont pas nécessaire. La taille du MAC-SDU dépend de la taille de la PDU de RLC

ü Le champ TCTF ( The target Channel type Field ) est un champs qui identifie les canaux logiques tels que BCCH, CCCH, CTCH, SHCCH, MCCH, MTCH, MSCH porte par FACH, USCH (TDD seulement), DSCH (TDD seulement) et Canaux de transport de RACH. Noter que la taille du champ de TCTF de FACH pour FDD est deux, quatre, ou huit bits.

ü Le champ de C/T est employé pour identifier le type de canaux logique portes par les canaux logiques de transport et surtout sur les canaux de FACH et de RACH. l'identification des canaux logiques est importante lorsque plusieurs canaux logiques sont portes par le même canal de transport. La taille du champ de C/T est fixée à quatre bits pour les canaux communs et dédies de transport

ü Le champ type identité d'équipement utilisateur fournit l'identification de l'équipement de l'utilisateur sur les canaux de transport commun . Deux types d'identités équipement utilisateur sont définis par le 3GPP :

- (U-RNTI) UTRAN radio network temporary identity est employée seulement dans la direction descendante (jamais dans la liaison montante) quand le canal logique DCCH du RLC du unacknowledged mode (UM) est organise sur les canaux communs de transport. Le mode d'UM de RLC est décrit dans la section suivante ;

- (C-RNTI) cell radio network temporary identity est employée pour DTCH et DCCH dans la liaison montante, DTCH (et peut-être DCCH) dans la liaison descendante, une fois organise sur les canaux communs de transport.

Le champ type identité équipement utilisateur aide le récepteur à décoder correctement l'identité d'équipement utilisateur dans en-têtes de MAC.

1.4.4.3 La couche RLC (Radio Link Control )

La couche RLC établit la connexion entre l'équipement de l'utilisateur UE (User Equipment ) et le RNC (Radio Network Controller). Elle contient des fonctions classiques du niveau 2 tel que le transfert des données sur l'interface radio. Elle réalise la fonction de segmentation des paquets en des unités de taille prédéfinie par la couche RRC [22] . Ces unités sont appelées RLC-PDU (RLC-Packet Data Unit). Elle assure aussi le réassemblage des paquets à la réception. La couche RLC offre trois modes d'opération :

ü Le mode transparent TM (Transparent Mode): dans ce mode de fonctionnement, la couche RLC réalise uniquement les opérations de segmentation et de ré assemblage. Aucun en-tête RLC n'est ajouté aux paquets [21]

ü Le mode non acquitté UM (Unacknowledged Mode): dans ce mode de fonctionnement, la couche RLC réalise les mécanismes de segmentation/ré assemblage ainsi que des mécanismes de concaténation de plusieurs paquets (RLC-SDU: RLC-Service Data Unit) dans un seul RLC-PDU. Il est à noter qu'un RLC-SDU correspond à un paquet du niveau supérieur. Le mode UM assure la détection d'erreurs et de pertes mais aucun mécanisme de retransmission n'est mis en place. Le format d'un RLC-PDU en mode UM est présenté sur la Figure 1.10.

Figure 1 10 Format d`un paquet RLC-PDU en mode de UM

Séquence Number (SN): Ce champ de 7 bits indique le numéro de séquence du paquet RLC-PDU. Il est utilisé par l`entité de réception pour détecter les erreurs et les pertes et pour préserver l`ordre des paquets

Length Indicator (LI): Ce champ de 7 bits indique la longueur du paquet RLC-SDU, c`est à dire le champ de données suivant. Dans le cas de concaténation de plusieurs paquets, un champ LI est ajouté pour chaque RLC-SDU. Un seul champ SN est ajouté pour l`ensemble du RLC-PDU. Dans le cas où un seul RLC-SDU est inséré dans un RLC-PDU, le champ LI est éliminé.

Le bit E : Ce bit indique la fin de chaque champ de l`en-tête.

Le champ des données (Data): C`est le champ qui contient les informations de la couche supérieure.

Le champ de bourrage (Padding): Ce sont des bits de bourrage qui sont ajoutés à la fin du RLC-PDU pour que sa taille soit égale à la taille imposée par la couche RRC.

Le mode acquitté AM (Acknowledged Mode): dans ce mode de fonctionnement, la couche RLC assure les mêmes fonctions du mode UM (segmentation/réassemblage, concaténation, détection d'erreurs et de pertes) mais en plus, elle assure les fonctions de retransmission des paquets en cas de perte ou d'erreurs( par ARQ). . Ce mode de fonctionnement est recommandé pour les applications qui demandent un transfert fiable des données.

Figure 1 11 Format d`un RLC-PDU en m ode AM

Le champ D/C distingue entre les paquets de données (D) et les paquets de contrôle (C).

Le bit P (Polling): ce bit est utilisé pour forcer l`entité de réception à envoyer un acquittement.

Le champ HE de deux bits indique si l`octet suivant est un octet de données ou c`est un champ LI.

Le champ SN est de 12 bits dans le mode AM.

1.4.4.4 La couche PDCP (Packet Data Convergence Protocol)

Elle assure deux fonctions principales [23]. Tout d'abord, elle permet d'assurer l'indépendance des protocoles radio de l'UTRAN (couches MAC et RLC) par rapport aux couches de transport réseau TNL (Transport Network Layer). Cette indépendance permettra de faire évoluer les protocoles (exemple passage de l'IPv4 à l'IPv6) sans modifications des protocoles radio de l'UTRAN. D'autre part, la couche PDCP offre les algorithmes de compression de données ou d'en-tête de paquets de données, permettant un usage plus efficace de ressource radio. [1,24]. Ces algorithmes sont indiques a la couche PDCP via PDCP control SAP

Figure 1 12 Architecture de la couche PDCP

1.4.4.5 La couche RRC (Radio Ressource Control)

Elle a pour rôle de gérer la signalisation des connexions radio entre le mobile et l'UTRAN [22] : Établissement, libération et reconfiguration. Elle est responsable des fonctions de contrôle d'admission, de la gestion des ressources radio, du contrôle de puissance et de la gestion de mobilité. Une seule connexion RRC est établie pour chaque mobile quel que soit le nombre des sessions et le mode packet switched (PS) ou circuit switched (CS). Cette couche interagit avec les couches RLC et MAC pour déterminer la taille des RLC-PDU au niveau de la couche RLC ainsi que le nombre de TB qui pourront être envoyés dans un même TTI (Transmission Time Interval) au niveau de la couche MAC.

Pour gérer et assurer le transport de plusieurs type de trafic sur l'interface air , le 3 GPP ont définie plusieurs canaux , chaqu' une à un rôle spécifique dans l'établissement et le maintien des sessions dans l'accès au réseau UMTS , ainsi ont été divise en trois groupe canaux logiques , canaux de transports et canaux physiques

1.4.4.6 Protocole ARQ (Automatic Repeat Request Protocol)

L'information transmise au-dessus de l'interface air est protégée contre les erreurs par l'utilisation du code de FEC appelé le code de canal. Les services dites ( non real time service ) tel que la téléphonie et la vedeophonie et et services dite ( real time service ) telque l`interactif et back gound sont transmis sur l'interface radio avec une certaines QoS , le service QoS est caractérise par un retard et un taux bien définie  ; dans le service voie le taux d'erreur ne doit pas dépasser une valeur 10-3 mais pas de tolérance sur le retard. Pour le service de donnes non real time (service interactive et background) le taux d'erreur ne doit pas dépasse 10-8 . Le retard de réception des services NRT est souvent acceptable .Pour atteindre cet objectif du taux d'erreur 10-8 , deux possibilités sont envisages :

Augmentation de la puissance d'émission dans le node B

Augmentation de la redondance lors du codage du canal.

Pour la première solution il en résulte une augmentation des interférences et une diminution de la capacité. Pour la deuxième solution augmentation de la redondance en résulte une diminution du débit utilisateur. Pour éviter cette dégradation le protocole ARQ est largement utilisés dans les systèmes de communication sans fil actuels pour avoir une transmission de donnes sans erreur pour les applications NRT

Le protocole ARQ consiste à la retransmission des paquets erronés jusqu'à la réception des bons paquets malgré que les services NRT ne tolèrent pas le retard, l'idée fonctionne dans les taux d'erreurs élevé qui peut atteindre les 10-3 .

Le protocole TCP et le protocole ARQ s`interate entre eux négativement ce qui entraîne une dégradation de capacité, étant donne que le TCP considère la retransmission du paquet par le protocole ARQ sur l'interface air comme congestion dans le réseau fixe.

Le protocole ARQ n'élimine pas tous les erreurs tant que ils ne sont pas détecte par le CRC. Soit Pud la probabilité d'erreur à la sortie de ARQ et Pd la probabilité de détection de paquet erroné qui est aussi la probabilité de retransmission, le taux d'erreur de paquet est évalue par la somme des probabilités des événement résultant de la réception des paquet erroné [27]:

(1.1)

Dans la plus part des réseau de donnes trois protocole ARQ peuvent être employé [28].

SW protocole,

Go-back-n protocol,

SR protocol

Dans la release 99 le SR_ARQ est utilise au niveau du RLC, le CRC détecte les erreurs pour chaque PDU_RLC au niveau de l'équipement utilisateur, dans le cas ou des RLC_PDU sont erroné, le Mobile informe le RNC via le node B via un message de non acquittement du PDU porte par le canal montant DPCH, le RNC retransmis le PDU_RLC jusqu'à sa réception sans erreur

1.4.4.6.1 Protocole Stop Wait

C'est le protocole d'ARQ le plus simple. L'expéditeur ou le RNC dans le cas d'UMTS R99, classes les paquets à transmettre en mode FIFO, transmet le premier paquet stocker dans le tampon récepteur, active le temporisateur, et attend l'accuse du récepteur. La non réception d'accuser, et l'expiration de temporisateur cause une retransmission du même paquet par l'expéditeur. Une fois la réception de l'accuse est positive avant expiration de temporisateur à l'expéditeur, le prochain paquet dans le tampon est transmis au récepteur. Cette stratégie cause un retard considérable puisque les paquets dans le tampon ne peuvent pas être transmis avant la réception de l'accuse du paquet précédent. La période de l'inactivité entre la transmission d'un paquet et la réception de la l'accuse rend ce protocole inefficace [28]. Notez que dans UMTS R99, ce protocole n'est pas employé

1.4.4.6.2 Protocole Glissement de fenêtre « Sliding Window «

Pour traiter le problème d'inefficacité de la stratégie SW protocole, le protocole de glissement de fenêtre a été développé. Au lieu de transmettre un paquet et attendre l'accuse avant d'envoyer un autre, l'expéditeur transmet W paquets où W est une taille de fenêtre de transmission, avant de recevoir l'accuse du premier paquet. Par suite, un autre est transmis, de sorte que tout le nombre de paquets transmis qui attend l'accuse soit maintenu égale à la taille W de fenêtre. Cette technique augmente le flux de sortie du système mais exige des plus grands en-têtes -par exemple, un numéro de séquence devrait être attribué à chaque paquet - .

Si le paquet reçu contient des erreurs, un Accuse Négative est envoyé, par exemple, sur la liaison montante DPCCH à l'expéditeur, par exemple le RNC. Dans ce cas deux stratégies de contrôle peuvent être appliquées :

GO BACK N

SR.

Le protocole go-back-n contrôle plusieurs blocs à la fois. Quand un paquet reçu est incorrect, un acquittement Négative est transmis à l'expéditeur. Tous les paquets transmis à partir d'un paquet incorrect doivent être retransmis. Au récepteur, tous les paquets reçus après les paquets incorrects sont jetés. Ce protocole est employé dans le TCP.

Dans les réseaux sans fil, ce protocole approprié seulement au système ayant des débits binaires élevés au-dessus de l'interface d'air (gigabits/s) puisque les erreurs bursty produites par les trajets multiples affectent plusieurs paquets successifs dans ce cas-ci. Dans les systèmes sans fil avec des débits binaires limités tels qu' UMTS, cette stratégie produit retard additionnel et limite l'efficacité de système. La retransmission sélective des paquets incorrects est plus appropriée pour les systèmes à bas débit.

L'inefficacité du protocole Go-back-n dans le cas du taux d'erreurs élevé peut être résolue en employant la stratégie de SR. Si un paquet reçu est incorrect, seulement ce paquet est retransmis par l'expéditeur, par conséquent une diminution de nombre de retransmissions de paquet. Si Pd représente le taux d'erreur paquet détecté, le nombre moyen de transmissions de paquet peut être évalué en utilisant l'équation suivante :

(1.2)

Ce protocole exige plus d'en-tête et de récepteurs plus complexes. Un problème d'ordre peut surgir puisque quelques paquets peuvent être correctement reçus et décodés avant d'autres. Ceci peut avoir un effet sur les protocoles de haute couche tels que le TCP. Par conséquent, l'ordonnancement de ces paquets devrait être effectué avant leur transmission à des couches plus élevées

1.4.5 Power control

Le contrôle de puissance est l'une des techniques principales utilisées dans les réseaux sans fil. , il a été nettement améliore entre le GSM et l'UMTS. En GSM la boucle de contrôle fonctionne à 2HZ en UMTS à 1500 Hz. Le canal radio change instantanément selon l'environnement de la propagation. Pour réaliser une QoS exigé par utilisateur, la puissance de transmission doit être adaptée instantanément aux dite variations afin de maintenir le niveau du signal . Comme les conditions de QoS dépendent du type de service, différent seuil du taux d'erreur est prévues. Pour le service conversationnel, le seuil est de l'ordre de 10-3 , Pour le transfert des données le seuil est de 10-8. . Pour un état donne du canal de propagation le seuil du taux d'erreur correspond à une valeur spécifique du SIR . Par conséquent, le contrôle de puissance doit fournir une adaptation instantanée des donnes transmis aux conditions de QoS et l'environnement des mobiles en adaptant le seuil SIR et la puissance instantanée transmise pour réalise ce seuil.

Dans UMTS, cette adaptation peut être réalise de façon continue en employant la mesure de qualité du lien radio avant et après l'établissement de la connexion au RRC qui contrôle l'accès au-dessus de l'interface Radio. Par conséquent deux type de contrôle de puissance existent dans le réseau UMTS [29,30].

Contrôle de puissance avec boucle ferme

Contrôle de puissance avec boucle ouverte

1.5 Modélisation de la capacité cellulaire

Pour prévoir l'efficacité du système d'UMTS R99, une évaluation de la capacité des cellules devrait être effectues. La capacité des cellules est le nombre maximum d'utilisateurs qui peuvent être servis simultanément, chaqu'un a un débit binaire et une QoS donné à satisfaire. La capacité des systèmes utilisant le mode accès base sur la technique WCDMA est très sensible, en effet elle subit une dégradation plus le nombre de codes ou ressources assignés aux utilisateurs augmentent ou si plus d'utilisateurs sont acceptés dans le système

Le nombre d'utilisateurs peut dépasser la capacité aux dépens de QoS, en d'autres termes les données sont reçues avec un SIR inférieur à la valeur de seuil .

Pour évaluer cette dégradation, la notion de probabilité de réussite a été introduite indiquant combien de fois, la valeur SIR des données reçues n'atteint pas la valeur seuil. la probabilité de réussite est employé pour assurer la couverture dans les systèmes utilisant la technique d'accès WCDMA et pour fournir la flexibilité nécessaire dans la planification cellulaires , ce qui n'est pas possible dans les systèmes TDMA qui montrent une capacité dure. Une fois que tous les IT ou canaux disponibles sont assignés dans TDMA, le système ne peut accepter plus d'utilisateurs.

Dans la littérature, le problème de planification cellulaire a été largement étudié avec les diverses méthodes analytiques et simulations [e.g., 31-45]. Dans cette section, un modèle de base pour la capacité cellulaire, développé est présenté. Le modèle assure le contrôle parfait de puissance dans la liaison montante et descendant. Et ne tient pas compte de soft handover et la macro diversité [34-35, 37-41,46-49].

Avant de présenter l'approche analytique, il est important de noter que les études de la capacité de système sont essentielles en raison des interférences induites par utilisateurs l'une sur l'autre.

1.5.1 Capacité du sens descendant

Dans le sens descendant le SINR peut être approximer par l'expression suivante :

Ou W est le débit chip , Ri le débit binaire utilisateur , Gij le facteur Gain du trajet entre l'utilisateur i et la cellule j , Pi la puissance d'émission de l'utilisateur i ,Pcell puissance total de la cellule , et interférence d'autre cellule .

Le paramètre est le facteur de perte d'orthogonalité (a = 0.4 pour les macro cellule et 0.06 pour la microcellule). Le terme relatif au bruit est considéré négligeable devant les interférences reçues. Le Gij est donne par avec dij la distance entre le mobile et le node B de la cellule j ,u est Le facteur de perte d'espace libre , et Sij affaiblissement du effet du masque modélise par la loi normal centre sur zéro , écart type ó (ó = 10 dB).

on note l'expression SINR est simplifie comme ci-dessous :

La performance adéquate est atteint pour un BER < 10-3 en d'autre terme SINR > 5 dB, Par conséquent La probabilité de la dite performance est évalue par :

3.7

Figure 1 13 probabilité de coupure (Outage probability en fonction du nombre d'utilisateur dans le sens Descendant

Dans le sens descendant le nombre d`utilisateur est limite.

CONCLUSION :

Au travers ce chapitre nous nous avis mis en évidence l`évolution des réseau cellulaire

PRESENTATION TECHNIQUE HSDPA

Introduction

Le système UMTS, présentés dans le chapitre 1, proposé pour la troisième génération des réseaux cellulaires est destinée à fournir une meilleure efficacité spectrale et débits de données sur l'interface radio . L'objectif pour UMTS, est de soutenir les débits de données jusqu'à 2 Mbit / s dans l`environnement Indoor ou outdoor des petites cellules et jusqu'à 384 Kbps en l`environnement out door . Le 3GPP, responsable de la normalisation des procédures du système UMTS, réalisé très tôt que la Premières version de l'UMTS ne serait pas capable de remplir cet objectif. Comme L'UMTS (Universel Mobile for Télécommunications System) a été prépare pour tout évolution a travers les versions successives (releases) de la norme développées au sein du 3 GPP (third génération partnership projet). Dans ce contexte, HSDPA (High Speed Downlink Packet Access) a été développe dans les releases 5 et 6 pour poursuivre l'évolution du mode "paquet" de l'UMTS. La technologie HSDPA représente l'évolution principale du UMTS telle que spécifiée dans la version Release 5 du 3GPP [1-5] dont le sens descendant comme il existe le HSUPA dans le sens montant . Dans ce qui suit nous traitons uniquement le HSDPA, nous commencerons par présenter les caractéristiques principales de la technologie HSDPA et montrer l'impact de l'introduction de cette technologie sur l'architecture du sous-système radio. Puis, nous étudierons les nouveaux canaux introduits ainsi que le rôle qu'ils jouent dans l'implémentation des propriétés qui sont à la base de l'HSDPA. Par la suite, nous résumerons le fonctionnement général de la couche physique de l'UMTS avec la technologie HSDPA. Nous terminerons par les limitations des approches d'évaluation proposées par d'autres recherches.

2.1 Présentation générale du HSDPA

Le HSDPA est doté , en plus de l'introduction du nouveau canal partage dit HS-DSCH ( High Speed Downlink Shared Channel ) , d'un ensemble de propriétés dont leur combinaison permet d'augmenter la capacité du réseau , augmenter le débit de données jusqu'à plus de 10 Mbps , et réduire le TTI (intervalle de temps de transmission , nous retrouvons trois techniques fondamentales dépendant de l'état de canal radio que l'on résume par les points suivants [6] :

ü La technique de modulation et de codage adaptatifs AMC (Adaptative Modulation and Coding)

ü La méthode de retransmission hybride rapide appelée H-ARQ (Hybrid Automatic Repeat request) ;

ü Les algorithmes d'ordonnancement rapide de paquets (Fast Packet Scheduling).

Figure 2 1 - Architecture système avec le HSDPA

Dans le but d'implémenter la technologie HSDPA, trois nouveaux canaux ont été introduits dans les spécifications de la Release 5 : le HS-DSCH, le HS-SCCH et le canal physique HS-DPCCH [3]. Le HS-DSCH (High Speed Downlink Shared CHannel) est un canal partagé qui transporte les données des utilisateurs sur le lien descendant, avec un débit pic allant au delà des 10 Mbps. Le canal HS-SCCH (High Speed Shared Control CHannel) prend en charge l'information de contrôle nécessaire de la couche physique afin de permettre le décodage des données sur le canal HS-DSCH. Enfin, le canal HS-DPCCH (High Speed Downlink Dedicated Physical Control CHannel) transporte l'information de contrôle nécessaire sur le lien montant, notamment les acquittements ACK (positifs et négatifs) ainsi que l'information sur la qualité du lien radio.

Puisque le canal HS-DSCH est partagé par plusieurs utilisateurs, il est nécessaire d'avoir une méthode d'ordonnancement pour la répartition des ressources. Des algorithmes d'ordonnancement rapides permettent de distribuer efficacement les ressources du canal HS-DSCH pour tous les utilisateurs voulant accéder au réseau. À la Figure 2.1, on constate que cette fonctionnalité a été également déplacée vers la station de base (Node B)

2.2 Structure HSDPA

Comme illustré dans le paragraphe précèdent, HSDPA est base sur un nouveau canal de transport, appelé HS-DSCH, qui est partagé entre les utilisateurs. L'adaptation rapide de lien tire profit des variations de la puissance de signal reçue au mobile, de sorte que chaque utilisateur est servi dans des conditions favorable du fading . La valeur de TTI est alors fixe à 2 ms dans la norme 3GPP. Pour éviter le retard et la complexité génère par le contrôle de cette adaptation au RNC, le canal de transport de HS-DSCH est terminé au noeud B, à la différence des canaux de transport dans UMTS, qui sont terminés au RNC. Pour contrôle de l'adaptation rapide de lien combiné avec les algorithme et HARQ au noeud B, une nouvelle entité MAC , appelée MAC-hs (high speed), a été introduit noeud B.

L'architecture générale du protocole radio est décrit sur le schéma 2.2 [1] MAC-hs est situé au-dessous de l'entité de MAC-c/s dans le RNC de contrôle. Le MAC-c/sh fournit des fonctions à HSDPA qui existent déjà dans UMTS. MAC-d est encore inclus dans le RNC Serveur. Le protocole de la trame HS-DSCH (HS-DSCH FP) manipule le transport de données de S-RNC à C-RNC, et entre C-RNC et noeud B. Le 3 GPP propose également une autre configuration alternative, présentée sur le schéma 2.3, [7,8] où le S-RNC est directement relié au noeud B

Figure 2 2 Architecture Protocolaire de l'interface Radio du système hsdpa

Figure 2 3 Architecture Protocolaire de l'interface Radio du système HSDPA

2.3 Architecture de Protocole

Dans la Release 99, tous les canaux de transports sont terminés au RNC (Radio Network Controller). Le RNC est l'élément principal dans le RNS (Radio Network Subsystem) qui contrôle l'utilisation et la fiabilité des ressources radio. Il existe trois types de RNC : SRNC (Serving RNC), DRNC (Drift RNC) et CRNC (Controlling RNC). La procédure de retransmission pour les paquets de données est située dans le SRNC, qui assure également le raccordement d'un utilisateur particulier au réseau coeur. Avec l'introduction de HS-DSCH, une intelligence additionnelle sous forme de couche MAC HSDPA (MAC-hs) est installée dans le Node B. De cette façon, les retransmissions peuvent être contrôlées directement par le Node B, ce qui permet une retransmission plus rapide. Avec HSDPA, l'interface Iub entre le Node B et le RNC exige un mécanisme de contrôle de flux pour s'assurer que les buffers du Node B sont employés correctement et qu'il n'y a aucune perte de données due au débordement de ces buffers. Bien qu'il y ait ajouté une nouvelle fonctionnalité MAC supplémentaire dans le Node B, le RNC maintient toujours les fonctionnalités de Release 99 version 4 de contrôle du lien radio (RLC), en s'occupant de la retransmission au cas où la transmission du HS-DSCH du Node B échouerait après, par exemple, avoir excédé le nombre maximum de retransmission de la couche physique. La fonction principale de la nouvelle couche MAC (MAC-hs) du Node B est d'assurer la fonctionnalité du ARQ (Automatic Repeat Request) et l'ordonnancement aussi bien que la manipulation prioritaire. Semblable au Node B une nouvelle entité MAC, MAC-hs est ajouté dans l'architecture de l'UE. La couche MAC-hs de l'UE a la même fonctionnalité que celle du Node B. Le tableau ci-dessous illustre la fonctionnalité :

La couche MAC-hs :

Comme expliqué précédemment, dans l'architecture de la version 99 de l'UTRAN, les algorithmes d'ordonnancement et le choix du TF (format de transport) sont exécuté dans le RNC. Pour HSDPA, il est avantageux de déplacer certaines parties de la fonctionnalité du RNC au Node B, de ce fait on a une nouvelle entité (MAC-hs) est introduit dans le Node B. Le MAC-hs est responsable de l'ordonnancement, du HARQ et du choix format de transfert (TF). Apparemment, quelques améliorations sont nécessaires dans le Node B pour permettre la fonctionnalité de la MAC-hs. Il y a une entité de la MAC-hs dans l'UTRAN pour chaque cellule supportant HS-DSCH. Le MAC-hs est responsable de la manipulation des données transmises sur le HS-DSCH. En outre, il est responsable de la gestion des ressources physiques allouées au HSDPA. La MAC-hs reçoit les paramètres de configuration provenant des couches plus élevées.

Figure 2 4 Les entités fonctionnelles incluses dans la MAC-hs

Contrôle du flux :

C'est le complément de la fonction de contrôle de flux existant dans le RNC pour les canaux dédiés, communs et partagés. Cette fonction est utilisée pour limiter la latence de signalisation de la couche 2 et pour réduire les données rejetées et retransmises en raison de la congestion de HSDSCH.

HARQ : Cette fonction gère la retransmission de paquets dans le cas d'erreurs de transmission.

Schedule/Priority Handling: Cette fonction gère les ressources HS-DSCH entre les entités HARQ et les flux de données selon leur priorité.

TFRC sélection : C'est pour choisir une combinaison appropriée de format de transport et de ressource de Transport (TFRC) pour les données à transmettre sur le canal HS-DSCH. Dans la section suivante la fonction de deux entités fonctionnelles principales dans la MAC-hs, l'Ordonnanceur et l'unité de HARQ avec la modulation et le codage adaptatif (AMC) sont

Expliqués plus loin.

2.4 Canaux HSDPA

Le HSDPA introduit le canal de transport HS-DSCH (High Speed Downlink Shared Channel) comme une évolution du canal DSCH de l'UMTS. Ce canal doit coexister avec les canaux déjà présents dans la Release 99 et dans la Release 4 des spécifications techniques du 3GPP . Le HS-DSCH est un canal haut débit dont le rôle est de convoyer l'information du noeud B vers l'UE tout en garantissant la qualité de service requise. Pour transporter les données jusqu'au mobile, il fait recours à un ou plusieurs canaux physiques HS-PDSCH [7,8]. Ces canaux sont transmis en utilisant le principe de transmission multicodes. Les canaux HS-PDSCH sont envoyés sur l'interface radio sous forme de trame .

Dans le but de résumer ces caractéristiques, nous avons dressé un tableau comparatif 3.2 qui montre les ressources associées aux canaux DCH, DSCH et HS-DSCH du lien descendant. Concernant le codage sur le canal HS-DSCH, nous pouvons l'illustrer à travers un exemple avec 2 utilisateurs actifs qui utilisent le même canal partagé HS-DSCH tel qu'illustré à la Figure 2.5. Tous deux vérifient l'information de contrôle à partir des canaux HS-SCCH afin de déterminer les codes HS-DSCH à détaler

Canal

HS-DSCH

DSCH

Downlink DCH

Specification

Release

R99

R99

Facteur d`etalement

fixe 16

variable ( 256-4)

Fixe (512-4)

Modulation

QPSK/16-QAM

QPSK

QPSK

Controle de puissance

Puissance constante

Rapide base sur le DCH associe

Rapide

Schema de Codage canal

Codage turbo

Codage Turbo et convolutionel

Codage Turbo et convolutionnel

Tableau 3 2 Comparaison du canal HS-DSCH avec les autres canaux du lien descendant

Figure 2 5 - Exemple de multiplexage de code avec deux usagers actifs

Le canal HS-SCCH transporte l'information nécessaire à la démodulation de l'information du canal HS-DSCH. L'UTRAN doit allouer un certain nombre de canaux HS-SCCH au plus grand nombre d'utilisateurs soumis à un multiplexage de codes.

Dans le cas où il n'y aurait aucune donnée sur le canal HS-DSCH, l'utilisation du canal HS-SCCH n'est pas nécessaire. En effet, le trafic dû à la signalisation doit être minimisé afin de réserver le maximum de ressources aux données utiles. Un usager peut avoir recours à un maximum de quatre canaux HS-SCCH à un temps donné. Chaque bloc HS-SCCH est composé de trois slots et divisé en deux parties fonctionnelles, comme l'illustre la Figure 2.6. La première partie (premier slot) transporte l'information critique dans le temps qui a besoin de déclencher le processus de démodulation au moment prévu. Les paramètres de la première partie indiquent :

- les codes à dés-étalé. Ceci renvoie aux capacités du terminal à détaler un maximum de 5, 10 ou 15 codes ;

- le type de modulation utilisé : QPSK ou 16QAM.

Les deux autres slots, correspondant à la deuxième partie, contiennent des paramètres moins sensibles au temps, tel que le CRC, qui permet de vérifier la validité de l'information du HS-SCCH ainsi que celle du processus HARQ. Parmi les paramètres indiqués par cette deuxième partie, nous pouvons trouver :

- l'information concernant la version de redondance afin de permettre un décodage réussi et la combinaison avec des retransmissions antérieures ;

- le nombre de processus ARQ pour indiquer à quel processus ARQ appartient les données ;

- l'indicateur de première et dernière retransmission afin de savoir si la transmission doit être combinée avec les données existantes dans le buffer (dans le cas où le décodage échouerait) ou si le buffer oit être vidé et ensuite rempli avec de nouvelles données.

Figure 2 6 - Relation du timing entre le canal HS-SCCH et le HS-DSCH

Dans la Figure 2.6, un terminal dispose de la durée d'un seul slot pour déterminer les codes à désétaler à partir du HS-DSCH. L'utilisation d'un masque spécifique permet au terminal de vérifier si les données lui sont destinées. Un terminal est capable de gérer jusqu'à quatre canaux HS-SCCH (la partie 1 de chaque canal). Cependant dans le cas où il y aurait des données pour le terminal sur des TTI consécutifs, le HS-SCCH devra être alors le même pour ce terminal afin d'augmenter la fiabilité de l'information de signalisation. Ce type d'approche est nécessaire non seulement afin d'éviter au terminal de placer dans son buffer des données qui ne lui sont pas destinées, mais aussi dans le cas où les codes utilisés dépasseraient le nombre maximum pouvant être traité par le terminal.

Le canal HS-DPCCH doit permettre le transport, sur le lien montant, des acquittements aussi bien positifs que négatifs pour les retransmissions au niveau de la couche physique ainsi que l'information concernant la qualité du lien radio. Cette dernière sera utilisée par l'Ordonnanceur, se trouvant dans le Node B, pour déterminer à quel terminal transmettre et à quel débit. Le HS-DPCCH est donc divisé en deux parties comme le montre la Figure 2.7 et transporte les paramètres suivants :

- les transmissions ACK/NAK afin de refléter les résultats de la vérification CRC après le décodage de paquets ;

- le CQI (Channel Quality Indicator ) qui indique la taille de bloc de transport, le type de modulation ainsi que le nombre de codes parallèles pouvant être correctement reçu (avec un taux d'erreurs raisonnable) sur le lien descendant.

Figure 2 7 - Structure du canal HS-DPCCH

La définition d'une méthode qui renvoie l'information sur les conditions du lien radio n'est pas une tâche triviale. En effet, on doit tenir compte non seulement des différentes implémentations de récepteurs mais, en même temps, cette méthode doit permettre facilement la conversion de ces conditions radio en une information adéquate pour l'Ordonnanceur.

Dans tous les cas, l'information sur la qualité du lien radio est codée sur 5 bits. Un état de signalisation est réservé pour l'état « transmission non nécessaire » ainsi que d'autres états représentant la transmission que le terminal peut recevoir à ce moment. Par conséquent, ces états vont de la transmission à un code avec une modulation QPSK jusqu'aux transmissions 15 codes avec la modulation 16-QAM (incluant les différents taux de codage. Évidemment, les restrictions des capacités du terminal doivent être prises en compte en plus de l'information sur la qualité du lien. Le canal HS-DPCCH requiert une partie de la puissance de transmission sur le lien montant et celle-ci doit être prise en compte dans les paramètres du bilan de liaison.

2.5 Mécanisme de retransmission hybride HARQ

Afin d'assurer la fiabilité des transmissions, on distingue deux grandes classes de mécanisme : les mécanismes réactifs ARQ (Automatic Repeat request) et les mécanismes proactifs FEC (Forward Error Correction). Dans les mécanismes réactifs, l'émetteur réagit à la signalisation d'une perte de paquet en retransmettant ce paquet. Cette signalisation peut être effectuée par l'émission d'acquittements positifs ACK (ACKnowledgement) ou négatifs NAK (Negative-AcKnowledgement). En ce qui concerne le fonctionnement des mécanismes proactifs, l'émetteur rajoute des paquets de redondance permettant au récepteur de récupérer des paquets perdus. Ces paquets de redondance sont calculés en utilisant des codes correcteurs d'erreurs [22]. Ces deux mécanismes sont souvent combinés en utilisant des acquittements pour ajuster la quantité de redondances des codes FEC. Une telle combinaison de mécanismes est appelée « ARQ hybride » ou HARQ (Hybrid Automatic Repeat reQuest). Le HARQ peut être caractérisé par certains paramètres tels que la synchronisation, l'adaptabilité ainsi que la manière dont est faite la combinaison. Quand la relation temporelle entre la transmission originale et la (ou les) retransmission(s) est fixe, l'opération HARQ est dite alors « synchrone ». Si, par contre, les retransmissions sont programmées à n'importe quel moment après avoir reçu un ACK, on parlera alors d'opération « HARQ asynchrone ». On dit qu'un système HARQ est adaptatif si on peut réaliser des retransmissions en utilisant un autre type de modulation autre que celui qui a été utilisé pour la transmission originale. Par exemple, si la modulation QPSK est utilisée durant la première transmission d'un paquet et que celle-ci échoue, la 16-QAM peut être utilisée pour la retransmission de ce même paquet si les conditions du canal ou des ressources radio (puissance du signal et/ou codes de canalisation) changent entre la première transmission et les retransmissions qui se suivent.

On distingue deux variantes de l'HARQ selon que l'on combine ou non les retransmissions :

- HARQ de type I : dans cette variante, appelée aussi chasse combinat ou soft combining,

Il n'y a pas de combinaison des retransmissions. Le Soft combining fait appel à la retransmission par l'émetteur du même paquet de données codées. Le décodeur au niveau du récepteur combine ces copies multiples du paquet envoyé, pondéré par le rapport de signal/bruit SNR (Signal to Noise Ratio) reçu

- HARQ de type II : cette technique, connue aussi sous le nom de IR (Inremental Redundancy), contrairement à la précédente qui envoie des répétitions simples de tout le paquet encodé, envoie une information redondante additionnelle d'une manière incrémentale si le décodage échoue à la première tentative.

La technologie HSDPA s'appuie sur un mécanisme HARQ asynchrone et adaptatif et peut fonctionner avec les deux variantes Soft combining et IR. Il est à noter qu'avec la deuxième variante, on obtient de meilleures performances, mais elle nécessite plus de mémoire dans le récepteur du terminal mobile pour stocker les informations de redondance [12]. Comme illustré à la Figure 2.8, la fonctionnalité HARQ, utilisant la variante IR dans cet exemple, est implémentée à travers deux blocs d'adaptation au débit (rate matching) dans la chaîne de codage du canal HS-DSCH. Cette dernière est illustrée à la Figure 2.9. Le principe réside dans l'existence d'un buffer entre les deux blocs afin de permettre de raffiner les paramètres de redondance pour les différentes retransmissions entre les deux blocs de rate-matching [5].

Figure 2 8 - Technique HARQ dans la chaîne de codage du canal HS-DSCH

Figure 2 9 - Principe de fonctionnement de l'HARQ

2.5.1 Protocole HARQ

L'augmentation de la complexité et des besoins de HARQ SR conduit à l'adoption des stratégies simples HARQ. Le Stop and Wait (SW) ARQ protocole est très simple à mettre en oeuvre, mais puisqu'il est ineficace , un compromis entre SW et SR, appelée N-Channel SW, a été développe et normalisés pour le HSDPA [1, 14]. Le N-Channel SW consiste en l`activation N HARQ processus en parallèle, chacun utilisant le protocole SW. Un HARQ (processus) peut transmettre des données sur le HS-DSCH tandis que les autres sont en attente de l'accusé sur la liaison montante. En utilisant cette stratégie, le processus de retransmission se comporte comme si le SR HARQ étaient employées. L'avantage du N-channel SW stratégie à l'égard du SR protocole est qu'un échec persistant dans la transmission affect qu'un seul canal, permettant aux données d`etre transmis sur les autres canaux . En outre, par rapport à la simple SW, la N-Channel SW fournit à l'entité MAC-hs la flexibilité de renvoyer la HS-DSCH canal à l'utilisateur même si les conditions Radio sont favorables

2.6 Modulation et codage adaptatifs

L'AMC a été appliquée, en premier lieu, au standard évolution GSM/EDGE . Grâce à cette propriété, il est possible de suivre la variation dans le temps de l'état du canal de transmission et d'augmenter d'une manière significative les débits de données ainsi que l'efficacité spectrale du réseau, En effet, selon l'état instantané du canal radio, envoyées par le terminal mobile, et les ressources disponibles, un système avec l'AMC peut choisir la modulation et le codage appropriés. Une nouvelle modulation d'ordre supérieure, appelée 16 QAM (Quadrature Amplitude Modulation), vient cohabiter avec l'existante QPSK. Lorsque le terminal est dans une position favorable (proximité d'une station de base par exemple), la modulation 16 QAM et des taux de codage supérieurs peuvent être sélectionnés pour atteindre des pics de débits élevés. Par contre, si l'UE se trouve dans des conditions défavorables, on lui alloue un ordre de modulation et un taux de codage moins élevé dans le but d'assurer la qualité de la communication. Dans les réseaux mobiles, la qualité d'un signal reçu par un terminal dépend de plusieurs facteurs, comme la distance entre la station de base ou la perte de propagation due aux obstacles ou aux trajets multiples. Dans le but d'améliorer la performance d'un système, en termes de débit de données et de fiabilité de la couverture radio, le signal transmis vers et par un utilisateur particulier est modifié de façon à prendre en compte les variations de la qualité du signal à travers un processus connu sous le nom d'adaptation au lien radio » (link adaptation), connu également sous le nom de AMC., les systèmes à base de WCDMA utilisaient auparavant le contrôle de puissance rapide comme méthode privilégiée afin d'implémenter l'adaptation au lien radio. Récemment, l'AMC s'est révélé être une méthode alternative promettant d'améliorer globalement la performance du système. L'AMC fournit la flexibilité d'adapter la combinaison modulation codage aux conditions moyennes du canal radio pour chaque utilisateur. Avec l'AMC, la puissance du signal transmis est maintenue constante pendant toute la durée de la trame, en faisant varier le nombre de codes parallèles pouvant être supportés par un terminal et le taux de codage en fonction de la qualité actuelle du signal reçu. L'utilisation d'un ordre de modulation plus important avec la 16-QAM permet aussi d'augmenter le débit d'une manière significative. Cette nouvelle modulation a été proposée dans la Release 5, mais son utilisation est, contrairement à la modulation QPSK, optionnelle et dépend du type de terminal utilisé. Il faut noter que l'introduction d'un ordre de modulation plus élevé est accompagnée d'une plus grande complexité dans les terminaux mobiles, qui doivent estimer l'amplitude relative des symboles reçus. Cette estimation d'amplitude est nécessaire pour que le terminal puisse séparer tous les points de la constellation 16-QAM telle qu'illustré à la Figure 2.10. Étant donné que cette estimation devient plus difficile lorsque la qualité du signal reçu est mauvaise, il est alors plus judicieux d'utiliser la modulation QPSK dont la constellation est moins dense.

Figure 2 10 - Constellations de la modulation 16-QAM et QPSK

En combinant le type de modulation, le taux de codage et le nombre de codes supportés, nous obtenons plusieurs combinaisons (5), appelées également schéma de modulation et de codage MCS (Modulation and Coding Schème), qui ont été proposées par le 3GPP dans la Release 5 et résumées dans le tableau 3.1. Ainsi, un utilisateur qui serait proche d'une station de base pourrait se voir attribué, par exemple, une modulation 16-QAM avec un taux de codage de 3/4 et dont le terminal supporte 15 codes (en parallèles). Cette combinaison lui permettrait de bénéficier d'un débit de l'ordre de 10.7 Mbps sur le lien descendant. L'AMC a été intégré aux fonctionnalités des Nolde B supportant la technologie HSDPA. Par conséquent, la station de base a la responsabilité de sélectionner le schéma de modulation et de codage approprié. Selon le nombre de codes parallèles pouvant être supporté par le terminal, nous obtenons plusieurs classes de terminaux HSDPA spécifiées dans la Release 5 avec un total de 12 catégories. Ces catégories permettent d'avoir des débits pics allant de 0.9 à 14.4 Mbps, comme le montre le tableau 3.2 [6]. Les dix premières classes de terminaux doivent être capables de supporter la modulation 16-QAM, alors que les deux dernières

MCS

Modulation

Taux de

 

Débit max

 
 
 
 

5codes

10 codes

15 codes

1

 

1/4

600 kbps

1.2 Mbps

1.8 Mbps

2

QPSK

2/4

1.2 Mbps

2.4 Mbps

3.6 Mbps

3

 

3/4

1.8 Mbps

3.6 Mbps

5.4 Mbps

4

5

16-QAM

2/4

3/4

2.4 Mbps

3.6 Mbps

4.8 Mbps

7.2 Mbps

7.2 Mbps

10.7 Mbps

Tableau 3 3 - Schémas de modulation et de codage MCS sur le lien DL

UE Category

Transport block Size

Number of HS-PDSCH

Modulation

Debit en Mbps

1

7168

5

16-QAM

1,2

2

7168

5

16-QAM

1,2

3

7168

5

16-QAM

0,8

4

7168

5

16-QAM

1,8

5

7168

5

16-QAM

3,6

6

7168

5

16-QAM

3,6

7

14411

10

16-QAM

7,2

8

14411

10

16-QAM

7,2

9

17237

12

16-QAM

10,2

10

25558

15

16-QAM

14,4

11

3319

5

QPSK

0,9

12

3319

5

QPSK

1,8

Tableau 3 4- Catégories de terminaux supportant la technologie HSDPA

2.7 Fonctionnement de la couche physique

Le processus, illustré à la Figure 2.11, montre les procédures de fonctionnement de la couche physique HSDPA, qui se résument par les étapes suivantes :

1. L'Ordonnanceur dans le Node B évalue les conditions du lien radio pour les différents usagers en calculant la quantité de données présentes dans le buffer pour chacun des utilisateurs ainsi que le temps écoulé depuis la dernière fois qu'un utilisateur donné, ayant des transmissions en attente, a été servi. Les critères devant être pris en compte dans l'Ordonnanceur dépend de l'implémentation spécifique au fournisseur du réseau mobile

2. Une fois qu'un terminal a été choisi être servi à un certain intervalle TTI donné, le Node B identifie les paramètres HS-DSCH nécessaires, comme par exemple le nombre de codes disponibles, la possibilité d'utiliser ou non la modulation 16-QAM ou alors les limitations des capacités des terminaux. Le type de mémoire soft du terminal détermine également le type de retransmission HARQ pouvant être utilisé ;

3. Le Node B commence à transmettre le HS-SCCH deux slots avant le TTI HSDSCH correspondant pour communiquer au terminal les différents paramètres. Le terminal peut sélectionner un ou plusieurs canaux HS-SCCH (parmi un ensemble limité à quatre) à condition qu'il n'y ait pas de données dans la trame HS-DSCH précédente

4. Le terminal gère les différents canaux HS-SCCH qui sont mis à sa disposition par le réseau et une fois que le terminal a décodé la Partie d'un HS-SCCH qui lui est destiné, celui-ci commence à décoder le reste et va stocker dans le buffer les codes nécessaires du HS-DSCH;

5. Ayant déjà décodé les paramètres du HS-SCCH de la Partie 2, le terminal peut déterminer à quel processus ARQ appartiennent les données et si celles-ci doivent être combinées avec l'information déjà présente dans le soft buffer ;

6. Par la suite, le terminal envoie un indicateur ACK/NAK sur lien montant, en fonction de la vérification CRC appliquée aux données HS-SCCH;

7. Si le réseau continu à transmettre des données pour le même terminal sur des intervalles TTI consécutifs, le terminal va rester sur le même HS-SCCH utilisé lors du précédent

U1 U2 Un

Evaluation des conditions du lien radio pour chaque utilisateur

Ordonnanceur

Identification des paramètres HS -DSCH: nombre d de codes parallèles type de modulation

type de HARQ : QPSK ou 16-QAM catégorie du terminal (de 1 à 12)

Choix d'un usager

Node B

Transmission des canaux

Décodage des informations de contrôle

du canal HS-SCCH

de contrôle HS-SCCH

Node B

Communication des paramètres

au terminal

Node B

Déterminer si les données doivent être

combinées

Si le réseau continue de

transmettre au même terminal

sur des TTI consécutifs

UE

Envoi d'un ACK ou NAK

Le terminal ne change pas de HS -SCCH

Figure 2 11 - Fonctionnement de la couche physique du HSDPA

2.8 FCSS (Fast Cell Site Selection)

Le FCSS permet à l'utilisateur de choisir le Node B ayant les meilleures caractéristiques pour une transmission de données. L'avantage de cette technique permet à l'utilisateur d'obtenir un débit plus élevé.

2.9 Interval de temps de transmission (TTI)

L'intervalle de temps de transmission (TTI) est un paramètre supplémentaire de la technologie HSDPA utilisé par le HS-DSCH. Ce TTI est de 2ms par canal (au lieu de 10 ms pour la version R99), ce qui permet de supporter un trafic et un nombre d'utilisateurs importants. , La diminution de l'intervalle de temps de transmission TTI ainsi qu'une grande distribution dans l'architecture HSDPA, comme l'illustre la Figure 2.1, permettent de réduire les délais d'attente de manière significative par rapport à la version précédente R99 du WCDMA. En effet, les stations de base ou node B sont dotées d'avantage d'intelligence de manière à pouvoir prendre en charge les retransmissions de paquets erronés, une fonctionnalité qui était jusque là du ressort du RNC. Le déplacement de cette fonctionnalité vers les Node B permet ainsi de se rapprocher encore plus de l'utilisateur et par conséquent de réduire les délais dus à la retransmission. Ces modifications permettront également d'obtenir des informations récentes sur la qualité du lien radio, grâce à l'indicateur CQI (Channel Quality Indicator) illustré à la Figure 2.1

2.10 Modélisation du HSDPA et Sortie de Cellule

Ce paragraphe présente un modèle semi_analytique pour l'estimation du flux de sortie de cellules. Ce modèle tient compte de l'effet de la combinaison HARQ, de l'AMC, et du programme d'ordonnancement

L'analyse est divise en plusieurs étapes, dont la première phase correspond à HARQ et les prochaines étapes couvrent modélisation d'AMC et programme d'ordonnancement. À la fin de ces trois analyses, un modèle pour chaque algorithme d'ordonnancement est rapporté.

2.10.1 HARQ

Il a été démontré que le nombre moyen de transmissions NS dû à HARQ peut être évalué en utilisant l'expression suivante :

4.1

Pe est le taux d'erreur block, Ps est la probabilité des erreurs après combinaison logique ( soft combining ) de deux successive erreur transmission utilisant l'algorithme chase combining

2.10.2 AMC

Pour suivre la variation des conditions de canal, AMC est employé dans HSDPA où le MCS ( M ordre de la modulation t taux de codage N nombre de codes de HS-DSCH ) est choisis de façon dynamique selon la valeur SIR . Notez que pour N, le nombre maximum des codes disponibles de HS-DSCH est 15. Posons SIR = pour le récepteur Rake et kmcs la probabilité de choisir une schema de modulation et de codage mcs. La probabilité de choisir la combinaison donnée mcs peut être exprimée comme suit :

4.2

Pour un schéma de transmission d'ordre supérieur

Avec

Une fois que la probabilité kmcs est calcule, la sortie de cellules peut être estimée par des expressions analytiques données pour chaque programme Ces expressions sont le sujet de la prochaine section.

2.10.3 Ordonnancement rapide (Fast Scheduling)

L'ordonnancement est l'un des plus importants mécanismes de gestion de ressources dans les réseaux HSDPA. , Qui permet de déterminer à quel utilisateur il convient de transmettre dans un intervalle de temps donné. C'est un élément déterminant dans la conception puisqu'il répartit l'allocation du canal entre les utilisateurs et ainsi, d'une manière générale, détermine le comportement global du système. Un débit optimal du système peut être obtenu en affectant toutes les ressources radio à l'utilisateur avec les meilleures conditions radio du canal, néanmoins un Ordonnanceur, en pratique, devrait avoir plusieurs niveaux d'équité. Ainsi, en choisissant différents algorithmes d'ordonnancement, les opérateurs peuvent adapter sur mesure le comportement du système à leurs besoins. Alors, il n'est pas nécessaire de standardiser les algorithmes utilisés, au lieu de cela, les Opérateurs peuvent choisir différents critères. La prédiction de la qualité du canal, la capacité de la cellule, ainsi que des classes différentes de priorités de trafic sont des exemples d'informations sur lesquels l'Ordonnanceur pourrait baser ses décisions.

On peut découper ces algorithmes d'ordonnancement en deux grandes catégories :

ü Les méthodes d'ordonnancement « intelligentes »

ü Les méthodes d'ordonnancement « aveugles ».

Les algorithmes de la première catégorie basent leurs décisions sur les mesures récentes (i.e. exécuté à chaque TTI) des conditions de canal du terminal mobile. La deuxième catégorie, quant à elle, contient des algorithmes qui ne basent leurs décisions d'ordonnancement sur aucune mesure. Un exemple d'algorithmes simples faisant partie des ces méthodes aveugles est le RR (Round Robin), dans lequel les utilisateurs sont desservis dans un ordre cyclique en faisant abstraction des conditions de qualité du canal. Cette méthode est unique de par sa simplicité, et garantit une distribution équitable parmi tous les utilisateurs de la cellule.

Parmi les méthodes d'ordonnancement intelligentes, on peut trouver l'algorithme Max C/I (Maximum C/I), le PF (Proportional Fair) et le FFTH (Fast Fair Throughput). Le Max C/I dessert l'utilisateur à tous les TTI avec le débit supportable instantané le plus élevé. Ce principe de service possède des avantages évidents en terme de capacité de cellule, mais il en résulte une absence d'équité de débit car les utilisateurs ayant de mauvaises conditions radio de canal sont desservies d'une manière moins fréquente. L'ordonnancement rapide est l'une des techniques principales utilisées dans HSDPA, le débit binaire d'utilisateur et la capacité de cellules dépendront de l'utilisation d'ordonnancement. Pour évaluer la performance, l'expression analytique de la capacité cellulaire et le débit binaire utilisateur sont spécialisées à quatre : FT, RR, Max C/I et PF

2.10.3.1 Méthode de Round Robin (RR)

Cet algorithme choisit les paquets d'utilisateur de façon cyclique. Dans cette méthode, le nombre de time slots alloués à chaque utilisateur est choisi de telle sorte qu'il soit inversement proportionnel aux débits d'utilisateurs, ainsi le même nombre de bits est transmis pour chaque utilisateur dans un cycle, donc le même de nombre de TTI est affecte pour chaque utilisateur

Évidemment, cette méthode est la "plus juste" dans le sens qu'elle garantit une distribution équitable entre tous les utilisateurs de la cellule. Cependant, il y a deux inconvénients y sont liés. Le premier est qu'il néglige les conditions de qualité du canal radio pour chaque utilisateur, ainsi les utilisateurs de qualité radio mauvaise peuvent connaître de faibles débits, tandis que les utilisateurs en bonne qualité radio peuvent même ne recevoir aucune donnée. Cela va à l'encontre des objectifs du HSDPA car les débits seraient moindres. Le deuxième inconvénient de la méthode RR est qu'il n'y a aucune différentiation de la qualité de service pour différentes classes d'utilisateurs. Si Nu est le nombre d'utilisateur dans une cellule, la probabilité qu'un TTI soit affecte à un utilisateur est 1/Nu. Par conséquent, le débit binaire moyen de l'utilisateur i est donné par [27-29]

ü est le débit binaire relatif au schema de transmission m durant le TTI

ü est le nombre moyen de transmissions de paquet d'utilisateur i dû à HARQ

ü W est le débit chip

ü SF : est le facteur d'étalement ( spreading Factor )

ü paramètre varie avec la position du mobile,

Le débit de sortie de la cellule est donne par :

4.4

(source : Thèse sur l'étude multicouche dans le système HSDPA présenté par Mohamad ASSAAD de l'Ecole Nationale Supérieure Télécommunications)

2.10.3.2 Méthode FFTH (Fast Fair Throughput)

L'algorithme FT assigne le canal de HS-DSCH aux utilisateurs pour réaliser le partage de débit de sortie de la cellule entre les utilisateurs. Pendant chaque TTI, le canal est affecte à l'utilisateur avec le plus faible débit moyen de donne. Cet algorithme fournit des ressources partages équitablement mais ne tient pas compte des informations instantanées du canal. Par conséquent, IL néglige l'adaptation rapide de lien de HSDPA ainsi résulte une sortie moyenne de cellules faibles. Le FT alloue un débit fixe pour les utilisateurs indépendamment des conditions du canal et de la position du mobile. Dans ce cas la capacité de la cellule peut être estime comme suite : Le flux global du canal HS-DSCH en symboles/sec est donné par [44] :

4.5

Puisque le canal de HS-DSCH est partagé par plusieurs utilisateurs dans un temps donné T (c.-à-d., temps d'observation de canal) nous avons alors

4.6

*- Rsi est le débit pour chaque utilisateur en symbole / second, Ti la dure de connexion. Le schéma de modulation et du codage change durant le transfert des paquets, la condition précédente conduit à :

4.7

0ù Ri est le débit binaire de service. A cause de l'effet de HARQ, Ns, i paquets sont transmis au lieu d'un paquet, ayant tous les mêmes schémas de modulation et de codage. Par conséquent, le nombre d'utilisateurs Nu dans la cellule peut être évalué en utilisant l'équation suivante :

4.8

L'équation (4.8) doit être résolue pour que Nu dérive la sortie de cellules comme

4.9

(source : Thèse sur l'étude multicouche dans le système HSDPA présenté par Mohamad ASSAAD de l'Ecole Nationale Supérieure Télécommunications)

2.10.3.3 Méthode du Maximum C/I (Signal sur Interférence)

Le Max C/I dessert l'utilisateur durant chaque TTI avec le débit supportable instantané le plus élevé. Pendant chaque TTI, le canal HS-PDSCH est alloué à l'utilisateur ayant les meilleures conditions de canal . En fait, le Node B utilise l'indicateur de qualité de canal (CQI) et alloue le canal HS-PDSCH à l'utilisateur avec le meilleur SIR (Signal to Interférence Ratio). Dans la situation idéale, quand les conditions du canal des utilisateurs présentent les mêmes statistiques, cette stratégie maximise toute la capacité du système et du débit de transmission aux différents utilisateurs. En réalité, les statistiques sont Asymétriques puisque les utilisateurs peuvent être plus près de la station de base avec meilleur SIR , ou moyen SIR au frontière de cellules dans des conditions relativement mauvaises. Par conséquent, en employant la stratégie de maximum C/I dans la pratique, le canal est toujours affecte avec l`ordre supérieur mcs (c à d debit moyen de transmission élevé ) mais prive les utilisateurs avec des conditions de canal relativement mauvaise . Ce principe de service possède des avantages évidents en terme de capacité de cellule, mais il en résulte une absence d'équité de débit car les utilisateurs ayant de mauvaises conditions radio de canal sont desservis d'une manière moins fréquente. Si Nu est le nombre d'utilisateur dans la cellule, la probabilité pour que le TTI soit alloue à l'utilisateur i est :

4.10

Une fois calcule cette probabilité, le débit binaire de l'utilisateur i est  fourni par :

4.11

La sortie de la cellule dans ce cas est :

4.12

(source : Thèse sur l'étude multicouche dans le système HSDPA présenté par Mohamad ASSAAD de l'Ecole Nationale Supérieure Télécommunications)

2.10.3.4 Méthode du Proportionnel Fair

L'algorithme PF est un compromis entre maxi(C/I) et FT. Dans chaque TTI, le canal est assigné à l'utilisateur ayant le max(r /S) où r est le taux de transmission pour ce TTI et S est le débit binaire moyen transmis dans le précèdent TTI .

Un modèle détaille du PF est difficile à dériver puisque pendant chaque TTI la probabilité pour assigner le canal à un utilisateur i dépend de tout le TTIs précédent. Pour éviter cette difficulté . Dans la littérature le PF est modélise en considérant la condition max(r /S ) aussi équivalent à max(SIR/S) et S comme la limite infinie du débit binaire reçu instantané . Selon chaque valeur de SIR, il y a un taux possible donné r de transmission dans un TTI donné ; en fait, les valeurs de r correspondent à une Marge de SIR . Puisque le nombre schéma de modulation et de codage est grand (égale à 30 ), cette hypothèse est toujours une bonne approximation, et il peut etre pris comme étude asymptotique de l`algorithme PF. Par conséquent, si Nu est le nombre d'utilisateurs dans la cellule, la probabilité qu'un TTI est assigné à un utilisateur donné peut être employer évalué

Par conséquent le débit binaire atteint par l'utilisateur i est obtenu par :

Le flux de sortie de la cellule est donne par :

(source : Thèse sur l'étude multicouche dans le système HSDPA présenté par Mohamad ASSAAD de l'Ecole Nationale Supérieure Télécommunications)

Figure 2 12 Debit de sortie de la cellule HSDPA pour différent algorithme

Figure 2 13 Débit de sortie de la cellule HSDPA pour différent algorithme

Résultats 

Ces Modèles Analytique présentent une estimation du débit de sorties des cellules et débit binaire pour chaque utilisateurs pour chaque des méthodes : RR ,FT,Max C/I ,et PF : Comparer le résultat de ces quatre méthodes permet de déterminer la différence entre la capacité obtenus à partir des modèles analytiques que devrait fournir la sortie de cellules et le débit binaire utilisateur particulièrement pour des utilisateurs en environnements radio défavorables au frontière de la couverture de la cellule . Les schémas 2.12 et 2.13 montrent respectivement, le flux de sortie moyenne des cellules et la fonction de distribution cumulatif d`un utilisateur situe a 900 m du node B et 8 utilisateur sont active dans la cellule .

Les résultats prouvent que la méthode de maximum C/I réalise une capacité cellulaire plus élevée des autres (approximativement 3 Mbps pour 15 codes du canal de HS-DSCH disponible). L'algorithme FT présente un flux de sortie inférieure de l'autre algorithme (approximativement 1.7 Mbps pour 15 codes disponibles de canal HS-DSCH) avec une équité parfaite : approximativement 215 kbps par utilisateur. La méthode PF représente un bon compromis entre l'équité et la capacité. Elle réalise une sortie de cellules approximativement égale à 2.4 Mbps tout en garantissant une équité acceptable

Conclusion :

Nous avons étudié les améliorations apportées par la technologie HSDPA sur le lien descendant du réseau UMTS. Ces améliorations sont possibles grâce aux différentes techniques d'AMC, de HARQ et canal partage et des algorithmes d'ordonnancement rapide. Ainsi le HSDPA offre beaucoup d'avantages par rapport à l'UMTS tels que l'utilisation d'une bande passante importante combinée avec un délai court de la transmission des données et l'augmentation de la capacité de transmission sans avoir besoin de fréquences supplémentaires.

Chapitre 3 :  TCP au dessus des réseaux sans fils

Introduction

Les applications et les services établis au-dessus du protocole TCP/IP représentent aujourd'hui une grande part du volume de trafic global dans l'Internet et les réseaux sans fil. Au début les mécanismes de contrôles de TCP ont été conçus pour des réseaux de bande à largeur élevés , faible retard et à congestion limitée ne sont en fait pas appropriés aux systèmes sans fil. Les réseaux sans fil sont caractérisés par des pertes élevées dues aux phénomènes de propagation affaiblissements radio, retard élevés, et faible largeur de bande. Les dégradations au dessus de l'interface air entraînent des pertes paquets prises de manière erronée comme congestion. Ceci se produit en dépit des mécanismes de contrôle de lien radio qui utilisent la technique de retransmissions pour réaliser des communications sans erreur au-dessus de l'interface d'air. Ces techniques cause aussi un retard plus grands comparés au délais TCP , ayant pour résultat la dégradation de la sortie . En fait, le TCP interprète mal les erreurs au dessus de l'interface Radio et les prisent comme étant une congestion et réagit en réduisant la fenêtre de congestion et par conséquent la sortie globale d'application.

Pour faire face aux caractéristique des liaisons sans fils et pour réaliser une meilleure performance TCP au dessus réseaux sans fil , plusieurs solutions et perfectionnements de TCP ont ete propose dans la littérature . Ces solutions sont suggérées pour l'intégration dans différentes couches, et varie de la couche liaison à la couche transport . Ce chapitre fournit une vue d'ensemble de ces perfectionnements avec les avantages et les inconvénients de chaque variante de TCP.

3.1 Facteurs d'environnement sans fils

Avant de décrire les solutions qui ont été proposé pour augmenter les performances du TCP au dessus des liaisons Radio, la présente section donne une brève aperçue sur l'ensemble des facteurs de base qui affectent les caractéristiques de TCP dans les systèmes sans fil.

3.1.1 Limitation de largeur de Bande et Durée RTT

La majorité des systèmes sans fil fournie un faible débit de transmission de données aux utilisateurs (par exemple, réseau local de radio ( WLAN , GPRS UMTS ) . La largeur de bande limitée est l'une des facteurs principaux avec les affaiblissements du canal qui dégradent les performances TCP au dessus des liaisons sans fils.

L'Internet et d'autres réseaux câbles de donnes fournissent une largeur de bande plus élevée que les réseaux sans fil ( par ex 100 Mbps partages sur un réseaux locale ). Cette différence de largeur de bande entre réseaux fixe et réseaux sans fil affecte le comportement des noeuds, qui relie les deux réseaux (par exemple, GGSN dans UMTS). [1-4], Ces noeuds reçoivent plus de paquet TCP qui sont achemines par le réseau sans fil. Ceci produit un retard excessif en raison des paquets stocker dans les tampons de ces noeuds. Ce retard fait augmenter le RTT des connexions TCP et gonfle le RTO calculé. Ceci limite l'augmentation de la taille de la fenêtre de congestion TCP, ayant pour conséquence une limitation de sortie de la connexion. En outre, la congestion est considère plus nuisible s'elle se produit durant la phase de rétablissement rapide ( fast-recovry ) (dans le cas de Triple duplicate ) et durant la phase démarrage lent (slow start (dans le cas Time out ) . Les segments en file d'attente dans le dernière noeud résultent de la saturation des tampons , empêchant les pertes de paquets , et fait augmenter la congestion. Ce point a été étudié dans la littérature pour estimer la capacité Optimale du tampon de la dernière interface. 5,3]

Dans UMTS (respectivement HSDPA), le tampon RLC dans le RNC (respectivement la MAC_hs dans le Node B) affecte pareillement les performances du TCP . La saturation des tampons du dernier noeud explique le comportement du jet du slow start [1-4] observé essentiellement dans les études du TCP au dessus des réseaux sans fil ( par exemple, GPRS , UMTS). En fait, au début de la connexion TCP, le seuil du démarrage lent ( slow start ) est placé à une valeur arbitraire qui est en général haute. La taille de fenêtre de congestion évolue jusqu'à ce qu'une perte de paquet soit détectée. Notez que l'émetteur TCP détecte une congestion après un RTT que la congestion a eu lieu dans le réseau ; le RTT est Grand dû au faible transmission au dessus du liens radio et au retard du tampon du dernier noeud . Durant ce temps, l'expéditeur de TCP, ayant une taille de fenêtre plus grande que la capacité de réseau, continue la transmission de paquet, surcharge le réseau, et rend la congestion plus grave. Comme la congestion s'est produite, le seuil de la phase de démarrage lent ( slow start ) obtient progressivement une valeur appropriée. La phase d'évitement de congestion ( congestion - avoidance ) , assurant l'évolution de fenêtre jusqu'à la fin de démarrage lent ( slow start ) , est chargée de ralentir le taux d'envoi selon la capacité de réseau de sorte que les prochains saturations soient moins

3.1.2 Taux de perte élevé

La cause principale des pertes des paquets au dessus de l'interface air est le niveau élevé des erreurs. Ces pertes produisent des acquittements triple duplicate ou Time out . Triple duplicate se produit quand la destination reçoit un segment incorrect et reçoit correctement les segments suivants, qui ont des nombres de séquence plus élevés. Dans ce cas-ci, le TCP acquitte les segments sans erreur, qui mène à une retransmission rapide et à un mécanisme ( fast recovery ) rétablissement rapide dans la connexion TCP . En outre, la faible largeur de bande, le retarde élevé, et les pertes peuvent entraîne à une absence du rétroaction du récepteur à l'émetteur et par conséquent peuvent mener à un arrêt dans la connexion TCP.

Pour traiter le problème des pertes et des erreurs, la majorité de systèmes sans fil met en application un protocole de retransmission appelé ARQ . Le protocole d'ARQ assure la réception sans erreur des paquets au récepteur au-dessus de l'interface d'air. Il, cependant, trompe le protocole de TCP qui produit des retransmissions inutiles de paquet par ses mécanismes de congestion. La couche inférieure, particulièrement la couche de MAC RLC, peut recevoir un paquet incorrect et peut correctement recevoir les paquets suivants. Le protocole d'ARQ est responsable de retransmettre le paquet incorrect jusqu'à ce qu'il soit reçu correctement.

Dans ce cas-ci, deux phénomènes peuvent se produire. D'abord, la couche inférieure peut livrer les paquets reçus correctement et dans l'ordre à la couche supérieure. Dans ce cas-ci, la couche de TCP reçoit dans l'ordre les paquets TCP , mais le protocole d'ARQ cause un retard dans la réception de la couche de TCP. Ceci peut mener à un retard dans l'acquittement et peut produire ( Time out ) un arrêt de la connexion TCP. Notez que ce scénario se produit fréquemment dans le système d'UMTS, où les paquets sont livrés à la couche supérieure dans l'ordre. En second lieu, la couche inférieure peut fournir les données correctement mais hors ordre. Dans ce cas-ci, la couche de TCP peut recevoir des segments ayant des nombres de séquence au delà que prévus. Ceci peut générer ( triple duplicate ) reproduction triple ou d'un arrêt ( time out) , selon le retard de réception de segment prévu par la couche de TCP.

L'aspect aléatoire et l`aspects bursty des erreurs sur le lien sans fil rendent l'effet des pertes plus nocif. En fait, la réception successive des paquets sans erreur (c.-à-d., sans ARQ retarde) réduit le RTO calculée. Quand les erreurs se produisent, des paquets incorrects sont reçus successivement. Ceci produit un retard successifs et les arrêts ( Time out ) graves, qui ont comme conséquence des dégradations de sortie de TCP.

En conclusion, il important de noter que les faux arrêts (time out), produits par l'aspect aléatoire des erreurs des liens sans fil , peuvent avoir comme conséquence l'ambiguïté de retransmission [7] . Ceci signifie qu'après que la retransmission d'un segment interprété comme abandonné, l'expéditeur de TCP ne sache pas si l'acquittement arrive pour le segment retransmis ou pour le premier.

3.1.3 Mobilité

La dégradation de performance TCP dans les réseaux sans fil peut également être provoquée en partie par la mobilité des utilisateurs lors de la communication.

Dans les réseaux cellulaires (par exemple, GPRS, UMTS), la mobilité d'utilisateur mène au transfert ( hand over ) pendant la communication. Pendant ce processus de transfert ( handover ) , l'information nécessaire doit être transférée de la station de base précédente à la nouvelle station de base. Selon la technologie utilisée, comme UMTS ou HSDPA, le transfert aurait comme conséquence un retard excessif ou déconnexion. Le transfert peut être intra technologie où les deux cellules sont couvertes par le même système cellulaire, et inter technologie où différentes technologies sont déployées en cellules adjacentes, UMTS et HSDPA. Le transfert inter système est connu pour être plus nocif, puisque dans certains cas les données stockées dans le RLC ou le tampon du node B ne sont pas transférées à la nouvelle cellule. Les donnes perdues au-dessus de l'interface air conduit à des dégradations importantes de sortie globale de TCP.

3.1.4 Asymétrie de la largeur de bande

Le TCP utilise les acquittements entrants dans une direction pour estimer le RTT et contrôle la transmission des paquets dans la direction opposée [8]. Dans les deux directions, le retard entre les paquets reçus (ou les acquittements reçues) dépend de la largeur de bande de lien de chaque direction. Pour avoir un comportement normal de TCP, les acquittements devraient maintenir le même intervalle de transmission des données dans l'autre direction. Dans les systèmes sans fil, la liaison descendante et la liaison montante ne fournissent pas la même largeur de bande. Par exemple, dans la version 5 UMTS, l'utilisation de HSDPA fournit un taux plus élevé de transmission sur la liaison descendante. Que Sur la liaison montante, l'utilisateur continue à utiliser le canal de DCH, qui fournit un taux limité de transmission. Ceci cause une asymétrie entre les deux sens. Dans [9, page 1] , le réseau asymétrie est définie comme suit : le réseau montre l'asymétrie en respectant la performance de TCP, si la sortie réalisée n'est pas seulement une fonction des caractéristiques de lien et de trafic de sens de transmission (c.-à-d., de downlink), mais dépend de manière significative de ceux de l'autre direction (c.-à-d., de liaison montante) . Il est important de noter que les segments de données n'ont pas la même taille que leur correspond acquittement. En plus de la largeur de bande, le rapport de taille entre les segments de données du sens descendant et leur correspondant acquittement au-dessus du sens montant, de même pour la taille de données transmise au-dessus de la liaison montante, devraient être considérés pour décider si un réseau montre l'asymétrie de réseau.

3.2 Améliorations de la Performance TCP

Pour augmenter les performances du TCP au dessus des systèmes sans fil , beaucoup de propositions ont été développées dans la littérature, qui essayent de s' approcher de l'une de ces deux comportements idéal :

ü L'expéditeur de TCP devrait simplement retransmettre un paquet perdu à cause erreurs de transmission, sans ne prendre aucune mesure de contrôle de congestion ;

ü Les erreurs de transmission devraient être récupérées d'une manière transparente et efficace par le réseau.

Selon leurs comportements, les techniques proposées peuvent être classifiés dans trois catégories [10-13]:

ü Solutions niveau liaison fiabilise,

ü Solutions de division de la connexion,

ü Solutions de bout en bout.

Chaque type de solution est décrit pour acquérir une meilleure compréhension des interactions qui peuvent se produire entre la liaison radio et le protocole TCP.

3.2.1 Présentation des procédés

ü Les procédés de bout en bout aident à travers l` émetteur TCP de gérer les pertes suivant deux techniques :

- Premièrement, ils utilisent la forme d'acquittements sélectifs, (SACKs ), qui permet à l'émetteur de retrouver les multiples paquets perdus sans avoir recours au timeout ;
- Deuxièmement, ils permettent à l'émetteur de distinguer les paquets perdus sous congestion et ceux perdus hors congestion en utilisant un mécanisme dite ELN ( Error Loss Notification )

ü Les procédés de division de la connexion masquent complètement la liaison sans fil pour l'émetteur en terminant la connexion TCP à la station de base. De tels procédés font appel à deux connexions séparées :

-Une connexion fiabilisée entre la station de base et la destination hôte (ou mobile) ;

- Une autre connexion entre l'émetteur et la station de base faisant appel à des techniques telles que les acquittements sélectifs.

ü Les procédés à couche de liaison fiabilisée, se positionnent entre les deux précédents. Ces procédés masquent les pertes des liaisons au TCP émetteur par des retransmissions locales et éventuellement par des corrections successives d `erreurs (FEC) à travers la liaison sans fil.

3.2.1.1 Solutions niveau liaison

Les solutions niveau liaison visent que la couche liaison sans fil se comporte comme celles du réseau câble avec respect des protocoles de haut niveau. L'idée fondamentale est que les erreurs au dessus de la liaison sans fils devraient être récupérés dans le système sans inclure le TCP dans le processus de rétablissement. En d'autres termes, ces solutions essayent de masquer ou cacher le rétablissement d'erreur au TCP. FEC combiné avec le protocole d'ARQ est employé dans la majorité des systèmes sans fil pour fournir le service fiable requis par les couches supérieures, telles que le TCP. ARQ peut entraîner des fausses retransmissions à la couche TCP, particulièrement quand le niveau d'erreur dans la liaison radio est élevé. Aucune approche n'est appropriée du point de vue efficacité ou interaction de couche. Des corrections additionnelles doivent être introduites dans la couche liaison pour améliorer les performances TCP. Les solutions de la couche liaison peuvent être prisent en compte ou ignores. Différents hypothèse, complexité, performance globale du système est observe dans chaque cas.

3.2.1.2 Split Solutions

Pour protéger l'expéditeur TCP des retransmissions erronées provoquées par les erreurs de la liaison Radio, plusieurs solutions proposent de diviser la connexion de TCP en deux portions au point où les deux réseaux de câble et sans fil se réunissent, puisque ces deux sous-réseaux n'ont pas les mêmes caractéristiques. Ce point est l'interface de passage au réseau sans fil change d'un système à l'autre. Dans les réseaux cellulaires comme GPRS et UMTS par exemple, il correspond au GGSN . Cette division de la connexion est manipulé par un logiciel implémente dans ce passage sans fil. La première connexion de l'expéditeur au passage sans fil emploie le TCP, tandis que l'autre utilise un protocole de transport fiable . En conséquence, la performance TCP dans la première connexion est affectée seulement par la congestion dans le réseau, et les erreurs de réseau sans fils sont cachées à l'expéditeur.

3.2.3 Solutions point à point

Cette catégorie de solution inclut des changements à la mécanique de TCP et comporte plus de coopération entre l'expéditeur et le récepteur (d'où la nomination point à point ) le bout à bout nommé) pour séparer des pertes et la congestion de réseau sans fil.

Conclusion :

La simplicité, la fiabilité et le contrôle de congestion que présente TCP, l'ont rendu le protocole le plus utilisé au niveau transport dans le monde Internet. Pour TCP, la perte est un indicateur de congestion. Lors d'une perte, la fenêtre de congestion de TCP est réduite, une chose mauvaise pour le débit TCP sur des liens bruyants, où les pertes sont causées par d'autres raisons que la congestion, comme le cas des liens sans fil. Ceci freine la convergence vers les réseaux sans fil et l'intégration des services multimédia dans les réseaux mobiles.

Plusieurs solutions sont proposées, au niveau transport, au niveau liaison, au niveau antennes, etc.. Parmi ces solutions, l'utilisation de FEC et de ARQ au niveau liaison s'avèrent la plus adaptée à notre application. Un modèle très promettant consiste à combiner la FEC et l'ARQ afin d'améliorer davantage la performance de TCP sur les liens sans fil.

Chapitre 4 : Effet du Protocole TCP au dessus du système UMTS-HSDPA

Introduction

La Troisième génération des systèmes cellulaires tels qu' UMTS et son perfectionnement comme HSDPA sont conçus pour offrir aux utilisateurs, en plus de la parole, des nouveaux services multimédia et d`accès aux réseaux informatiques privés et publics tels que l'Internet. Une telles techniques sans fil avancées se basent souvent sur l'utilisation de la modulation et le codage adaptatif, la technique de retransmission des blocs incorrects, et les algorithmes d'ordonnancement La source principale de perte de paquet dans les systèmes sans fil est les erreurs de transmission radio génères par les phénomènes de propagation. Les techniques de protection du lien sans fils telles que le codage du canal et l'entrelacement ne sont assez pas efficaces pour corriger toutes les erreurs éprouvées au-dessus du lien radio. L'utilisation d'ARQ pour retransmettre les paquets incorrects est obligatoire pour réaliser une transmission par radio sans erreur. Cependant, l'utilisation d'ARQ introduit un retard additionnel dans la livraison due aux retransmissions. Or le protocole TCP interprète ce retard de livraison comme congestion dans les réseaux fixes et d'Internet. Puisque la majorité des services Internet est base sur le protocole TCP, on s'attend à ce qu'il manipule une grande partie de trafic de donne (dite non real time trafic data ) transporte par le réseau sans fil . La présence du TCP dans les extrémités de la connexion est un fait qui doit être pris en considération lors de l'introduction des techniques avancées . La possibilité de changement du TCP est a évité puisque ça été déjà largement déployé. TCP Reno est la version la plus mise en application et intensivement employé par les applications et services Internet..

Dans la version 99 UMTS, ARQ sélectif est implémente au niveau du RNC. Il est utilise par RLC en mode AM dite «  Acknowledgment Mode » . Dans le système de HSDPA, présenté dans les versions 5 et 6 des 3 GPP , l'hybride-ARQ est développé et introduit dans l'entité MAC-hs du node B . L'interaction entre RLC , MAC-hs et le protocole TCP doit être analysé pour évaluer effet du TCP sur les performances du système HSDPA

Les paramètres affectant la performance TCP sont d'abord définies, par suite un modèle analytique d'évaluation de cette performance est dérivé. Pour extraire et présentes les performances TCP dans les versions R 99 et HSDPA -UMTS

4.1 Performance TCP

La performance du TCP peut être mesurée ou évalué de différente manière selon le contexte , le système utilisé, et l'application transporte . Dans cette section, la performance TCP est évaluée en utilisant les paramètres principaux suivants [1]:

v Sortie effective : La sortie effective , appelée également largeur de bande effective , est le taux de transmission de données de l'application en bits/s.

v Variation de sortie : Pour certains applications et services, il est important de connaître la sortie instantanée. la variation de sortie selon une echelle donne , selon l'application, elle est très important pour évaluer la performance bout à bout.

v Temps de transfert de fichier : Le temps nécessaire pour transférer le dossier entier. Ce paramètre est directement lié à la sortie effective.

v RTT ( round trip time ) : Le temps entre la transmission d'un segment et la réception de son acquittement . Cette fois inclut le retard introduit par les noeuds intermédiaires du réseau , qui dépend de la distance et de la charge de trafic dans le réseau. Ce paramètre peut limiter la sortie efficace.

v Variation du retard : représente la variation du temps de réception des paquets , en d'autre terme la variation du RTT , cette variation peut avoir un impact dans l'apparition des événements du triple duplicate ou time out qui ont résulte une limitation de sortie et gaspillage de ressources

v Equité

v Ressources :

4.2 Architecture de la connexion TCP au dessus UMTS-HSDPA

Les connexions typiques TCP entre l'équipement utilisateur et le serveur par l'intermédiaire 'UMTS release 99 et les réseaux d'accès de HSDPA sont décris sur les Figures 4.1 et 4.2. [2,3]. Les data grammes IP sont achemines par l'Internet au GGSN, qui relie le réseau coeur UMTS à l'Internet. Le flux des données est expédié du GGSN à l'équipement utilisateur en utilisant le protocole de données de paquet (PDP). Une fois que le contexte de PDP est établi, le GGSN transmet les données au SGSN, qui se base sur les supports de l`interface Iu pour expédier les données au RNC. La transmission de données entre le GGSN et le RNC (UTRAN) est assure par le protocole GPRS (GTP-U GPRS Tunneling Protocol ) [ 3 ]. Dans l'UTRAN , les données sont transmises à l'équipement d'utilisateur en utilisant les protocoles d'accès RLC et entités MAC . Par exemple, le protocole PDCP (Packet Data Convergence Protocol ) est responsable de la compression de l'information et contrôle redondance du TCP/IP . Les fonctionnalités de RLC et MAC de l'UMTS release 99 et HSDPA sont décrits en détail en chapitres 3 et 4. Notez que le transfert de TCP sur l'interface radio peut être fourni par un ou par deux entités RLC différente en mode dite AM « Acknowledged Mode » , appelées radio bearers. Dans le cas d'un seule radio bearers., l'entité AM RLC contrôle les segments de données de TCP et leurs acquittements . Cependant, dans le cas de deux radio bearers., une entité de AM RLC manipule les segments de données de TCP, et l'autre gère les acquittements 4 ].

La différence significative entre le transfert de donnes au dessus de l' UMTS version 99 et le système de HSDPA résulte dans l'UTRAN. Dans la version 99 d'UMTS, un canal dédie est établi entre l'équipement utilisateur et le node B pour assurer le transfert de données sur l'interface air. Le node B et l'interface Iub réalisent un transfert simple des données au RNC, qui contrôle la connexion d'équipement d'utilisateur et l'algorithme ordonnancement entre différentes connexions. Dans HSDPA, les algorithme d'ordonnancements sont situes dans le node B, et un canal partagé est responsable de gérer les différents connexions au -dessus de l'interface d'air. Par conséquent, les principaux tampons de données sont situé dans le node B au lieu du RNC, qui ont un effet significatif sur le transport de données et la connexion TCP. Les pertes des segments dans le réseau sans fil sont produites selon le niveau du taux d'erreur et les procédures de handover . Comme indiqué en chapitres 3 et 4, le protocole d'ARQ est employé pour récupérer ces pertes, mais ceci augmente le retard de réception des paquets à la couche TCP. Dans la version 99 d'UMTS, le protocole d'ARQ est mis en application dans le RNC, tandis que dans HSDPA il est manipulé par l'entité MAC-hs dans le node B. En outre, l'utilisation des algorithmes de soft combining avec ARQ dans le node B réduit le retard produit par le protocole d'ARQ. Ceci a impact direct sur la performance de la connexion et l'efficacité de système. Notez que dans les deux cas, release 99 et HSDPA, les données sont livré à la couche de TCP dans l'ordre. Ceci implique que le retard introduit par ARQ peut seulement produire un time out de la connexion TCP. Le phénomène triple duplicate se produit seulement en raison de la congestion d'Internet.

L1

WCDMA

MAC

RLC

PDCP

IP

TCP

L1

WCDMA

L1

L1

L1

MAC

ATM

RLC

UDP/IP

PDCP

GTP-U

L1

L1

ATM

L2BIS

UDP/IP

UDP/IP

GTP-U

GTP-U

L1

L1

L2BIS

L2

UDP/IP

GTP-U

IP

IP

L1

L2

IP

TCP

IP

NETWORK

UE Node B RNC 3 G SGSN 3G GGS R,host

Figure 4 1 Structure protocolaire de la connexion TCP au dessus du système UMTS

UE Node B RNC 3 G SGSN 3G GGS R,host

Figure 4 2 Structure protocolaire de la connexion TCP au dessus du système UMTS

Lors de l'étude de la performance de TCP dans des systèmes d'UMTS release 99 ou HSDPA, plusieurs paramètres ou variables peut agir l'une sur l'autre et affectent l'efficacité de TCP. Ces paramètres sont

v La version de TCP telle que Reno ou le SACK

v Le seuil du l'algorithme de demarage (Slow-start threshold, ssthresh )

v La fenêtre de congestion initiale cwnd (1, 2 MSS ou plus),

v La taille de MTU

v La capacité du tampon du récepteur TCP qui limite la fenêtre annonce awnd

v RTT dans l'internet , qui a un impact direct sur le flux de sortie TCP

v Taux de congestion et pertes de segment l'internet

v Taux d'erreur t au-dessus de l'interface d'air et protocole ARQ utilse (c.-à-d., SR ARQ dans version 99 d'UMTS et HARQ dans HSDPA)

v RLC MaxDAT, qui indique que le nombre maximal de retransmissions d'une PDU RLC donnée a Allocation du canal de DCH (par exemple, spreading facteur , débit binaire) dans la version 99 d'UMTS, qui a un impact direct sur de valeur globale de RTT

v L'algorithme d'ordonnancement employé dans HSDPA, qui détermine le taux de transmission au-dessus de l'interface d'air et variation du retard due à la durée variable de stockage des données dans les tampons du node B

v Taille de la fenêtre de transmission RLC qui indique le de nombre maximum de RLC-PDU qui peut être transmis avant de recevoir acquittement

v Nombre de canaux de HARQ dans HSDPA, qui indique le nombre de processus parallèles de HARQ qui peuvent être supportes par l'entité MAc-hs. N'importe quelle augmentation de ce nombre réduit de manière significative le retard HARQ (comme expliqué en chapitre 4).

4.3 Comparaison entre RLC, MAC-hs, et TCP

Le protocole fiable TCP et le mode de AM RLC (ou HARQ dans HSDPA) fournissent les mêmes services pour la transmission des donnes telque : la fiabilité, glissement de fenêtre, la segmentation . Cependant, la différence peut être détecter dans la gestion de la fenêtre de transmission et l'acquittement de retour puisqu'elles sont conçues pour différents contextes. Avant d'étudier la performance de TCP au-dessus d'ARQ dans le système d'UMTS, l'identification des ressemblances et des différences dans ces protocoles est nécessaire. Ceci facilite la compréhension des interactions de TCP et de HARQ

4.3.1 Fiabilité

TCP, RLC, et Mac-hs sont base sur le schéma ARQ pour récupérer les pertes de paquet. Les trois entités assure la réception sans erreur des paquets transmis. L'ARQ utilisé dans le TCP est adapté au protocole go-back-n , où l'expéditeur de TCP ne retransmet pas nécessairement tous les paquets ayant un numéros de séquence plus grand que celui du paquet perdu. Dans les nouveaux versions de TCP (par exemple, TCP SACK ) l'acquittement sélective à ete introduit dans le protocole TCP [5-7]. ARQ sélectif et le protocole stop-and-wait sont employés dans le R99 et R5 et R6 de l`UMTS Les pertes de paquet sont détectées dans le TCP soit par triple duplicate ou time out . Dans UMTS version 99 et HSDPA un négative acquittement ( NAK ) est transmis et rétroagit pour demander la retransmission de RLC-PDU dans le cas de e l' UMTS release 99 , ou MAC-hs -PDU dans le cas du HSDPA . L'acquittement dans le TCP est complètement contrôle par le récepteur. L'expéditeur n'a aucun contrôle pour demander un acquittement.

L`acquittement de TCP est intégré dans l'en-tête du segment TCP qui est champ ACK . Dans la version 99 UMTS, il est envoyée, périodiquement ou quand un RLC- PDU est reçu erroné . En outre, l'expéditeur peut demander un acquittement du récepteur en configurant le bit P ( polling ) contenu dans l'en-tête de RLC-PDU , il est transmis à travers le champ (SuFi) porté dans le PDU . Dans HSDPA, l'acquittement de chaque bloc MAC-hs reçu est transmise au-dessus du canal HS-DPCCH et multiplexée avec l'indicateur de qualité de canal ( CQI ) . Le champ d'acquittement de HARQ est déclenché au loin quand il n'y a aucune information de ACK ou de NACK a envoyée.

4.3.2 Contrôle de flux et Glissement de fenêtre

TCP, MAC-hs et RLC permettent la transmission des paquets en utilisant une fenêtre glissante (Sliding Window ) de sorte que plusieurs paquets soient transmis avant de recevoir un acquittement du premier paquet dans l'ordre dans la fenêtre de glissement . Dans le TCP, la taille de fenêtre transmission change dynamiquement selon l'algorithme de contrôle de congestion. Dans UMTS version 99 , la taille initiale et maximum de la fenêtre de transmission sont configurées par l'entité de RRC. Pendant la connexion, le récepteur peut demander le changement de la taille de fenêtre de transmission. L'expéditeur informe le récepteur au sujet de ce changement par le champ SuFi porté dans un PDU Notez que la modification de la taille de fenêtre peut être due à, par exemple, la taille limitée du tampon du récepteur l'équipement d'utilisateur, complexité de réception, ou retard. Dans HSDPA, la taille de fenêtre transmission indique le nombre de processus parallèles de HARQ, ou les exemples, qui peuvent être manipulés par l'entité MAC-hs. Notez que le nombre d'instance HARQ configuré par l'entité RRC et que jusqu'à huit canaux de HARQ peuvent être utilisés simultanément, qui limite la taille maximum de la fenêtre de transmission à huit PDU-MAC-hs

4.3.3 Segmentation

RLC, MAC-hs, et TCP procèdent à une segmentation des données reçues des couches supérieures. Dans le TCP, la taille de segment est variable et est hautement lié à la taille maximum appelée MSS. MSS est négocié entre les entités de TCP d'extrémité et est délimité par la taille du MTU au niveau d'IP . Dans la version 99 UMTS, la taille de PDU RLC est choisie pendant la configuration de l'entité RLC. En fait, la taille de PDU est choisie pour éviter la segmentation des datagrammes d'IP ayant en général une taille de 40 bytes. Par conséquent, la taille de PDU est généralement égale à 43 bytes (3 bytes pour l'en-tête de RLC) à moins que quand le PDCP est utilise . Dans ce cas-ci, la taille de PDU est adaptée au rapport de compression de PDCP. Dans HSDPA, la taille de PDU de RLC est choisie comme dans la version 99 d'UMTS. Cependant, la taille de MAC-hs PDU change dynamiquement selon MCS choisi. Le PDU du MAC-hs est transmis dans un TTI . Chaque RLC PDU correspond à un ou plusieurs MAC-hs PDU

4.4 Modélisation du TCP au dessus UMTS-HSDPA

La variation du débit binaire TCP au-dessus de l'interface radio est due à deux raisons : diminution de la taille de fenêtre TCP, et retransmissions des segments TCP.

Dans le cas des canaux dédies [ 3.4.15-25 ], il est intéressant d'évaluer le débit binaire final de TCP puisque le nombre d'utilisateurs est limite . Cependant, quand plusieurs utilisateurs partagent en même temps, le même canal , la performance du TCP est définie par le débit binaire utilisateur et la sortie de système .

Nous allons présente un modèle simple pour évaluer la performance du TCP au-dessus de HSDPA. Le débit binaire au niveau TCP est calculé en divisant la taille de données par la valeur moyenne des temps de latence E (t) ; un processus de Markov est assumé. Le temps moyen de latence E (t) se compose de Tss : la période de latence de la phase de démarrage lent (slow start ) ; Tloss : correspondant au temps de rétablissement et de RTO ; et Tca , représentant le temp de latence de la phase steady-state , Par conséquent, le débit est donné par

, 4.1

En conséquence, modéliser l'effet du TCP nécessite l` évaluation de la période de latence de la phase de : démarrage lent (slow start) , perte de rétablissement ( loss recovery ) , phase d`équilibre ( steady state phase ) . L`analyse du time out TCP nécessaire pour le calcule des temps de retard est présente ci-dessous

4.4.1 Timeout

Le TCP détecte les pertes de deux manières : RTOs et triple-duplicate ACKs. Le RTO du TCP peut être provoqué par une congestion dans le réseau Internet ou par un retard dû à la limitation du débit binaire ou à des multiples retransmissions sur l'interface radio produite par la technique d'ARQ, qui augmente le RTT et le RTO du TCP. Dans cette section, la probabilité de RTOs due à l'effet de l'interface par radio est détermine

4.4.1.1 Proposition

La probabilité de RTO dû à l'interface radio est donnée par le suivant : [11]:

4.2

ou

- To est la durée moyenne du premier time out dans une section d'un ou plusieurs successifs time out ,

- RTT wired est le RTT moyen de la partie câble du réseau ,

-Pe est la probabilité des erreurs après le décodage du bloc d'information par l'intermédiaire de FEC,

- Ps est la probabilité des erreurs après le soft combining de deux transmissions successives du même bloc d'information.

- km est la probabilité de sélection d'un MCS m . Un MCS est la combinaison de la modulation ordre m , un taux de codage de canal , et un nombre N de HSDSCH Channel codes .

- TTI = 2ms , SF =13, et W est le débit WCDMA (3.84 Mchips/sec).

- Le paramètre Tj est le temps de transmission d'un segment sur l'interface par radio. Ce temps de transmission dépend de l'algorithme d'ordonnancement employé dans l'entité MAC-hs pour partager le canal de HS-DSCH entre divers utilisateurs.

L'étude conduite dans cette section suppose que l'algorithme fair throughput est mis en application dans le système. L'introduction des meilleurs algorithmes d'ordonnancement peut seulement augmenter la performance.

4.4.1.2 Preuve

Dans HSDPA, chaque segment TCP est transmis en utilisant plusieurs TTIs prédéfini, de durée 2 ms . La taille d'un segment TCP est 1500 octets. La transmission d'un segment de TCP exige entre 12 et 30 TTIs, selon le schéma de modulation et de codage utilisés sur l'interface radio. Soit Si la taille de données à transmettre au-dessus de chaque TTI. Le nombre de retransmission exigé pour fournir les données de taille Si est une variable aléatoire due à la variation conditionnel du canal Radio. Le temps nécessaire pour transmettre un segment TCP sans d'erreur est :

4.3

La variable ns est le nombre de TTIs requis pour transmettre un segment de TCP sans aucune erreur sur l'interface radio, et NT T I (i) est le nombre de transmissions de TTI i dû à HARQ. L'utilisation de l'algorithme d'ordonnancement sur le canal partagé rend les erreurs indépendant sur chaque TTI ; les TTIs successif sont assignés à de divers utilisateurs. Le nombre de retransmission de chaque TTI de donne est indépendant de l'autre TTIs , le nombre de transmissions de segment TCP est peut être modelé par une variable Gaussienne. En conséquence, le temps RTT nécessaire pour transmettre un segment TCP est une variable gaussienne. La probabilité d`avoir un time out RTO exprimé comme :

 Prob(RTT = > To) = En évaluant et en remplaçant E (Ni) et par leurs valeurs, E(RTT) et sont obtenus, et la probabilité de RTO a la forme fournie précédemment dedans (4.2). Une dérivation détaillée de cette preuve est fournie dans [11,12].

4.4.2 Démarrage lent ( Slow Start )

La connexion TCP commence par la phase dite démarrage lent (slow start ) , sa fenêtre de congestion augmente rapidement pour réaliser le meilleur service jusqu'à ce qu'il détecte une perte de paquet. Dans cette phase, la taille de la fenêtre de congestion cwnd est limitée par une valeur maximum Wmax imposé par la source ou limitation des tampons du récepteur.

Pour déterminer E (Tss), nous avons besoin du E(dss) nombre de paquet de donnes à émettre avant de perdre un paquet . De ce nombre, on peut déduire E (Wss) taille de la première fenêtre pour que le TCP atteint la fin du démarrage lent (slow start ) . Si E (Wss) < Wmax, alors la limitation de fenêtre n'a aucun effet, et E(Tss) est simplement le temps nécessaire a l` expéditeur pour envoyer E(dss) en mode de croissance exponentiel du démarrage lent (slow start ) , si E (Wss) > Wmax alors E (Tss) est le temps nécessaire pour que le démarrage lent ( slow start ) augmente jusqu'à cwnd =Wmax et puis d'envoyer les segments de données restants à un taux Wmax segments par cycle .

Soit e être la probabilité de la retransmission (congestion + RTO). La probabilité e peut être évaluée en utilisant l'équation suivante :

4.4

E (dss) peut être calculé en utilisant l'expression suivante :

4.5

où d est le nombre de segments dans le fichier le dossier. En utilisant la même démonstration que dedans [ 10 ], la valeur moyenne du temps de latence peut être évaluée comme suit :

4.6

le taux de croissance exponentiel de la taille de fenêtre durant la phase de démarrage lent ( slow start ) est donne par

4.7

4.4.3 Temps de rétablissement du premier perte

La phase du démarrage lent ( slow start ) est achevé avec la détection d'une perte de paquet. L'expéditeur détecte une perte de deux manières : ACK négatif (triple duplicate) ou RTOs. Le RTO peut être provoqué par une congestion dans le réseau câble ou par retransmissions sur l'interface par radio. Après un RTO, la taille de fenêtre diminue de un ; cependant, la perte détectée par triple duplicate ACK diminue la taille de la fenetre de ½ un demi-. Cette section évalue le temps de rétablissement de cette première perte. La probabilité de la perte dans un fichier de d TCP segments est :

4.8

La perte entre segments pourrait être considérée indépendante [ 8.9 ]. Soit Q'(e, w) la probabilité pour que les pertes soit de type RTO. Cette probabilité peut être évaluée comme suit : soit cong et wirel respectivement, les probabilités qu'il y a une perte de congestion dans la transmission du fichier et il y a un RTO dus au condition de l'interface radio

4.9

où q est évalué dans 4.4.1 et par (4.2). [ 8.9 ] dérive la probabilité qu'un émetteur dans la congestion dite « avoidance » détectera une perte de paquet avec RTO , soit p le taux de congestion et w la taille de fenêtre . Cette probabilité est donne par F (p, W) :

4.10

La probabilité du RTO est obtenu simplement via :

4.11

La probabilité Q'_(e, w) est dérive comme [12,13]

4.12

La probabilité de perte par triple duplicate est loss(1-Q'(e, w)). Il a été suppose que le rétablissement rapide du triple duplicate prend un RTT [10]. Alors qu'il prend beaucoup de temps pour un RTO. Le calcul du RTO dans [8,9] ne tient pas compte des effets des interférences de la radio, utilisant la valeur du temps moyenne que prend RTO

4.13

Par combinaison de ces résultats nous obtenons :

4.14

4.4.4 Etat de stabilité

Le temps nécessaire pour transférer le reste de donnes peut être dérivé comme dans [ 10 ]. En effet, la quantité de données transmises restant après la phase de démarrage lent ( slow start ) sans être suivie par aucune perte de rétablissement est approximativement :

4.15

Cette quantité de données est transférée avec debit R(e, RTT, à, Wmax). Le temps de latence est alors indiqué ci_apres

4.16

Le taux R(p, RTT, To, Wmax) est évaluée sans tenir compte de l`effet de l'interface radio dans [ 8.9 ] . En employant la même démonstration que [ 8.9 ] et par l'introduction de e, RTT et Q'(e, W) fourni dans cette section, la dérivation de l'expression de sortie mène à l'équation suivante :

4.17

là où b est le nombre de segments de TCP acquitte par un ACK et W(e) est donné près

4.18

En conclusion, une fois que tout les temps sont calculés , le débit binaire au niveau de la couche de TCP peut être évalué en utilisant l'équation (4.1). Les schémas 4.3, 4.4, et 4.5 présentent les variations de sortie de TCP selon le taux de congestion dans le réseau câble, respectivement, pour 32, 64, et 128 Kbp

Figure 4 3 Effet du TCP sur la performance d'une application de 32 kbps

Figure 4 4 Effet du TCP sur la performance d'une application de 64 kbps

Figure 4 5 Effet du TCP sur la performance d'une application de 128 kbps

4.5 Effet du TCP sur les réseaux sans fils a canal partage

La Di munition du débit binaire TCP au dessus de l`interface radio est du a deux principales raisons : la dimunition de taille de la fenêtre TCP et les retransmissions des segments TCP . Dans le cas des canaux dedies , il est important de calculer le debit binaire TCP , vue que le nombre d`utilisateur est limite .Pourtant quand plusieurs utlisateurs partage le meme canal en meme temps la performance du tcp depends du debit binaire utilisateur et capacite du système Lors du calcul des débits de sorties pour les différentes algorithmes nous n`avons pas introduit l`effet du protocole TCP . Par conséquent l'évaluation du nombre moyen de segment TCP Ntcp devient importante. Quand Ntcp a une faible valeur , compare a la diminution de La taille de la fenetre TCP , la dimunition du debit binaire tcp est du essentiellement au chute de la fenetre TCP . Dans ce cas le nombre de paquets TCP arrivant au noeud B diminue, et plus de TTIs sont disponible sur le canal partagé. En affectant ces derniers TTIs aux autres utilisateurs, le débit binaire de l'interface radio peut être augmenté et par conséquent réduit la dégradation du débit binaire de TCP.

Ntcp peut être évalué en utilisant la probabilité de transmission des segments n fois avant la réception correcte. La probabilité qu'un segment soit transmis seulement est une fois (1 - e). Le segment TCP est transmis deux fois avec une probabilité e(1-e). La retransmission d'un segment a pu être provoquée par un RTO ou par triple duplicate .

Dans le cas d'un RTO, la période du time out est To . Si un autre time out se produit, To double à 2 To . Cette doublement est répété pour chaque retransmission non réussie jusqu'à ce qu'à ce que 64 To soit atteint, après To est maintenu constant à 64To . Cependant, dans le cas du triple duplicate, le time out reste toujours égales à To.

Quand la fenêtre est petite, la retransmission est due à RTO. Dans un réseau sans fil, après la troisième retransmission la perte est seulement due time out To . La probabilité de RTO dû à l'interface radio est q comme donnée dans (4.2). Si la période de time out est 2 To, nous définissons de la même manière la probabilité d'un RTO comme q2 (par le remplacement To par 2 To). Si la période time out est k*To , la probabilité du RTO ( due a HARQ )est alors qk , avec k peut prendre les valeurs 1, 2, 4, 8, 16, 32 et 64. Les probabilités qk sont définis pareillement selon le nombre de retransmissions.

Prenons xk = (1 - p)(1 - qk) la probabilité de réception avec succès des segments TCP quand la période de time out est k*T0 . Alors x2 = (1 - p)(1 - q2) et définissant x4, x8. . . x64 sur la même base.

La probabilité pour avoir trois transmissions est égale à :

La probabilité pour avoir 4 transmissions est .Le segment de TCP est transmis 5 fois avec une probabilité e2 (1-x2)(1- x4)x8 .

Basé sur les expressions de ces probabilités le nombre moyen de retransmission est donne par 4.19

4.19

NTCP peut être introduit alors dans le modèle analytique de sortie de cellules pour déterminer l'interaction entre le TCP et le HS-DSCH . Dans le cas l'algorithme fair throughput nous obtenons l`équation suivante

4.20

Une fois calcule le nombre d`utilisateur Nu a partir de 4.20 nous déterminons la sortie de la cellule in ( Mbps )

4.21

Dans cette section, la variation de sortie de cellules selon le taux de congestion est décris sur le schéma 4.6 où l'algorithme fair throughput est assumé sur le HS-DSCH.

Figure 4 6 Effet du TCP sur la capacite d'une cellule HSDPA avec l'utilisation de l'algorithme proportional fair

CONCLUSION

Nous avons étudié les améliorations apportées par la technologie HSDPA sur le lien descendant du réseau UMTS. Ces améliorations sont possibles grâce aux différentes techniques d'AMC, de HARQ et canal partage et des algorithmes d'ordonnancement rapide. Ainsi le HSDPA offre beaucoup d'avantages par rapport à l'UMTS tels que l'utilisation d'une bande passante importante combinée avec un délai court de la transmission des données et l'augmentation de la capacité de transmission sans avoir besoin de fréquences supplémentaires.

L`effet du protocole TCP sur les applications est plus fort que sur la capacité du système HSDPA due a l`utilisation des canaux partages haut débit . Ainsi rend faible l`impact du protocole TCP sur les performances et capacité du système HSDPA

References

UMTS

[1]. Bormann, C., C. Burmeister, H. Fukushima, H. Hannu, L-E. Jonsson, R. Hakenberg, T. Koren, K. Le, Z. Liu, A. Martensson, A. Miyazaki, K. Svanbro, T. Wiebke, T. Yoshimura, and H. Zheng. 2001. RObust Header ompression

(ROHC): Framework and Four Profiles: RTP, UDP, ESP, and Uncompressed RFC 3095. (July).

[2]. Tanner, R., and J. Woodard. 2004. WWCDMA Requirements and Practical Design, Chichester, West Sussex, England: The Atrium.

[3]. Holma, H., and A. Toskala. 2004. WWCDMA for UMTS. Radio Access for Third Generation Mobile Communications, 3rd ed. Chichester, West Sussex,England.

[4]. 3GPP TS 23.107 V3.2.0. 2004. Quality of Service (QoS) Concept and Architecture. Release 3, December.

[5]. Laiho, J., A. Wacker, 2002. Radio Network Planning and Optimisation for UMTS. London: John Wiley & Sons.

[3]. ITU-T, Recommendation G114. One-Way Transmission Time. 1993.

[7]. 3GPP TS 22.105 V3.4.0. 2005. Services and service capabilities. Release 3, September.

[9]. 3GPP TS 23.101 V3.0.0. 2004. Universal Mobile Telecommunications System Architecture. Release 3,

[10]. 3GPP TS 23.002 V3.7.0. 2005. Network Architecture. Release 3, March.

[11]. 3GPP TS 23.121 V3.3.0. 2002. Architectural Requirements for Release 1999. Release 1999, June .

[13]. 3GPP TS 25.410 V3.2.0. 2004. UTRAN Iu Interface: General Aspects and Principles. Release 3, December.

[14]. 3GPP TS 25.420 V3.3.0. 2005. UTRAN Iur Interface General Aspects and Principles. Release 3, March.

[15]. 3GPP TS 25.430 V3.5.0. 2005. UTRAN Iub Interface: General Aspects and Principles. Release 3, June.

[31]. Gilhousen, S. Klein, I. M. Jacobs, R. Padovani, A. J. Viterbi, L. A.Weaver, and C. E. Wheatley. 1991. On the Capacity of WCDMA System. IEEE Transactions on Vehicular Technology 40, no. 2: 303-12 (May).

[34]. Lee, C., and R. Steele. 1998. Effect of Soft and Softer Handoffs on WCDMA System Capacity. IEEE Transactions on Vehicular Technology 47, no. 3: 830-41 (August).

HSDPA

[1] 3GPP Technical Specification 22.004, Technical Specification Group Services and System Aspects : General on supplementary services, Release 1999, 2000.

[2] 3GPP Technical Specification 25.107, Technical Specification Group Services and System Aspects : Quality of Service (QoS) concept and architecture, Release 1999, 2002.

[3] 3GPP Technical Specification 25.211, Physical Channels and Mapping of Transport Channels onto Physical Channels (FDD), Release 5, 2004.

[4] 3GPP Technical Specification 25.212, Multiplexing and Channel Coding (FDD), Release 99, 2002.

[5] 3GPP Technical Specification 25.308, HSDPA Overall Description, Release 5, 2003.

[3] 3GPP Technical Specification 25.303, Technical Specification Group Radio Access Network : UE Radio Access capabilities, Release 5, 2005.

[7] 3GPP Technical Specification 25.213, Technical Specification Group Radio Access Network : Spreading and modulation (FDD), Release 5, 2005.

[8] Adachi F., Sawahashi M., Okawa K., Tree-structured generation of orthogonal spreading codes with different lengths for forward link of DS-WCDMA mobile, Electronic letters, Volume 33, Issue 1, 1997, pp. 27

[9] Ameigeiras P., Wigard J., Mogensen P., Performance of packet scheduling methods with different degree of fairness in HSDPA, Vehicular Technology Conference, 2004. VT004-Fall. 2004 IEEE 30th Volume 2, 2004, pp. 830 - 834.

[10] Anderson J. B., Svensson A., Coded Modulation Systems, Springer, 2002.

[11] Buddendick H., Wolfle G., Burger S., Wertz P., Simulator for performance analysis in UMTS FDD networks with HSDPA, Personal, Indoor and Mobile Radio Communications, 2004. PIMRC 2004. 15th IEEE International Symposium on Volume 3, 2004, pp. 2251 - 2255.

[12] Das A., Khan F., Sampath A., Hsuan-Jung Su, Adaptive, asynchronous incremental redundancy (A/sup /IR) with fixed transmission time intervals (TTI) for HSDPA, Personal, Indoor and Mobile Radio

Chapitre 3

[1]. Postel, J. 1980. User Datagram Protocol. RFC 738, August.

[2]. Comer, D. E. 2000. Internetworking with TCP/IP: Principles, Protocols, and Architecture, vol. 1, 4th ed., Upper Saddle River, NJ: Prentice Hall.

[3]. Stevens, R. W. 1994. TCP/IP Illustrated, vol. 1. Reading, MA: Addison- Wesley.

[4]. Hassan, M., and R. Jain. 2004. High Performance TCP/IP Networking. Upper Saddle River, NJ: Prentice Hall.

[5]. Case, J., M. Fedor, M. Schoffstall, and J. Davin. 1990. A Simple Network Management Protocol (SNMP). RFC 1157, May.

[6]. Hedrick, C. 1988. Routing Information Protocol. RFC 1058, June. 7. Malkin, G. 1994. RIP Version 2: Carrying Additional Information. RFC 1723, November.

[8]. Sportack, M. A. 1999. IP Routing Fundamentals. Indianapolis: Cisco Press.

[9]. Schulzrinne, H., S. Casner, R. Frederick, and V. Jacobson. 1993. RTP: A Transport Protocol for Real-Time Applications. RFC 1889, January.

[10]. Postel, J. 1981. Transmission Control Protocol. RFC 793, September.

[11]. Berners-Lee, T., R. Fielding, and H. Frystyk. 1993. Hypertext Transfer Protocol-HTTP/1.0. RFC 1945, May.

[12]. Fielding, R., J. Gettys, J. Mogul, H. Frystyk, L. Masinter, P. Leach, and T. Berners-Lee. 1999. Hypertext Transfer Protocol-HTTP/1.1. RFC 2313, June.

[13]. Ameigeiras Gutierrez, P. J. 2003. Packet Scheduling And QoS in HSDPA. PhD diss., Aalborg University, October.

[14]. TSG RAN Working Group 1, no. 21, HSDPA Number of Users. Qualcomm R1-01-0912, August 2001.

[15]. Cohen, E., H. Kaplan, and J. Oldham. 1999. Managing TCP Connections Under Persistent HTTP. Computer Networks 31:1709-23 (March).

[16]. Molina, M., P. Castelli, and G. Foddis. 2001. Web Traffic Modeling Exploiting TCP Connections Temporal Clustering through HTML-REDUCE. IEEE Network 14, no. 3:43-55 (May).

[17]. Postel, J. 1980. DOD Standard: Transmission Control Protocol. RFC 731, 13, January.

[18]. Mogul, J., and S. Deering. 1990. Path MTU Discovery. RFC 1191, November.

[19]. Stevens, W. 1997. TCP Slow Start, Congestion Avoidance, Fast Retransmit, and Fast Recovery Algorithms. RFC 2001, January.

[20]. Paxson, V., and M. Allman. 2000. Computing TCP's Retransmission Timer. RFC 2988, November.

[21]. Stevens, W., M. Allman, and V. Paxson. 1999. TCP Congestion Control. RFC 2581, April.

[22]. Casetti, C., and M. Meo. 2000. A New Approach to Model the Stationary Behavior of TCP Connections. In Proc. of the IEEE Conference on Computer Communications (INFOCOM) 2000, 1:337-75 (March 23-30).

[23]. Kumar, A. 1998. Comparative Performance Analysis of Versions of TCP in a Local Network with a Lossy Link. IEEE/ACM Transactions on Networking, 3, no. 4:485-98 (August).

[24]. Casetti, C., and M. Meo. 2001. An Analytical Framework for the Performance Evaluation of TCP Reno Connections. Computer Networks, 37:339-82.

[25]. Padhye, J., V. Frnoiu, and D. Towsley. 1999. A Stochastic Model of TCP Reno Congestion Avoidance and Control. Tech. Rep. 99-02, Department of Computer Science, University of Masschusetts at Amherst.

[23]. Padhye, J., V. Frnoiu, D. Towsley, and J. Kurose. 1998. Modeling TCP Throughput: A Simple Model and Its Empirical Validation. Paper presented at the annual conference of the Special Interest Group on Data Communication

(SIGCOMM), Vancover, August-September.

[27]. Padhye, J., V. Frnoiu, D. Towsley, and J. Kurose. 2000. Modeling TCP Throughput: A Simple Model and Its Empirical Validation. IEEE/ACM Transactions on Networking 8, no. 2:133-45 (April).

[28]. Wierman, A., T. Osogami, and J. Olsen. 2003. A Unified Framework for Modeling TCP-Vegas, TCP-SACK, and TCP-Reno. Technical Report CMUCS-03-133, Carnegie Mellon University.

[29]. Jitendra Padhye Web page. «TCP modeling» http://www.icir.org/padhye/ tcp-model.html.

[30]. Brakmo, L., S. O'Malley, and L. Peterson. 1994. TCP Vegas: New Techniques for Congestion Detection and Avoidance. Paper presented at the annual conference of the Special Interest Group on Data Communication

(SIGCOMM), August, 24-35.

[31]. Brakmo, L., and L. Peterson. 1995. TCP Vegas: End to End Congestion Avoidance on a Global Internet. IEEE Journal on Selected Areas in Communication, 13, no. 8:1435-80 (October).

[32]. Mo, J., R. La, V. Anantharam, and J. Walrand. 1999. Analysis and Comparison of TCP Reno and Vegas. Paper presented at the IEEE Conference on Computer Communications (INFOCOM), New York, March, 1553-33.

[33]. Floyd, S., M. Handley, J. Padhye, and J. Widmer. 2000. Equation-Based Congestion Control for Unicast Applications.

Chapitre 4

[1]. Hassan, Mahbub, and Raj Jain 2004. High Performance TCP/IP Networking.Upper Saddle River, NJ: Prentice .

[2]. 3GPP TS 23.030 V3.10.0. 2005. Service Description. Stage 2, Release 3,September.

[3]. Ameigeiras Gutierrez, P. J. 2003. Packet Scheduling and QoS in HSDPAPhD diss. Aalborg University, October.

[4]. Bestak, R. 2003. Reliability Mechanisms (Protocols ARQ) and Their Adaptationin 3G Mobile Networks. PhD diss. ENST Paris, December 18,http://pastel.paristech.org/archive/00000514/01/RBestakThese.pdf.

[5]. Mathis, M., J. Mahdavi, S. Floyd, and A. Romanow. 1993. Selective AcknowledgmentOption, RFC-2018, October.

[6]. Floyd, S., J. Mahdavi, M. Mathis, and M. Podolsky. 2000. An Extension to the Selective Acknowledgement (SACK) Option for TCP. RFC 2883, July.193 _ TCP Performance over UMTS-HSDPA Systems

[7]. Mathis, M., and J. Mahdavi. 1993. Forward Acknowledgment: RefiningTCP Congestion Control. In Proc. of the ACM Annual Conference of the Special Interest Group on Data Communication (SIGCOMM 93), (August).

[8]. Padhye, J., V. Frnoiu, D. Towsley, and J. Kurose. 1998. Modeling TCP Throughput: A Simple Model and Its Empirical Validation. Proc. of ACM Annual Conference of the Special Interest Group on Data Communication

(SIGCOMM).

[9]. Padhye, J., V. Frnoiu, D. Towsley, and J. Kurose. 2000. Modeling TCP Throughput: A Simple Model and Its Empirical Validation. IEEE/ACM Transactions on Networking 8, no. 2:133-45 (April).

[10]. Cardwell, N., S. Savage, and T. Anderson. 2000. Modeling TCP Latency. Paper presented at the IEEE Conference on Computer Communication (INFOCOM) 3:1742-51 (March 23-30).

[11]. Assaad, Mohamad, and Djamal Zeghlac he. 2003. Cross Layer Design in HSDPA System, IEEE Journal on Selected Areas in Communications, forthcoming.

[12]. Assaad, Mohamad, and Djamal Zeghlache. 2005. How to Minimize the TCP Effect in a UMTS-HSDPA System. Wiley Wireless Communications and Mobile Computing Journal 5, no. 4:473-485 (June).

[13]. Assaad, Mohamad, Badii Jouaber, and Djamal Zeghlache. 2004. TCP Performance over UMTS-HSDPA System. Kluwer on Telecommunication Systems Journal 27:2-4, 371-391.

[14]. Assaad, M., B. Jouaber, and D. Zeghlache. 2004. Effect of TCP on UMTS/HSDPA System Performance and Capacity. IEEE Global Telecommunications Conference, GLOBECOM04, Dallas. 3:4104-4108.

[15]. Ludwig, R., B. Rathonyi, A. Konrad and A. Joseph. 1999. Multilayer Tracing of TCP over a Reliable Wireless Link. ACM SIGMETRICS International Conference on Measurement and Modeling of Computer systems, May.

[16]. Yavuz, M., and F. Khafizov. 2002. TCP over Wireless Links with Variable Bandwith. Proc. of IEEE VTC (September).

[17]. Xylomenos, G., G. C. Polyzos, P. Mahonen, and M. Saaranen. 2001. TCP Performance Issues over Wireless Links. IEEE Communication Magazine 39, no. 5:52-8 (April).

[18]. Balakrishnan, H., V. Padmanabhan, S. Seshan, M. Stemm, and R. H. Katz. 1997. A Comparison of Mechanisms for Improving TCP Performance. IEEE/ACM Transactions on Networking 5:753-39 (December).

[19]. Chaskar, N. M., T. V. Lakshman, and U. Madhow. 1999. TCP over Wireless with Link Level Error Control: Analysis and Design Methodology. IEEE/ACM Trans. Networking 7:305-15 (October).

[20]. Wong, J. W. K., and V. C. M. Leung. 1999. Improving End to End Performance of TCP Using Link Layer Retransmissions over Mobile Internetworks. In Proc. of the IEEE International Conference on Communication (ICC),

324-8.

[21]. Bai, Y., A. T. Ogielski, and G. Wu. 1999. Interaction of TCP and Radio Link ARQ Protocol. In proc. of the IEEE VTC, 1710-14.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Enrichissons-nous de nos différences mutuelles "   Paul Valery