WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Mise en oeuvre d'un coeur de réseau IP/MPLS

( Télécharger le fichier original )
par amine Amine
Université de Bechar  - Technicien supérieur de maintenace de réseaux 2011
  

Disponible en mode multipage

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

    ÉÜÜÜÜÜ?ÈÚÜÔáÇ ÉÜÜÜÜÜÜÜ?ØÇÑÜÜÜÜÜÞã?ÏÜÜÜáÇ ÉÜÜÜÜÜÜÜ?ÑÜÜÜÆÇÒÜÜÜÌáÇ ÉÜÜÜÜÜÜ?ÑæÜÜÜÜÜãÌáÇ

    Ministère de l'enseignement supérieur et de la Ministère de la poste et des technologies de

    recherche scientifique l'information et de la communication

    INSTITUT NATIONAL DES
    TELECOMMUNICATIONS ET DES
    TECHNOLOGIES DE L'INFORMATION ET
    DE LA COMMUNICATION

     

    Ê?ÇÕÊ?á íÜÜÜäØæáÇ ÏÜÜÜÜÚãáÇ

    áÇÕÊ?Ç æ ã?Ú?Ç ÊÇÜÜ?ÌæáæÜÜÜÜäßÊæ

    PROJET DE FIN D'ETUDES

    Pour l'obtention du Diplôme d' Ingénieur d'Etat en Télécommunications

    Thème :

    Mise en oeuvre d'un coeur de

    réseau IP-MPLS

    Présenté par : ISMAIL

    Encadreur :

    Jury :

    Président : Examinateurs :

    PROMOTION : IGE 30
    ANNEE UNIVERSITAIRE : 2009/2010

    Table des matières

    INTRODUCTION GENERALE 1

    Chapitre I INTRODUCTION AUX RESEAU NGN

    I.1 Introduction 2

    I.2 Définition du NGN . 2

    I-3 Les exigences de tourner vers NGN 2

    I.4 Caractéristiques du réseau NGN 3

    I.4.1 Une nouvelle génération de commutation 3

    I.4.2 Une nouvelle génération de réseaux optiques 3

    I.4.3 Une nouvelle génération de type d'accès 3

    I.4.4 Une nouvelle génération de gestion .. 3

    I.5 Architecture en couches.. 3

    I.5.1 Couche transport 3

    I.5.2 Couche contrôle 4

    I.5.3 Couche service 4

    I.6 Principaux équipements du réseau NGN 5

    I.6.1 Softswitch 5

    I.6.2 Media Gateway 5

    I.7 Conclusion 5

    Chapitre II LES COEURS DE RESEAUX

    II-1 Introduction . 6

    II-2 Frame Relay et X25 . 6

    II-2.a le protocole X25 . 6

    II-2.b le protocole Frame Relay . 6

    II-3 Migration d'ATM et IP/ATM vers la MPLS .. 7

    II-3-a ATM . 7

    II-3-b IP/ATM 7

    II-3-c Convergence vers MPLS 8

    II-4 Développement de la MPLS ... 8

    II-5 Conclusion . 10

    Chapitre III IP/MPLS

    III.1 Introduction . 11

    III.2 PRINCIPES ET CONCEPTS DE MPLS 11

    III.2.1 Architecture de MPLS 11

    III.2.1.a LSR (Label Switch Router) .. 11

    III.2.1.b LER (Label Edge Router) .. 11

    III.2.2 Principe de fonctionnement de MPLS ... 12

    III.2.3 Structure fonctionnelle MPLS . 13

    III.2.3.a Le plan de contrôle 13

    III.2.3.b Le plan de données .. 14

    III.2.4 Structures De Données Des Labels 14

    Mise en oeuvre d'un coeur de réseau IP/MPLS

    Table des matières

    III.2.4.a LIB (Label Information Base) 14

    III.2.4.b LFIB (Label Forwarding Information Base) . 14

    III.2.4.c FIB (Forwarding Information Base) ... 14

    III.2.5 Construction des structures de données 14

    III.3 Paradigme De La Commutation Dans MP 15

    III.4 Les labels . 16

    III4.1 L'encapsulation Label MPLS dans différentes technologies 16

    III4.2 L'entete MPLS 16

    III.4.3 Pile de labels (Label Stack) ... 17

    18

    18

    19

    III.5 Distribution des labels .

    III.5.1 Le protocole LDP

    Chapitre IV LES APPLICATIONS DE MPLS

    IV.1 Introduction 20

    IV.2 Ingénierie de trafic 20

    IV.2.1 Ingénierie de trafic sans MPLS .. 20

    IV.2.2 Ingénierie de trafic avec MPLS . 22

    IV.2.2.a Mécanisme MPLS-T 22

    IV.2.2.b Le concept de Traffic Engineering Trunk(TE-Trunk) . 23

    IV.2.2 .c Le protocole CR-LDP (Constraint-based Routing over LDP 24 24

    IV.2.2 .d Le protocole RSVP (ReSerVation Protocol) 24

    IV.2.2.e Routage par contrainte MPLS-TE .. 25

    IV.2.2 .f Fonctionnalités MPLS-TE 27

    IV.2.2 .h Suppression d'un LSP .. 27

    IV.2.2 .g Préemption MPLS-TE . 27

    IV.2.2 .h Suppression d'un LSP .. 27

    IV.3 MPLS-VPN 28

    IV.3.1 Introduction . 28

    IV.3.2 Routeurs P, PE et CE 28

    IV.3.3 Routeurs virtuels (VRF) 28

    IV.3.4 Multi-Protocol Border Gateway Protocol (MP-BG) . 30

    IV.3.4.a Notion de RD (Route Distinguisher) 30

    IV.3.4.b Notion de RT (Route Target) 31

    IV.3.5 Impact des topologies complexes de VPN sur VRF ... 31

    IV.3.6 Transmission des paquets IP . 32

    IV.4 MPLS-QS . 33

    IV.5 Extension MPLS . 35

    IV.6 Conclusion .. 35

    Chapitre V Application

    V.1 Introduction 36

    V.2 Mise en oeuvre de la topologie réseau (la maquette du backbone) 36

    Table des matières

    V.2.1 Mise en place d'un laboratoire virtuel 36

    V2.1.a Logiciel utilisé pour la réalisation 36

    V.2.1.b Logiciel utilisé pour la supervision de la maquette .. 36

    V.2.2 Analyse des propriétés fonctionnelles d'un routeur 37

    V.2.3 Mise en pratique des concepts fondamentaux des réseaux .. 37

    V.2.3.a Plan d'adressage . 37

    V.2.3.b) Configuration de la maquette 38

    V.3 Implémentation d'une VPN . 38

    V.3.1 Configuration de VPN 40

    V.3.2 Vérification de la configuration .. 40

    V.4 Implémentation se service VOIP . 40

    V.4.1 Introduction 40

    V.4.2 TRIXBOX . 40

    V.4 .3 Configuration supplémentaire au VPN 42

    V.4 .4 Vérification de la configuration .. 43

    V.5 Implémentation de MPLS TE 43

    V.5.a Configuration de MPLS TE .. 44

    V.5.b Vérification de la configuration 45

    V.6 Conclusion 48

    CONCLUTION GENERALE 49

    INTRODUCTION GENERALE

    Au cours de ces dernières années, Internet a évolué et a inspiré le développement de nouvelles variétés d'applications. Ces applications ont des besoins garantissant en termes de bande passante et de sécurité de service. En plus des données traditionnelles, Internet doit maintenant transporter voix et données multimédia. Les ressources nécessaires pour ces nouveaux services, en termes de débit et de bande passante, ont entraîné une transformation de l'infrastructure d'Internet. Cette transformation du réseau, d'une infrastructure par paquets à une infrastructure en cellules, a introduit de l'incertitude dans un réseau jusque-là déterministe.

    L'augmentation de la connectivité des réseaux et l'intégration de plusieurs services dans un même système de communication (intégration de voix et données, téléphonie mobile, développements de la téléphonie sur plates-formes IP, etc.) a engendré une croissance significative de la complexité du métier de concepteur d'architectures de réseaux.

    D'une part, sur des aspects de dimensionnement matériel puisque les structures de communication doivent fédérer un nombre croissant de points de raccordement. D'autre part, la convergence des médias où l'on cherche à faire passer sur un méme support physique les données, la voix, la vidéo, entraîne l'ajout de nouveaux équipements.

    Avec l'évolution rapide des technologies de transports à haut débit, il devient évident qu'ATM n'est plus une solution d'avenir pour les coeurs de réseaux IP, d'une part parce qu'il est difficile d'intégrer d'autres technologies dans une signalisation ATM, et d'autre part parce que la taxe de cellule (cell tax) devient prohibitive lorsque le débit augmente et qu'on ne sait plus construire de cartes capables de segmenter et de réassembler des paquets en cellules à la vitesse des liens. MPLS est donc une solution prometteuse parce qu'elle permet d'intégrer très facilement de nouvelles technologies dans un coeur de réseau existant.

    La mise en oeuvre d'un coeur de réseau basé sur une plateforme IP/MPLS est le projet de fin d'étude que nous avons développé dans ce mémoire, qui est axé sur les cinq chapitres suivants :

    le premier chapitre est une introduction aux réseaux de nouvelle génération (NGN) comme un bon exemple de coeur de réseaux basés sur le MPLS.

    Le chapitre suivant décrit les différents coeurs de réseaux existants et les exigences pour évoluer vers une dorsale IP/MPLS

    le troisième chapitre est une présentation des concepts de base de la technologie MPLS et leur mécanisme de fonctionnement

    Le quatrième chapitre décrit les applications de MPLS celui ci sera divise en trois sections, la première section explique les mécanismes de l'ingénierie de trafic basé sur MPLS (MPLSTE) , la deuxième section développe la technologie MPLS-VPN , la troisième section décrit brièvement les paramètres et les modèles de la qualité de service et l'implémentation MPLS-QS

    Dans le cinquième chapitre nous présentons une application pratique dans laquelle nous avons émulé un coeur de réseau utilisant la technologie IP MPLS

    I.1 Introduction

    Depuis de nombreuses années, l'industrie des télécommunications cherche à orienter sa technologie de manière à aider les opérateurs à demeurer compétitifs dans un environnement caractérisé par la concurrence et la déréglementation accrues.

    Les réseaux de la prochaine génération (NGN ou Next Generation Network en anglais), avec leur architecture répartie, exploitent pleinement des technologies de pointe pour offrir de nouveaux services sophistiqués et augmenter les recettes des opérateurs tout en réduisant leurs dépenses d'investissement et leurs coûts d'exploitation.

    L'évolution d'un réseau existant vers cette nouvelle structure nécessitera une stratégie de migration progressive visant à réduire au minimum les dépenses d'investissement pendant la phase de transition, tout en tirant parti très tôt des avantages qu'elle présente. Toute démarche entreprise lors de cette étape de transition devra simplifier l'évolution du réseau vers l'architecture NGN à commutation de paquets. Pendant plusieurs années encore, les

    Services de commutation traditionnels vont devoir coexister avec des éléments de réseau mettant en oeuvre de nouvelles technologies.

    I.2 Définition du NGN

    "Next Generation Network" ou "NGN" (littéralement "Réseau de Nouvelle Génération") est une expression fréquemment employée dans l'industrie des télécommunications, notamment depuis le début des années 1990. Il n'existe pas de définition unique. Le sens varie en fonction du contexte et du domaine d'application. Toutefois, le terme désigne le plus souvent le réseau d'une compagnie de télécommunications dont l'architecture repose sur un plan de transfert en mode paquet, capable de se substituer au réseau téléphonique commuté et aux autres réseaux traditionnels. L'opérateur dispose d'un coeur de réseau unique qui lui permet de fournir aux abonnés de multiples services (voix, données, contenus audiovisuels...) sur différentes technologies d'accès fixes et mobiles. Autrement, "NGN" est également utilisé très souvent à des fins marketings par les opérateurs et les fabricants pour rendre compte de la nouveauté d'un réseau ou d'un équipement de réseau.

    I-3 Les exigences de tourner vers NGN

    Depuis quelques années, les laboratoires des constructeurs et les organismes de standardisation se penchent sur une nouvelle architecture réseau les Next Generation Networks (NGN) pour répondre aux exigences suivantes :

    · Les réseaux de télécommunication sont spécialisés et structurés avant tout pour la téléphonie fixe ;

    · Le développement de nouveaux services: évolution des usages du réseau d'accès fixe et l'arrivée du haut débit ;

    · La migration des réseaux mobiles vers les données.

    · Difficulté à gérer des technologies multiples (SONET, ATM, TDM, IF) Seul un vrai système intégré peut maîtriser toutes ces technologies reposant sur la voix ou le monde des données ;

    · Prévision d'une progression lente du trafic voix et au contraire une progression exponentielle du volume de données => baisse de la rentabilité des opérateurs si pas d'évolution.

    I.4 Caractéristiques du réseau NGN

    I.4.1 Une nouvelle génération de commutation

    Figure I.1: Caractéristiques du réseau NGN

    Les solutions de commutation de nouvelle génération fournissent une gamme complète de la catégorie de commutation, voix over IF adaptée aux besoins des abonnés complétées par des applications convergées de voix/données pour établir un réseau de nouvelle génération (une commutation par paquets).

    I.4.2 Une nouvelle génération de réseaux optiques

    Les solutions de système optique de nouvelle génération rassemblent les deux réseaux optiques existants y compris celui du multiplexage DWDM et les réseaux optiques SDH. Avec la nouvelle génération de systèmes optiques, des réseaux IF optimisés peuvent être établis. Les fonctions de données et Ethernet sont ajoutées aux dispositifs classiques de transport.

    I.4.3 Une nouvelle génération de type d'acc~s

    Les solutions d'accès de nouvelle génération combinent des concepts prouvés de l'accès des équipements existants ajouté à une architecture modulaire commune avec différentes qualités: voix-centralisée, donnée-centralisée et multiservice.

    I.4.4 Une nouvelle génération de gestion

    Des solutions de gestion de réseau de nouvelle génération sont optimisées pour la gestion des alarmes, gestion de configuration et d'exécution et de sécurité des modules du réseau NGN. Basé sur un concept modulaire de gestion d'élément et de domaine de gestion et d'applications, le réseau NGN supporte pleinement les opérations d'exploitation, d'administration et de maintenance (OA&M), la configuration de réseau et l'approvisionnement de service comprenant un déploiement de masse. Ayant des interfaces ouvertes pour une intégration facile.

    I.5 ARCHITECTURE EN COUCHES

    Les réseaux NGN reposent sur une architecture en couches indépendantes (transport, contrôle, services) communiquant via des interfaces ouvertes et normalisées. Les services doivent être évolutifs et accessibles indépendamment du réseau d'accès utiisé.

    I.5.1 Couche transport :

    Cette couche se divise en deux sous-couches

    1' La couche accès regroupe les fonctions et équipements permettant de gérer l'accès des équipements utilisateurs au réseau, selon la technologie d'accès ;

    1' La couche transit est responsable de l'acheminement du trafic voix ou données dans le coeur de réseau IP, selon le protocole utiisé. L'équipement important à ce niveau dans une architecture NGN est le « Media Gateway » (MGW) responsable de l'adaptation des protocoles de transport aux différents types de réseaux physiques disponibles (RTC, IP, ATM, ...).

    I.5.2 Couche contrôle

    Cette couche gère l'ensemble des fonctions de contrôle des services en général, et de contrôle d'appel en particulier pour le service voix. L'équipement important à ce niveau dans une architecture NGN est le serveur d'appel, plus communément appelé «softswitch », qui fournit, dans le cas de services vocaux, l'équivalent de la fonction de commutation.

    I.5.3 Couche service

    L'ensemble des fonctions permettant la fourniture de services dans un réseau NGN. En termes d'équipements, Cette couche regroupe deux types d'équipement les serveurs d'application (ou application servers) et les « enablers », qui sont des fonctionnalités, comme la gestion de l'information de présence de l'utilisateur, susceptibles d'être utilisées par plusieurs applications. Cette couche inclut généralement des serveurs d'application SIP (Session Initiation Protocol), car il est utilisé dans une architecture NGN pour gérer des sessions multimédias en général, et des services de voix sur IP en particulier.

    Ces couches sont indépendantes et communiquent entre elles via des interfaces ouvertes. Cette structure en couches est sensée garantir une meilleure flexibilité et une implémentation de nouveaux services plus efficace. La mise en place d'interfaces ouvertes facilite l'intégration de nouveaux services développés sur un réseau d'opérateur mais peut aussi s'avérer essentielle pour assurer l'interconnexion d'un réseau NGN avec d'autres réseaux qu'ils soient NGN ou traditionnels. L'impact majeur pour les réseaux de téléphonie commutée traditionnels est que le commutateur traditionnel est scindé en deux éléments logiques distincts : le media Gateway pour assurer le transport et le softswitch pour assurer le contrôle d'appel. Une fois les communications téléphoniques « empaquetées » grâce aux media Gateway, il n'y a plus de dépendance des services vis-à-vis des caractéristiques physiques du réseau. Un coeur de réseau paquet unique, partagé par plusieurs réseaux d'accès constitue alors une perspective attrayante pour des opérateurs. Bien souvent, le choix se porte sur un coeur de réseau IP/MPLS commun au niveau de la couche de transport du NGN afin de conférer au réseau IP les mécanismes de qualité de service suffisants pour assurer une fourniture de services adéquate.

    Cette architecture est illustrée par la figure ci-dessous :

    Figure I.2 Architecture NGN

    I.6 Principaux équipements du réseau NGN

    I.6.1 Softswitch

    Dans une infrastructure NGN, un softswitch n'est autre qu'un serveur informatique, doté d'un logiciel de traitement des appels vocaux. Le trafic voix est en général paquetisé par le media Gateway, et pris en charge par les routeurs de paquets du réseau de l'opérateur. Un softswitch va identifier les paquets voix, analyser leur contenu pour détecter le numéro vers lequel ils sont destinés, confronter ces numéros avec une table de routage (qui indique ce que le softswitch doit faire en fonction de chaque numéro), puis exécuter une tâche (par exemple transmettre ou terminer).

    I.6.2 Media Gateway

    Les media Gateway constituent le deuxième élément essentiel déployé dans un réseau NGN. Un media Gateway peut par exemple se positionner entre le réseau de commutation circuit et le réseau de commutation de paquets. Dans ce cas, les media Gateway transforment le trafic circuit TDM en paquets, la plupart du temps IF, pour que ce trafic puisse ensuite être géré par le réseau NGN.

    I.7 Conclusion

    Dans ce chapitre nous avons introduit les NGN et présenté l'intérêt de leur mise en ouvre, caractéristiques et hiérarchie.

    Dans le chapitre suivant on va décrire comment se fait l'évolution d'un coeur de réseau

    II-1 Introduction

    Les techniques employees et utilisées dans les coeurs de reseaux et les reseaux backbone ont subi une grande evolution jusqu' à l'arrivée de la normalisation du protocole MPLS et leur developpement. Dans ce chapitre nous allons decrire quelques technologies, leurs limites et developpements, par la suite nous allons citer les etapes de l'évolution de standards MPLS.

    II-2 Frame Relay et X25 II-2.a le protocole X25

    A la fin des annees 1970 et au debut des annees 1990, la technologie des reseaux etendus reliant deux sites utilisait generalement le protocole X.25. Bien que considere actuellement comme un protocole d'ancienne génération, le X.25 a été une technologie de commutation de paquets très répandue car elle permettait d'obtenir une connexion très fiable sur des infrastructures câblees non fiables. Ce resultat etait obtenu grâce à des contrôles de flux et d'erreur supplémentaires. Ces contrôles alourdissaient cependant le protocole. Celui-ci trouvait son application principale dans le traitement des autorisations de carte de credit et dans les guichets automatiques. Dans cette partie de chapitre, nous ne citons le protocole X.25 qu'à des fins historiques.

    II-2.b le protocole Frame Relay

    Lorsqu'on construit un réseau etendu, quel que soit le mode de transport choisi, deux sites sont toujours relies par un minimum de trois composants ou groupes de composants de base. Chaque site doit avoir son propre equipement (ETTD) pour acceder au central telephonique local (DCE). Le troisième composant se trouve entre les deux, reliant les deux points d'accès. Dans la figure, il s'agit de la partie fournie par le réseau fédérateur Frame Relay.

    Figure II-1 réseau étendu frame Relay

    Le protocole Frame Relay demande moins de temps de traitement que le X.25, du fait qu'il comporte moins de fonctionnalités. Par exemple, il ne fournit pas de correction d'erreur, car les réseaux étendus actuels permettent d'obtenir des connexions plus fiables que les anciens. Lorsqu'il détecte des erreurs, le noeud Frame Relay abandonne tout simplement les paquets sans notification. Toute correction d'erreur, telle que la retransmission des données, est à la charge des composants d'extrémité. La propagation des données d'une extremite client à une autre est donc très rapide sur le reseau.

    Frame Relay permet un traitement efficace en volume et en vitesse, en reunissant les fonctions des couches liaison de donnees et reseau en un seul protocole simple. En tant que protocole de liaison de données, Frame Relay permet d'accéder à un réseau, il délimite et fournit les trames dans l'ordre approprié et détecte les erreurs de transmission par un contrôle de redondance cyclique standard. En tant que protocole de reseau, il fournit plusieurs liaisons logiques sur un même circuit physique et permet au reseau d'acheminer les données sur ces liaisons jusqu'à leurs destinations respectives.

    Le protocole Frame Relay intervient entre un périphérique d'utilisateur final, tel qu'un pont ou un routeur de reseau local, et un reseau. Le reseau proprement dit peut utiliser n'importe quelle méthode de transmission compatible avec la vitesse et l'efficacité requises par les applications Frame Relay. Certains reseaux fonctionnent avec le protocole Frame Relay lui-mrme, d'autres utilisent autres technique qui peut être MPLS.

    Le protocole Frame Relay demande moins de temps de traitement que le X.25, du fait qu'il comporte moins de fonctionnalités. Par exemple, il ne fournit pas de correction d'erreur, car les réseaux étendus actuels permettent d'obtenir des connexions plus fiablesD que les anciens. Lorsqu'il détecte des erreurs, le noeud Frame Relay abandonne tout simplement les paquets sans notification. Toute correction d'erreur, telle que la retransmission des données, est à la charge des composants d'extrémité. La propagation des données d'une extrémité client à une autre est donc très rapide sur le réseau.

    II-3 Migration d'ATM et IP/ATM vers la MPLS II-3-a ATM

    La technologie ATM a ete adoptee par l'Union Internationale des Telecommunications (UIT) a la fin des annees 80 pour repondre a la demande des operateurs de telecommunication d'un « Reseau Numerique à Integration de Service Large Bande » unifiant dans un même protocole leurs mecanismes de transport des donnees, d'images et surtout de la voix, et garantissant la qualite de service. Les mecanismes propres aux donnees ont ensuite ete affines par l'ATM Forum pour être utilisables dans les reseaux locaux et les reseaux longue distance lorsque les debits excedent 34 ou 43 Mbit/s en inserant ATM entre IP et SDH.

    II-3-b IP/ATM

    IP sur ATM est l'approche privilegiee dans les reseaux IP operationnels aux Etats-Unis entre 1994 et 1998 pour des debits de 155 puis 622 Mbit/s.

    C'est sur des previsions qui, a l'epoque, voyaient dans l'augmentation du trafic telephonique la source principale de croissance que se sont bases les operateurs existants de telecommunication, aux Etats-Unis et surtout en Europe, pour investir massivement dans ATM comme technologie de leurs reseaux a 155 Mbit/s a partir de la première moitie des annees 90. Malheureusement, si ATM est approprie lorsque le trafic est constitue majoritairement de voix, il est inadapte lorsque le trafic est majoritairement

    constitue de données, ce qui est et sera de plus en plus le cas avec l'explosion du trafic lie a l'Internet.

    Une opportunité stratégique apparait, favorable aux operateurs émergents qui s'appuient sur une unification autour de IP, répute plus adaptes au transport de données. Les operateurs historiques se trouvent pris en porte-à-faux par des investissements élèves et des offres inadaptées.

    Pour adjoindre - récemment - a IP les mécanismes propres a garantir la qualité de service, les ingénieurs et les chercheurs définissent a l'IETF des mécanismes internes au réseau, tels que réservation de ressources ou contrôle adaptatif dans le protocole TCP, dans les applications de diffusion et dans les routeurs d'extrémité.

    Dans le même temps, l'augmentation des fonctionnalités de commutation réalisables directement de manière optique conduira a terme IP a être le protocole unique, soit directement sur fibre optique a 40 Gbit/s et au delà, soit sur de multiples sous canaux (WDM) a des débits binaires moins élèves (2,5 et 10 Gbit/s).

    II-3-c Convergence vers MPLS

    Avant l'apparition de la MPLS et des routeurs au débit du support physique, la réponse au problème des performances de routage des réseaux de routeurs consistait à superposer les réseaux IP aux réseaux ATM, ce qui créait une topologie virtuelle dans la couche ATM, dans laquelle tous les routeurs devenaient adjacents, et réduisant ainsi au minimum le nombre de sauts IP entre les routeurs.

    Toutefois, cette superposition IP/ATM présentait un inconvénient majeur : la nécessité de gérer l'explosion du nombre de connexions de circuit virtuel ATM nécessaires pour assurer un maillage complet des liaisons virtuelles entre les paires de routeurs. En effet, le nombre de circuits virtuels ATM nécessaires augmente comme le carré du nombre de routeurs connectés au nuage ATM.

    Le pire fut atteint lorsque les réseaux IP eurent besoin d'augmenter leur bande passante ce que les réseaux ATM ne pouvaient leur fournir ; il leur fallait des circuits à gigabits, alors que les circuits ATM étaient limités à des débits OC-12/STM-4 en raison des équipements.

    Avec le remplacement progressif des réseaux IP par les réseaux IP/MPLS, les

    meilleures techniques des réseaux de routage et de commutation se trouvent réunies. Les
    réseaux IP/MPLS sont capables de s'adapter aux besoins de forte croissance de l'internet,

    et de prendre la place de l'ATM en faisant face aux très grandes exigences du trafic professionnel.

    De plus, les réseaux IP/MPLS sont prêts pour la convergence des données, de la voix et de la vidéo sur IP. Il n'est donc pas surprenant que l'IP/MPLS soit considéré par la

    majorité des opérateurs de réseau comme le réseau cible à long terme.

    II-4 Développement de la MPLS

    Le mécanisme de recherche dans la table de routage est consommateur de temps CPU et avec la croissance de la taille des réseaux ces dernières années, les tables de routage des routeurs ont constamment augmenté. Il était donc nécessaire de trouver une méthode plus efficace pour le routage des paquets, et nous avons vu, précéde mment que le

    Chapitre II

    LES COEURS DE RESEAUX

     
     

    débit d'information n'avait de cesse d'augmenter ces dernières années. II a donc fallu mettre en place des protocoles d'acheminement des données pouvant supporter d tels débits.

    C'est pour cela que plusieurs techniques réseaux dont le rôle principal sont de combiner les concepts de routage IP de niveau trois, et les mécanismes de commutation de niveau deux ont été normalises par I' IETF comme la MPLS.

    L'Internet Engineering Task Force (IETF) a créé le groupe de travail MPLS en mars 1997 pour définir une approche normative de la commutation d'étiquettes. Dans l'attente de normes, les mises en oeuvre de cette technologie, comme la commutation IP la commutation de marqueurs de flux, la commutation IP avec agrégation de routes (ARIS) et le routeur à commutation de cellules (CSR), cherchaient à améliorer les performances de transfert des réseaux à routeurs IP. C'était nécessaire car la détermination du saut suivant sur la base de la recherche du plus long préfixe commun dans une table de transfert toujours plus volumineuse ne pouvait suivre l'augmentation des débits de support physique, tandis que la commutation d'étiquettes pouvait se faire sans dégradation des performances.

    En regardant le graphique ci-dessous, des services tels que l'ATM et relais de trame, qui pourrait être décrit comme les protocoles existants, sont maintenant en déclin terminal. Toutefois, IP sur MPLS et Ethernet. Le point à noter cependant, c'est que l'on pourrait considérer que la croissance MPLS a mûri tout en Ethernet est toujours en forte croissance.

    Figure II-2 : croissance de trafic par protocole

    Comme un bon exemple de développement MPLS, la figure suivante résume L'évolution de l'Internet :

    Figure II-3 évolution des techniques employés dans l'internet

    Le développement de standard MPLS est passé par les étapes suivantes :

    ü 1ère etape Normalisation de la MPLS (Multi Protocol Label Switching) Basé sur le trafic IP ;

    ü 2ème étape Ajout du service «Traffic Engineering» (MPLS-TE) ;

    ü 3ème Etape :

    Développement de MPëS (Multi Protocol Lambda Switching) Basé sur les longueurs d'ondes et ajout d'un nouveau protocole, LMP (Link Management Protocol) pour la gestion des liens et des erreurs ;

    ü 4ème etape: GMPLS (Generalized MPLS)

    Extension de MPLS-TE qui permet aux LSR de supporter Plusieurs types de commutation, Paquets, TDM (SDH/SONET), Lambdas, Fibres ect..., généralisation de la définition d'un label , ajout de la signalisation via le protocole RSVP-TE ,et amélioration des protocoles de routage pour décrire la topologie du réseau : OSPF et IS-IS.

    II-5 Conclusion

    Le but de MPLS est de donner aux routeurs IP une plus grande puissance de commutation, en basant la décision de routage sur une information de label (ou tag) inséré entre le niveau 2 (Data-Link Layer) et le niveau 3 (Network Layer).

    La transmission des paquets était ainsi réalisée en commutant les paquets en fonction du label, sans avoir à consulter l'ent~te de niveau 3 et la table de routage. Alors, MPLS combinait la souplesse du niveau 3 et la rapidité du niveau 2 .

    Dans le chapitre suivant nous allons développer le protocole MPLS, leur concept et mécanisme.

    III.1 Introduction

    A la fin de l'année 2001, MPLS (Multi Protocol Label Switching) est le sujet d'un grand nombre d'articles et de conférences, mais il est aussi l'objet d'un nombre croissant d'annonces de la part des constructeurs de matériel réseau. À l'heure où les premiers services commerciaux s'appuyant sur un coeur de réseau MPLS/IP apparaissent, l'intérêt de la technologie semble démontré par leur bon fonctionnement. Il reste nécessaire de bien comprendre MPLS pour être capable de faire la part des choses. C'est pourquoi, au-delà des effets de mode, les motivations ayant présidé à la définition de MPLS et les réels apports de MPLS et des technologies associées dans les coeurs de réseaux modernes doivent être compris.

    Le but de ce chapitre est de présenter les principaux éléments de l'architecture Multi Protocol Label Switching, (MPLS) et les mécanises de fonctionnent que l'on peut traduire par « commutation d'étiquettes multiprotocolaire »

    III.2 PRINCIPES ET CONCEPTS DE MPLS III.2.1 Architecture de MPLS

    L'architecture du réseau MPLS utilise des LSR (Label Switch Router) et des LER (Label Edge Router):

    III.2.1.a LSR (Label Switch Router)

    Le LSR est un équipement de type routeur, ou commutateur qui appartient au domaine MPLS dont Les fonctions sont :

    · l'échange d'informations de routage ;

    · l'échange des labels ;

    · l'acheminement des paquets.

    III.2.1.b LER (Label Edge Router)

    LER est un LSR qui fait l'interface entre un domaine MPLS et le monde extérieur. En général, une partie de ses interfaces supportent le protocole MPLS et l'autre un protocole de type IP. Les deux types de LER qui existent sont :

    · Ingress LER est un routeur qui gère le trafic qui entre dans un réseau MPLS ;

    · Egress LER 'est un routeur qui gère le trafic qui sort d'un réseau MPLS.

    La figure ci-dessous représenté l'architecture du réseau MPLS

    Figure III.1 : Architecture MPLS
    III.2.2 Principe de fonctionnement de MPLS

    La mise en oeuvre de MPLS repose sur la détermination de caractéristiques communes à un ensemble de paquets et dont dépendra l'acheminement de ces derniers. Cette notion de caractéristiques communes est appelée Forwarding Equivalence Class (FEC). Une FEC est la représentation d'un ensemble de paquets qui sont transmis de la même manière , qui suivent le même chemin au sein du réseau et ayant la même priorité.

    MPLS constitue les FEC selon de nombreux critères : adresse destination, adresse source, application, QoS, etc.

    Quand un paquet IP arrive à un ingress LER, il sera associé à une FEC. Puis, exactement comme dans le cas d'un routage IP classique, un protocole de routage sera mis en oeuvre pour découvrir un chemin jusqu'à l'egress LER (Voir Figure III.2 , les flèches rouges). Mais à la différence d'un routage IP classique cette opération ne se réalise qu'une seule fois. Ensuite, tous les paquets appartenant à la même FEC seront acheminés suivant ce chemin qu'on appellera Label Switched Path (LSP). Un LSP est le chemin établi au travers d'un ou plusieurs LSRs pour rejoindre plusieurs LERs au sein d'un réseau MPLS, configuré uniquement via le mécanisme des labels, pour une FEC particulière. Il peut être établi statiquement ou dynamiquement.

    Ainsi on a eu la séparation entre fonction de routage et fonction de commutation : Le routage se fait uniquement à la première étape. Ensuite tous les paquets appartenant à la même FEC subiront une commutation simple à travers ce chemin découvert.

    Pour que les LSR puissent commuter correctement les paquets, le Ingress LER affecte une étiquette appelée Label à ces paquets (label imposition ou label pushing). Ainsi, si on prend l'exemple de la figure III.2 , Le LSR1 saura en consultant sa table de commutation que tout paquet entrant ayant le label L=18 appartient à la FEC tel et donc doit être commuté sur une sortie tel en lui attribuant un nouveau label L=21 (label swapping). Cette opération de commutation sera exécuter par tous les LSR du LSP jusqu'à aboutir à l'Egress LER qui supprimera le label (label popping ou label disposition) et routera le paquet de nouveau dans le monde IP de façon traditionnelle, mais Comme les opérations de routage sont complexes et coûteuses, il est recommandé d'effectuer l'opération de dépilement sur le dernier LSR (Penultimate node) du LSP (avant-dernier noeud du LSP avant le LER) pour éviter de surcharger le LER inutilement.

    Un Penultimate node est le routeur immédiat précédent le routeur LER de sortie pour un LSP donné au sein d'un réseau MPLS. C'est l'avant denier saut sur un LSP. Il joue un rôle particulier pour l'optimisation.

    L'acheminement des paquets dans le domaine MPLS ne se fait donc pas à base d'adresse IP mais de label (commutation de label).

    Il est claire qu'après la découverte de chemin (par le protocole de routage), il faut mettre en oeuvre un protocole qui permet de distribuer les labels entre les LSR pour que ces derniers puissent constituer leurs tables de commutation et ainsi exécuter la commutation de label adéquate à chaque paquet entrant. Cette tâche est effectuée par "un protocole de distribution de label " tel que LDP (Label Distribution Protocol) ou RSVP-TE (ReSerVation Protocol-Traffic Engineering).

    Les trois opérations fondamentales sur les labels (Pushing, swapping et popping) sont tout ce qui est nécessaire pour MPLS. Le Label pushing/popping peut être le résultat d'une classification en FEC aussi complexe qu'on veut. Ainsi on aura placé toute la complexité aux extrémités du réseau MPLS alors que le coeur du réseau exécutera seulement la fonction simple de label swapping en consultant la table de commutation.

    La figure ci-dessous représenté la fonction du réseau MPLS

    Figure III.2 Commutation d'étiquettes dans MPLS

    III.2.3 Structure fonctionnelle MPLS

    Le protocole MPLS est fondé sur les deux plans principaux :

    III.2.3.a Le plan de contrôle : contrôle les informations de routages de niveau 3 grâce à des protocoles tels que (OSPF, IS-IS ou BGP) et les labels grâce à des protocoles comme (LDP : Label Distribution Protocol), BGP (utilisé par MPLS VPN) ou RSVP (utilisé par MPLS TE)) échangés entre les périphériques adjacents.

    III.2.3.b Le plan de données : est indépendant des algorithmes de routages et d'échanges de label Utilisation d'une base appelée Label Forwarding Information Base (LFIB) pour forwarder les paquets avec les bons labels, Cette base est remplie par les protocoles d'échange de label.

    Exemple

    1' Réception du label 17 pour les paquets à destination du 10.0.0.0/8

    1' Génération d'un label 24 pour ces paquets et expédition de l'information aux autres routeurs

    1' Insertion de l'information dans la LFIB

    Figure III.3 : structure fonctionnelle du routeur MPLS III.2.4 STRUCTURES DE DONNEES DES LABELS

    Le protocole MPLS utilise les trois structures de données LIB, LFIB et FIB pour acheminer les paquets :

    III.2.4.a LIB (Label Information Base)

    C'est La première table construite par le routeur MPLS est la table LIB. Elle contient pour chaque sous-réseau IP la liste des labels affectés par les LSR voisins. Il est possible de connaître les labels affectés à un sous-réseau par chaque LSR voisin et donc elle contient tous les chemins possibles pour atteindre la destination ;

    III.2.4.b LFIB (Label Forwarding Information Base)

    A partir de la table LIB et de la table de routage IP, le routeur construit une table LFIB qui contient que les labels du meilleur prochain saut qui sera utilisée pour commuter les paquets labelisé ;

    III.2.4.c FIB (Forwarding Information Base)

    Appartient au plan de donnée, c'est la base de donnée utilisé pour acheminer les paquets non labelisé.

    III.2.5 Construction des structures de données

    La construction des structures de données effectuées par chaque routeur LSR doivent suivre les étapes suivantes :

    v' élaboration des tables de routages par les protocoles de routage ;

    '' allocation indépendamment d'un label à chaque destination dans sa table de routage par le LSR ;

    v' enregistrement dans la LIB des labels alloués ayant une signification locale,

    v' enregistrement dans la table « LFIB » avec l'action à effectuer de ces labels et leur prochain saut sont ;

    v' Envoi par le LSR les informations sur sa « LIB » à ces voisins ;

    v' enregistrement par chaque LSR des informations reçues dans sa « LIB » ; v' Enregistrement des informations reçues des prochains sauts dans la « FIB ».

    Figure III.4Utilisation des structures de données pour l'acheminement

    III.3 Paradigme Be La Commutation Bans MPLS

    Un LSR peut effectuer l'un des trois scénarios d'acheminement d'un paquet :

    · Le paquet arrivant à l'entrée du domaine MPLS (I-LSR) ne contient que les adresses IP, l'acheminement est basé sur la table FIB en ajoutant « Push »un Label. ;

    · Le paquet arrivant a la sortie du domaine MPLS (E-LSR) contient que des adresses IP, l'acheminement est basé sur la FIB sans l'utilisation d'un label (routage IP) ;

    · Le paquet arrivant contient un label, dans ce cas l'acheminement sera basé sur la table LFIB et le label sera échangé (Swapping).

    La figure ci-dessous représenté le Paradigme de commutation dans MPLS

    Figure III.5 Paradigme de commutation dans MPLS

    III.4 Les labels

    III.4.1 L'encapsulation Label MPLS dans différentes technologies

    Le protocole MPLS, basé sur le paradigme de changement de label, dérive directement de l'expérience acquise avec l'ATM (étiquettes VPI/VCI). Ce mécanisme est aussi similaire à celui de Frame Relay ou de liaisons PPP. L'idée de MPLS est de rajouter un label de couche 2 aux paquets IP dans les routeurs frontières d'entrée du réseau.

    Figure III.6 L'encapsulation MPLS dans différentes technologies

    III.4.2 I 'I1têtI MPLS

    L'entête MPLS se situe entre les entétes des couches 2 et 3, où l'entête de la couche 2 est celle du protocole de liaison et celle de la couche 3 est l'entête IP. L'entête est composé de quatre champs:

    v' Le champ Label (20 bits).

    v' Le champ Exp ou CoS (3 bits) pour la classe de service (Class of Service). 1' Un bit Stack pour supporter un label hiérarchique (empilement de labels). v' Et un champ TTL (Time To Live) pour limiter la durée de vie du paquet (8

    bits). Ce champ TTL est le même que pour IP.

    Figure III.7 : Figure Entête MPLS III.4.3 Pile de labels (Label Stack)

    Comme on l'a déjà évoqué, il est commun d'avoir plus qu'un label attaché à un paquet. Ce concept s'appelle empilement de label. L'empilement de label permet en particulier d'associer plusieurs contrats de service à un flux au cours de sa traversée du réseau MPLS.

    Les LSR de frontière de réseau auront donc la responsabilité de pousser ou tirer la pile de labels pour désigner le niveau d'utilisation courant de label.

    Les applications suivantes l'exigent :

    v' MPLS VPN : MP-BGP (MultiProtocol Border Gateway Protocol) est utilisé pour propagé un label secondaire en addition à celui propagé par TDP ou LDP ;

    " MPLS TE : MPLS TE utilise RSVP TE (Ressource Reservation Protocol TE) pour établir un tunnel LSP (Label Switched Path). RSVP TE propage aussi un label en addition de celui propagé par TDP ou LDP.

    Figure III.8 : pile de labels

    Le champ STACK permet d'identifier le classement du label dans la pile, s'il est égal à 1 alors il s'agit du dernier label avant l'entête IP.

    Figure III.9 : Exemple d'utilisation du champ STACK III.5 Distribution des labels

    Les LSR se basent sur l'information de label pour commuter les paquets au travers du coeur de réseau MPLS. Chaque routeur, lorsqu'il reçoit un paquet taggué, utilise le label pour déterminer l'interface et le label de sortie. Il est donc nécessaire de propager les informations sur ces labels à tous les LSR. Pour cela, suivant le type d'architecture utilisée, différents protocoles sont employés pour l'échange de labels entre LSR ; en voici quelques exemples :

    1' TDP/LDP (Tag/Label Distribution Protocol) : mapping des adresses IP unicast ;

    1' CR-LDP, RSVP-TE : utilisés en Traffic Engineering pour établir des LSP en fonction de critères de ressources et d'utilisation des liens ;

    1' MP-BGP (MultiProtocol Border Gateway Protocol) pour l'échange de routes VPN.

    Chaque paquet MPLS est susceptible de transporter plusieurs labels, formant ainsi une pile de labels, qui sont empilés et dépilés par les LSR. Cela permet entre autre d'interconnecter plusieurs réseaux, chacun possédant son propre mécanisme de distribution des labels.

    Lorsqu'un LSR commute un paquet, seul le premier label est traité. Cette possibilité d'empiler des labels, désignée sous le terme de Label Stacking, est aussi utilisée par le Traffic Engineering et MPLS / VPN.

    III.5.1 Le protocole LDP

    Le protocole LDP est un protocole de signalisation (plus précisément, de distribution des labels) héritier du protocole propriétaire TDP (Tag Distribution Protocol). Pour en décrire le fonctionnement, rappelons la notion de l'arbre de plus court chemin : pour un préfixe d'adresse, le protocole de routage classique définit implicitement un arbre de plus court chemin, arbre ayant pour racine le LSR de sortie (celui qui a annoncé le préfixe) et pour feuilles les différents routeurs d'entrée. Le routeur de sortie va annoncer le préfixe à ses voisins, tout y en associant un label. Les messages de signalisation vont «monter>> jusqu'aux routeurs d'entrée, permettant a chaque LSR intermédiaire d'associer un label au préfixe. Pourtant ce protocole (par ailleurs raisonnablement simple) présente deux grandes limitations:

    ü Lsp contraintes posées par le protocole de routage

    Les Lsp établis par le protocole LDPsont contraints par le protocole de routage, car il est impossible de spécifier des routes autres que celles définies par le protocole de routage.

    ü Impossibilité de réaliser une réservation de ressources

    le protocole n'a aucun moyen de spécifier des Paramètres pour l'agrégat de trafic a acheminer sur le LSP.

    Figure III.10 ' MMIDANnEdVIIIDeMs EviaE ' 3

    Dans le chapitre suivant nous allons étudier les deux protocoles qui répondent aux limitations du protocole LDP : CR-LDP, et le protocole RSVP-TE.

    III .5 Conclusion

    Dans ce chapitre, nous avons présenté le mécanise de fonctionnent de l'architecture MPLS, ses éléments les plus importants (LSR, LSP, FEC,..), leurs déférents rôles, et les structure de fonctionnement de la MPLS. Dans les chapitres suivants, nous allons voir les applications de la MPLS

    IV.1 INTRODUCTION

    Les principaux atouts de la technologie MPLS concernent sa capacité à intégrer des solutions de gestion de la qualité de service et d'ingénierie de trafic sur un réseau IP. En effet, les opérateurs ont besoin de contrôler leur réseau plus finement que ce que leur permet le routage IP classique, sans pour autant abandonner la souplesse qu'il apporte. Du fait qu'un chemin virtuel est créé pour transporter les paquets IP, MPLS est un candidat idéal pour supporter des fonctions évoluées d'ingénierie de trafic et ajouter des fonctionnalités de gestion de la qualité de service dans les coeurs de réseau. De plus, MPLS permet de déployer des fonctions évoluées en reportant la complexité de mise en oeuvre aux frontières du réseau et en conservant de bonnes propriétés de résistance au facteur d'échelle.

    IV.2 Ingénierie de trafic

    Les application de La convergence des réseaux multiservices, qui transportent le trafic Internet, VoIP (Voice/Video over IP), IP TV, vidéo à la demande et le trafic VPN, nécessite une optimisation de l'utilisation des ressources pour limiter les coûts d'investissement, une garantie stricte de la qualité de service (QoS) et une disponibilité élevée. A tous ces besoins s'ajoute le besoin de limiter les coûts d'exploitation. Par conséquent, des mécanismes de trafic s'avèrent nécessaires pour répondre à tous ces besoins. On appelle ingénierie de trafic l'ensemble des fonctions permettant de contrôler l'acheminement du trafic dans le réseau afin d'optimiser l'utilisation des ressources et de réduire les risques de congestion tout en garantissant la QoS.

    Dans cette section, nous introduisons l'ingénierie de trafic dans les réseaux IP. Ensuite, nous détaillons l'application de la technologie MPLS à l'ingénierie de trafic. Ceci inclura la présentation du mécanisme MPLS-TE, du routage par contrainte MPLS-TE et de quelques options qui se présentent lors de la conception d'un réseau MPLS-TE.

    IV.2.1 Ingénierie de trafic sans MPLS

    Il existe plusieurs méthodes d'ingénierie de trafic dans les réseaux IP. Une solution consiste à manipuler les métriques des protocoles de routage IP. En effet, le routage IP repose sur le plus court chemin vers une destination donnée. Tout le trafic vers une même destination ou un même point de sortie du réseau emprunte le même chemin. Il arrive que le chemin IP soit congestionné alors que des chemins alternatifs sont sous- utilisés. L'ingénierie de trafic avec IP (IP-TE) représente une solution pour dépasser les limitations du routage IP. Elle calcule un ensemble de chemins pour répondre aux demandes de la matrice de trafic sans saturer les liens, et calcule des métriques pour satisfaire ces chemins. Ensuite, un partage de charge offert par le protocole de routage peut être utilisé pour permettre à un routeur de partager équitablement la charge entre tous les chemins de coût égal.

    Un routage optimal (selon un critère d'optimisation donné) nécessite la détermination des coûts sur chaque lien qui répondent au critère d'optimisation. Un large ensemble de solutions a été proposé pour l'IP-TE .Toutes ces solutions consistent à optimiser les poids des liens utilisés par la suite par le protocole de routage. Cette ingénierie de trafic basée sur l'optimisation des métriques IP peut bien fonctionner uniquement sur des petites topologies avec un faible nombre de routeurs d'accès. Changer les coûts des liens sur tous les chemins pour une grande topologie reste très difficile à mettre en oeuvre tenant compte des risques d'instabilité, des problèmes de convergence IGP et des problèmes liés aux boucles de routage. A fin de gérer l'aspect dynamique du réseau, ont proposé des ont considéré dans leur solution des cas de panne solutions qui prennent en compte les scénarios de cas de panne dans le

    réseau. Les qui peuvent se produire et également le changement de la matrice de trafic. Cette solution simule des cas de changement périodique du trafic qui se produisent pendant un jour. Pour cela, elle se base sur quelques matrices représentatives de ces changements journaliers pour couvrir toutes les matrices de trafic possibles. Les auteurs ont montré que l'adaptation à ces changements ne nécessite pas un grand nombre de coûts de liens à changer.

    Cette solution reste limitée car un changement brusque de la matrice de trafic, dû par exemple à une catastrophe naturelle (par exemple un séisme) ou à un événement à l'échelle nationale (par exemple résultats du baccalauréat ou fêtes de fin d'année), ainsi que les cas de pannes multiples, restent difficiles à prédire.

    Aussi les solutions d'IP-TE ne s'appliquent généralement pas lorsque l'on a des chemins de capacités différentes. En effet, les routeurs ne sont pas capables de faire un partage de charge tenant compte de la capacité des liens.

    La figure. IV.1 montre un exemple où les routages IP, IP-TE et MPLS-TE sont appliqués. La figure IV.1(a) représente un réseau comportant 9 noeuds et 9 liens bidirectionnels.

    Les liens sont caractérisés par leurs métriques IP (égales à 1) et leurs capacités en Mbit/s (égales à 100 Mbit/s). Toutes les métriques du réseau sont égales à 1. Deux demandes de trafic arrivent au réseau. Le premier est de 60 Mbit/s entre A et H et la deuxième demande est de 50 Mbit/s entre B et I. Les trafics A-H et B-I emprunteront le plus court chemin IP, c'est-àdire le chemin C-D-G avec un coût de 2. Le tronçon C-D-G de capacité 100 Mbit/s est donc soumis à une charge de 110 Mbit/s. Par conséquent, un cas de congestion, entraînant une perte de paquets, s'est produit ; cela engendre une dégradation de la qualité de service. Une solution pour remédier à ce problème est d'utiliser le routage IP-TE avec un partage de charge donné par le protocole de routage IGP.

    Lorsqu'il y a plusieurs plus courts chemins de même coût pour aller à une destination donnée, un routeur peut partager équitablement la charge sur ces chemins. Il envoie alors la même quantité de trafic sur tous les chemins. Ce mécanisme est appelé ECMP.

    La figure IV.1(b) montre que si on applique le routage IP-TE, en mettant les métriques à 2 sur les liens C-D, D-G et C-E, on se retrouve alors avec deux chemins de coût égal (coût de 4) entre C et G. Dans ce cas, le routeur G effectue un partage de charge entre les deux chemins. Il envoie 50% du trafic sur le tronçon du haut et 50% du trafic sur le tronçon du bas.

    On a donc une charge de 55 Mbit/s sur les deux chemins. En conséquence, la congestion est évitée. Dans cet exemple, le routage IP-TE est efficace ; il a permis d'éviter la congestion et de router tout le trafic arrivant. En revanche, il ne fonctionne pas lorsque l'on a des chemins de capacités différentes. La figure IV.1(c) montre que si le lien E-F est à 50 Mbit/s et tous les autres liens restent à 100 Mbit/s, le partage de charge ECMP ne permet pas d'éviter la congestion. Le chemin d'en bas est soumis à une charge de 55 Mbit/s alors qu'il a une capacité de 50 Mbit/s.

    (a) Cas de congestion avec le routage IP

    (b) Routage IP-TE avec partage de charge (EGMP)

    (c) Gas de congestion avec EGMP
    Figure IV.1 Limitation du routage IP et IP-TE

    L'application de MPLS à l'ingénierie de trafic, appelée MPLS-Trafic Engineering (MPLSTE), représente une alternative pour répondre aux limitations de l'IP-TE. Elle Offre essentiellement un routage explicite entre deux points du réseau. Geci consiste à Laisser une entité spécialisée décider des chemins et procéder à leur établissement dans le réseau. Le routage explicite assure une bonne souplesse pour optimiser l'utilisation des ressources. En plus de cette propriété fondamentale (le routage explicite), MPLS-TE offre aussi la fonctionnalité de re-routage rapide (MPLS Fast Re-route). Gette fonctionnalité, permet, en cas de panne dans le réseau, de garantir un temps de réparation très court (moins de 100 ms).

    IV.2.2 Ingénierie de trafic avec MPLS IV.2.2.a Mécanisme MPLS-TE

    L'ingénierie de trafic MPLS (MPLS-TE) représente une solution pour pallier aux limitations du routage IP en terme d'ingénierie de trafic. MPLS-TE permet d'établir des LSP pour l'ingénierie de trafic, appelés TE-LSP. Les TE-LSP sont routés de façon explicite en prenant compte des contraintes de trafic (bande passante, etc.) et les ressources disponibles dans le réseau. Ges TE-LSP peuvent être utilisés par la suite pour transporter du trafic entre les routeurs d'accès du réseau.

    MPLS-T'assure des fonctions d'ingénierie de trafic telles que l'optimisation de l'utilisation des ressources, la garantie de la qualité de service (QoS) et le re-routage rapide après une panne de noeud ou de lien dans le réseau.

    MPLS-TE permet de résoudre le problème de partage de charge présenté dans l'exemple de la figure IV.2. Gomme le montre la figure 1.5, deux tunnels MPLS-TE peuvent être établis pour router les trafics A-H et B-I. Le tunnel T1 de A à H, de bande passante 60 Mbit/s emprunte le tronçon du haut et le tunnel T2 de B à I, de bande passante 50 Mbit/s emprunte le tronçon du bas.

    Chapitre IV

    LES APPLICATIONS DE MPLS

     
     

    Figure IV.2 Routage MPLS-TE

    MPLS-TE combine le routage explicite offert par MPLS et le routage par contrainte

    Ce routage par contrainte repose sur une fonction de découverte dynamique de la bande passante réservable sur un lien, une fonction de calcul de chemin explicite contraint, ainsi qu'une fonction d'établissement de LSP explicites avec réservation de ressources et distribution de label le long du chemin explicite. Avant de commencer à détailler le Routage par contrainte MPLS-TE, il est intéressant d'introduire le concept de "Trafic Engineering Trunk" (TE-Trunk) utilisé dans MPLS-TE.

    IV.2.2.b Le concept de Traffic Engineering Trunk(TE-Trunk)

    Un TE-Trunk a été défini comme étant un ensemble d'un ou plusieurs TE-LSP utilisés pour router du trafic agrégé entre deux points d'extrémité pour une classe de service donnée. Un TE-Trunk est caractérisé par sa bande passante réservée et un ensemble de paramètres TE (par exemple la classe de service, le délai ,etc .).

    Le mécanisme de routage par contrainte MPLS-TE cherche à router des TE-Trunks dans le réseau, c'est-à-dire des agrégats de trafic entre deux routeurs. Ceci permet de découpler la quantité des états nécessaires pour l'établissement et le maintien des LSP, du volume du trafic transporté (nombre de flux) .

    Le concept de TE-Trunk permet également de mettre en oeuvre le mécanisme de partage de charge. Un ensemble d'un ou plusieurs LSP peut être utilisé pour acheminer une demande globale de trafic entre deux points d'extrémité dans le réseau. Lorsqu'un TE-Trunk inclut plus d'un LSP, le mécanisme de partage de charge est sollicité pour Sélectionner le LSP qui sera employé pour acheminer un flux donné.

    Figure IV.3 Le Traffic- Engineering Trunk (TE-Trunk)

    Dans ce même but, MPLS introduit un concept de hiérarchie au niveau des LSP et d'empilement des labels. Il est donc possible de construire des LSP, encapsulés dans un autre LSP, lui-même encapsulé dans un LSP, etc. Ce concept d'encapsulation rappelle évidemment la possibilité en ATM de mettre des VC dans des VP. Cependant, en MPLS, le nombre de niveaux d'encapsulation (ou de hiérarchie) n'est pas limité à 2 .

    IV.2.2 .c Le protocole CR-LDP (Constraint-based Routing over LDP)

    Le protocole CR-LDP est une version étendue de LDP, où CR correspond à la notion de « routage basé sur les contraintes des LSP ». Tout comme LDP, CR-LDP utilise des sessions TCP entre les LSR, au cours desquelles il envoie les messages de distribution des étiquettes. Ceci permet en particulier à CR-LDP d'assurer une distribution fiable des messages de contrôle.

    Les échanges d'informations nécessaires à l'établissement des LSP utilisant CR-LDP sont décrits dans la figure suivante :

    Figure IV.4 Etablissement d'un LSP par CR-LDP IV.2.2 Le protocole RSVP (ReSerVation Protocol)

    Le protocole RSVP utilisait initialement un échange de messages pour réserver les ressources des flux IP à travers un réseau. Une version étendue de ce protocole RSVP-TE , en particulier pour permettre les tunnels de LSP, autorise actuellement RSVP à être utilisé pour distribuer des étiquettes MPLS.

    RSVP est un protocole complètement séparé de la couche IP, qui utilise des datagrammes IP ou UDP (User Datagram Protocol) pour communiquer entre LSR.

    RSVP ne requiert pas la maintenance nécessaire aux connexions TCP, mais doit néanmoins être capable de faire face à la perte de messages de contrôle.

    Les échanges d'informations nécessaires à l'établissement de LSP permettant les tunnels de LSP et utilisant RSVP sont décrits dans la figure suivante :

    Figure IV.5 : Etablissement LSP par RSVP-TE

    IV.2.2.e Routage par contrainte MPLS-TE

    Le mécanisme de routage par contrainte MPLS-TE regroupe un ensemble de fonctions permettant de router les TE-Trunks en fonction de leurs contraintes TE et des ressources disponibles dans la topologie TE. Ce mécanisme repose sur trois fonctions principales :

    · La fonction de découverte de la topologie

    Cette fonction permet à tous les routeurs d'avoir une vision actualisée de la topologie TE et en particulier de la bande passante résiduelle réservable sur les liens. Cette fonction est assurée par un protocole IGP-TE. Il s'agit d'un protocole IGP à états de liens, étendu pour annoncer des informations TE et, en particulier, la bande passante disponible sur les liens.

    On distingue deux protocoles IGP-TE, avec des fonctions similaires, ISIS-TE et OSPF-TE, extensions des IGP (Interior Gateway Protocol-TE) à états de liens IS-IS et OSPF respectivement (nous nous intéressons dans ce PFE seulement au protocole OSPF-TE). La topologie TE est enregistrée par chaque routeur du réseau dans une base de données TE appelée TED (pour TE Database), qui enregistre pour chaque lien du réseau les paramètres TE suivants:

    1' bande passante maximale : il s'agit de la bande passante maximale pouvant être utilisée sur un lien. Elle correspond généralement à la bande passante physique du lien;

    1' bande passante maximale réservable : il s'agit de la quantité maximale de bande passante pouvant être réservée par un ensemble de TE-LSP sur un lien. Cette bande passante peut éventuellement être supérieure (overbooking) ou inférieure (underbooking) à la bande passante maximale du lien ;

    1' bande passante disponible : il s'agit de la bande passante résiduelle réservable par des TE-LSP sur le lien. Elle est modifiée dynamiquement lors de la création ou de la suppression d'un TE-LSP. Ce paramètre TE comprend huit valeurs de bande passante. Elles correspondent aux huit niveaux de priorité de préemption des TE-LSP, Il s'agit de la bande passante réservable pour chaque niveau de priorité de TE-LSP.

    1' La métrique TE : cette métrique complète la métrique IGP. Elle permet d'utiliser, pour le placement des TE-LSP, une topologie avec des poids de liens différents de la topologie IP. Il devient, par exemple, possible de calculer un plus court chemin avec un délai contraint ; la métrique IGP représentant le critère à optimiser et la métrique TE le délai à borner.

    · La fonction de calcul de chemin

    Cette fonction permet de calculer les chemins pour les TE-LSP en utilisant un algorithme de routage par contrainte (CSPF). Elle prend en entrée les contraintes des TE-LSP (bande passante, groupes à inclure/exclure, etc.) et la topologie TE (TED) alimentée par le protocole IGP-TE.

    · La fonction de signalisation des TE-LSP

    Une fois la route explicite pour un TE-LSP calculée, la fonction de signalisation intervient pour établir le LSP. Get établissement comprend le routage explicite du TE-LSP le long de la route explicite, la réservation de ressource sur les liens traversé ainsi que la distribution des labels sur le chemin. Gette fonction est chargée également du maintien des LSP, de leur

    Suppression et de la signalisation des erreurs. Elle est réalisée par le protocole de signalisation RSVP-TE (ReSerVation Protocol-TE) .Il s'agit du protocole RSVP conçu initialement pour la réservation de ressources, étendu ici pour inclure des procédures de routage explicite et de distribution de labels.

    La figure en dessous représenté les fonctions du routage par contrainte

    Figure IV.6 Les fonctions du routage par contrainte

    · Établissement des LSP

    L'établissement d'un LSP par RSVP-TE est effectué en deux temps : un message Path contenant la route explicite et l'ensemble des paramètres TE (identifiants LSP, source/destination, bande passante, etc.) est tout d'abord envoyé de la source vers la destination de proche en proche, le long de la route explicite. Il crée un état RSVP correspondant au LSP sur tous les routeurs du chemin. En réponse, le routeur de destination renvoie un message Resv de proche en proche vers l'origine du LSP. Le message Resv réserve la bande passante et distribue les labels (cf. figure 1.8 (a)). Il s'agit d'une distribution sollicitée de labels (initiée par les routeurs en amont). Gela entraîne une mise à jour des tables MPLS en transit et de la table IP sur le routeur de tête du LSP. Lorsque le message Resv est arrivé sur la tête et que la table de routage IP est mise à jour, le tunnel peut être utilisé pour aiguiller du trafic le long du LSP (cf. figure 1.8 (b)). Le mécanisme MPLS-TE dispose de plusieurs fonctionnalités TE telles que la réoptimisation des LSP, la restauration des LSP, la préemption et le crank-back. Ges fonctionnalités permettant d'adapter les TE-LSP (route et taille) au changement de la topologie (panne de noeud ou de lien dans le réseau, modification de métrique, installation d'un nouveau lien) ou du trac (augmentation ou diminution de la charge, congestion, etc.).

    IV.2.2 .f Fonctionnalités MPLS-TE

    Dans cette section, nous décrivons la fonctionnalité TE (la préemption) qui sont supportées par le mécanisme MPLS-TE .

    Figure IV.7 Propagation des messages Rath et Resv le long de la route explicite

    Figure IV.8 :Commutation MPLS dans le tunnel

    ERO=Explicite Route Object BP= Bande passante

    IV.2.2 .g Préemption MPLS-TE

    Le mécanisme de préemption est inclus dans l'architecture standard MPLS-TE et fait intervenir les protocoles RSVP-TE et IGP-TE . Il permet de définir des niveaux de priorité pour les TE-LSP. Un LSP prioritaire peut préempter un LSP moins prioritaire et récupérer la bande passante allouée à ce dernier. Le LSP moins prioritaire sera re-routé selon un ou plusieurs chemins alternatifs. Les priorités de préemption sont codées sur 3 bits de 0 à 7, 0 étant la plus forte priorité.

    IV.2.2 .h Suppression d'un LSP

    La suppression explicite d'un LSP peut se faire par un message PathTear envoyé de la source Vers la destination ou par un message ResvTear de la destination vers la source. Le message PathTear détruit les états RSB et PSB associés. En revanche, le message ResvTear ne détruit que l'état RSB. Il doit être suivi d'un message PathTear pour entraîner une destruction totale du LSP. La suppression d'un LSP peut également être implicite, en cas d'expiration des états RSVP.

    IV.3 MPLS-VPN

    IV.3.1 Introduction

    MPLS VPN fournit une méthode de raccordement des sites appartenant à un ou plusieurs VPN, avec possibilité de recouvrement des plans d'adressage IP pour des VPN différents. En effet, l'adressage IP privé est très employé aujourd'hui, et rien ne s'oppose à ce que plusieurs entreprises utilisent les mêmes plages d'adresses (par exemple 172.16.1.0/24). MPLS VPN permet d'isoler le trafic entre sites n'appartenant pas au même VPN, et en étant totalement transparent pour ces sites entre eux. Dans la visée MPLS VPN, un VPN est un ensemble de sites placés sous la même autorité administrative, ou groupés suivant un intérêt particulier. Cette partie aborde les concepts de MPLS VPN, en particulier avec les notions de routeurs virtuels (VRF) et le protocole MP-BGP (Multi-Protocol Border Gateway Protocol), dédié à l'échange des routes VPN.

    IV.3.2 Routeurs P, PE et CE

    Une terminologie particulière est employée pour désigner les routeurs (en fonction de leur rôle) dans un environnement MPLS VPN :

    · Routeur P (Provider) ces routeurs, composant le coeur du backbone MPLS, n'ont aucune connaissance de la notion de VPN. Ils se contentent d'acheminer les données grâce à la commutation de labels.

    · Routeur PE (Provider Edge) ces routeurs sont situés à la frontière du backbone MPLS et ont par définition une ou plusieurs interfaces reliées à des routeurs clients.

    · Routeur CE (Customer Edge) ces routeurs appartiennent au client et n'ont aucune connaissance des VPN ou même de la notion de label. Tout routeur "traditionnel" peut être un routeur CE, quelle que soit son type ou la version d'IOS utilisée.

    Figure IV.9 emplacement des routeurs dans une architecture MPLS

    IV.3.3 Routeurs virtuels (VRF)

    La notion de VPN implique aussi l'isolation du trafic entre sites clients n'appartenant pas aux mêmes VPN. Pour réaliser cette séparation, les routeurs PE ont la capacité de gérer plusieurs tables de routage grâce à la notion de VRF (Virtual Routing and Forwarding table). Une VRF est constituée d'une table de routage, d'une FIB et d'une table CEF spécifiques, indépendantes des autres VRF et de la table de routage globale. Chaque VRF est désignée par un nom sur les routeurs PE. Les noms sont affectés localement, et n'ont aucune signification vis-à-vis des autres routeurs. Chaque interface de PE reliée à un site client est rattachée à une VRF particulière. Lors de la réception de paquets IP sur une interface client, le routeur PE procède à un examen de la table de routage du routeur virtuel à laquelle est rattachée l'interface, et donc ne consulte pas sa table de routage globale. Cette possibilité d'utiliser plusieurs tables de routage indépendantes permet de gérer un plan d'adressage par sites, même en cas de recouvrement d'adresses entre VPN différents.

    Pour construire leurs tables VRF, les PE doivent s'échanger les routes correspondant aux différents VPN. En effet, pour router convenablement les paquets destinés à un PE nommé PE-1, relié au site CE-1, le routeur PE-2 doit connaître les routes VPN de PE-1. L'échange des routes VPN s'effectue grâce au protocole MP-BGP, décrit dans le paragraphe suivant. Les configurations des VRF ne comportant que des paramètres relatifs à MP-BGP (notamment pour l'export et l'import des routes). Les VRF disposant de tables de routage et de tables CEF spécifiques. La table CEF permet de déterminer le Next-Hop, l'interface de sortie et les labels utilisés pour atteindre un subnet particulier.

    Figure IV.10 les routeurs virtuels IV.3.4 Multi-Protocol Border Gateway Protocol (MP-BGP)

    BGP (Border Gateway Protocol) est un EGP (Exterior Gateway Protocol). Il est utilisé pour connecter des systèmes autonomes différents grâce à ses fonctions et ses capacités avantageuses qui permettent

    1' L'change des routes (du trafic) entre organismes indépendants : Opérateurs et gros sites mono ou multi connectés ;

    v' Une importante stabilité : supporte un large nombre de routes ; 1' d'être indépendant des IGP utilisés en interne à un organisme ; v' du supporter un passage à l'échelle (de l'Internet) ;

    v' du Minimiser le trafic induit sur les liens ;

    1' du donner une bonne stabilité au routage.

    Le protocole MP-BGP est une extension du protocole BGP 4, et permettant d'échanger des routes Multicast et des routes VPNv4.

    Le MP-BGP adopte une terminologie similaire à BGP concernant la convergence:

    · MP- BGP : convergence entre routeurs d'un même AS (Autonome System).

    · MP-eBGP : convergence entre routeurs situés dans 2 AS différents.

    Figure IV.11 les différentes composantes des VPN MPLS IV.3.4.a) Notion de RD (Route Distinguisher) :

    Le RD est employé pour transformer seulement des adresses de 32 bits non-uniques de la version 4 d'IP de client (IPv4) en adresses uniques de 96-bit VPNv4 (également appelées les adresses de VPN IPv4). Les adresses VPNv4 sont échangées seulement entre les routeurs PE, elles ne sont jamais employées entre les routeurs CE. Le protocole BGP doit donc supporter l'échange des préfixes IPv4 traditionnels aussi bien que l'échange des préfixes VPNv4 entre les routeurs PE. Une session de BGP entre les routeurs PE s'appelle par conséquent une session Multi-Protocole BGP (MP-BGP).

    Figure IV.12 adresse VPNv4

    La propagation de la route du client à travers un réseau MPLS VPN est faite en utilisant le processus suivant :

    · Étape 1 : le routeur CE envoie une mise à jour du cheminement IPv4 au routeur PE.

    · Étape 2 : le routeur PE ajoute un RD 64-bit à la mise à jour du routage IPv4, ayant pour résultat un préfixe globalement unique de 96-bit VPNv4.

    · Étape 3 : le préfixe VPNv4 est propagé par l'intermédiaire d'une session interne MPIBGP (Multi-Protocol Internal Border Gateway Protocol) à d'autres routeurs PE.

    · Étape 4 : les routeurs de réception PE dépouillent le RD du préfixe VPNv4, ayant pour résultat un préfixe IPv4.


    · Étape 5 : le préfixe IPv4 est expédié à d'autres routeurs CE dans une mise à jour du routage IPv4.

    Figure IV.13 propagation de la route du custome IV.3.4.b Notion de RT (Route Target)

    Le RD permet de garantir l'unicité des routes VPNv4 échangées entre PE, mais ne définit pas la manière dont les routes vont être insérées dans les VRF des routeurs PE. L'import et l'export de routes sont gérés grâce à une communauté étendue BGP (extended community) appelée RT (Route Target). Les RTs ne sont rien de plus que des sortes de filtres appliqués sur les routes VPNv4. Chaque VRF définie sur un PE est configurée pour exporter ses routes suivant un certain nombre de RT. Une route VPN exportée avec un RT donné sera ajoutée dans les VRF des autres PE important ce RT.

    IV.3.5 Impact des topologies complexes de VPN sur VRF

    Une seule VRF peut être employée pour des sites avec des conditions identiques de connectivité. Les topologies complexes de VPN exigent, donc, plus d'une VRF par VPN. Puisque chaque VRF exige une RD distinctive, le nombre de RDs dans un réseau de MPLS VPN augmente avec l'introduction d'autres VPNs. d'aileurs, l'association simple entre le RD et VPN qui était vrai pour VPNs simple est également disparu.

    Exemple :

    Figure IV.14 topologies complexes de VPN

    Pour illustrer les conditions d'échange d'information entre les tables de routage virtuelles multiples, on considère un service de VoIP (Voice over IP) avec trois VPNs (client A, client B, et VoIP VPN). Les besoins virtuels des tables de routage de ce service sont comme suit :

    Ainsi, dans cet exemple, plus de trois tables VRF différentes sont nécessaires pour supporter trois VPNs. Il n'y a aucun rapport linéaire entre le nombre des tables de routage virtuelles (VRFs) et le nombre des VPNs.

    IV.3.6 Transmission des paquets IP

    La transmission des paquets IP provenant des routeurs CE sur le backbone MPLS emploie la notion de label stacking. Pour atteindre un site donné, le PE source encapsule deux labels : le premier sert à atteindre le PE de destination, tandis que le second détermine l'interface de sortie sur le PE, à laquelle est relié le CE. Le second label est appris grâce aux mises à jour MP-BGP. Les tables CEF des routeurs peuvent être consultées pour déterminer les labels utilisées.

    Figure IV.15 transmission des packets VPN a travers le backbone MPLS VPN

    IV.3.7 Propagation d'étiquette VPN

    La deuxième étiquette est exigée pour l'opération appropriée de MPLS VPN, Cette étiquette a été assignée par le routeur PE de sortie. Cette étiquette doit être propagée du routeur PE de sortie aux routeurs PE d'entrée pour permettre la transmission de paquet approprié.

    MP-BGP a été choisi comme mécanisme de propagation. Chaque mise à jour MP-BGP porte ainsi une étiquette assignée par le routeur PE de sortie ainsi que le préfixe VPNv4 de 96-bit.

    Le propagation d'étiquette VPN doit suivre les étapes suivants

    · Etape1 : le routeur PE de sortie assigne une étiquette à chaque route VPN reçu des routeurs CE attachés et à chaque route, il la récapitule à l'intérieur du routeur PE. Cette étiquette est alors employée comme la deuxième étiquette dans la pile d'étiquette de MPLS par les routeurs PE d'entrée en marquant des paquets VPN.

    · Etape 2 : Les étiquettes de VPN assignées par les routeurs PE de sortie sont annoncées
    à tous autres routeurs PE ainsi que le préfixe VPNv4 dans les mises à jour MP-BGP.

    · Etape 3 : le routeur PE d'entrée a deux étiquettes liées à une route VPN distante, une étiquette pour le prochain saut de BGP assigné par le prochain saut du routeur P par l'intermédiaire de LDP aussi bien que l'étiquette assignée par le routeur distant PE et propagée par l'intermédiaire de la mise à jour MP-BGP. Les deux étiquettes sont combinées dans une pile d'étiquette et installées dans la table VRF.

    Figure IV.16 propagation d'étiquette VPN

    IV.4 MPLS-QS

    La qualité de service se décline principalement en quatre paramètres : débit, délai, gigue et perte.

    · Le débit représente les ressources de transmission occupées par un flot. Un flot est un ensemble de paquets résultant d'une application utilisatrice.

    · Le délai correspond au temps de transfert de bout en bout d'un paquet.

    · La gigue correspond aux variations de latence des paquets. La gigue provient
    essentiellement des variations de trafic sur les liens de sorties des routeurs.

    · Des pertes de paquets peuvent être dues à des erreurs d'intégrité sur les données ou des rejets de paquets en cas de congestion.

    La qualité de service peut être fournie par deux approches relativement différentes.

    Le premier modèle, IntServ utilise la réservation de ressources mise en place par RSVP. IntServ classifie les données par flux. En effet, chaque flux va être placé dans une file d'attente séparée. La granularité est forte, car la classification se fait flux par flux selon le protocole de réservation. En revanche, c'est un processus coûteux en ressources machine, et qui supporte difficilement la montée en charge car les routeurs de coeur doivent maintenir une liste des flux en cours afin de rechercher à chaque fois la qualité de service à appliquer. En effet, plus les flux seront nombreux, plus les traitements à effectuer au niveau des routeurs seront importants notamment au niveau de l'ordonnancement.

    L'autre approche servant de support à la qualité de service est DiffServ. Dans cette configuration, les flux sont agrégés pour former des classes de services. De cette manière les flux d'une même classe ont les mêmes garanties de service. Par rapport à IntServ, la granularité est donc beaucoup plus faible. Cependant, DiffServ repose sur l'utilisation d'un système de marquage des paquets pour définir le comportement à adopter par le noeuds recevant le paquet. C'est ce que l'on nomme le Per-Hop Behavior. Le but ici n'étant pas de détailler l'ensemble des mécanismes mis en oeuvre dans DiffServ, nous allons donc voir l'utilisation de ces approches dans MPLS.

    DiffServ utilise les 8 bits de l'entête IP et les divise comme présenté par le schéma cidessus. 6 bits sont réservés pour les codes de différenciation de service tandis que les deux derniers ne sont pour le moment pas utilisés.

    Figure IV.17 Décomposition du DSCP

    Comme vous avez sûrement pu le remarquer lorsque nous avons abordé le format du label, le champ EXP réservé à la qualité de service est sur 3 bits, alors que les DSCP sont codés sur 6 bits. En dessous de 8 PHBs, cela ne pose pas de problèmes car les 3 bits d'EXP suffisent à stocker les valeurs. Cependant, pour un nombre de PHBs supérieur, le label est alors utilisé en combinaison avec le champ EXP pour constituer les groupes de PHBs.

    Au niveau du choix d'une approche plus qu'une autre pour MPLS, je dirais que les deux approches sont complémentaires. En effet, IntServ réalise un contrôle de bout en bout des ressources utilisées alors que DiffServ spécifie des comportements à chaque saut. La signalisation de l'approche DiffServ est beaucoup moins importante que IntServ, car elle ne nécessite pas de maintien de l'état des flux par RSVP. On optera donc pour un contrôle d'admission et un lissage du trafic en entrée du réseau grâce à IntServ tandis que DiffServ lui sera préféré en coeur de réseau pour limiter la signalisation.

    IV.5 Extension MPLS

    Une première extension du MPLS est le Generalized MPLS. Le concept de cette dernière technologie étend la commutation aux réseaux optiques. Le label, en plus de pouvoir être une valeur numérique peut alors être mappé par une fibre, une longueur d'onde et bien d'autres paramètres. Le GMPLS met en place une hiérarchie dans les différents supports de réseaux optiques. GMPLS permet donc de transporter les données sur un ensemble de réseaux hétérogènes en encapsulant les paquets successivement à chaque entrée dans un nouveau type de réseau. Ainsi, il est possible d'avoir plusieurs niveaux d'encapsulations selon le nombre de réseaux traversés, le label correspond à ce réseau étant conservé jusqu'à la sortie du réseau. GMPLS reprend le plan de contrôle de MPLS en l'étendant pour prendre en compte les contraintes liées aux réseaux optiques. En effet, il va rajouter une brique à l'architecture : Gestion des liens. Cette brique comprend un ensemble de procédures utilisées pour gérer les canaux et les erreurs rencontrées sur ceux-ci.

    Figure IV.18Architecteur GMPLS

    IV.6 Conclusion

    Dans ce chapitre, nous avons présenté les composantes relatives à l'ingénierie de trafic dans MPLS, et mise en ouvre d'un VPN dans MPLS, ainsi nous présentons les différents modèles utilisés pour la gestion de la QoS au niveau des réseaux MPLS.

    V.1 Introduction

    Pour appliquer les concepts introduits précédemment, nous avons choisi une topologie de réseau qui permet la mise en oeuvre d'un coeur de réseau IP /MPLS d'un fournisseur de service et simuler les différentes applications appropriées à MPLS (MPLS-TE, MPLS-VPNs,.....), ainsi que l'implémentation de la VOIP qui peut être offerte par les fournisseurs de service .

    Pour cela on a élaboré une maquette sur laquelle on a appliqué les techniques décrites précédemment, donc on a réalisé une émulation comprenant les étapes suivantes :

    · Réalisation de la maquette du backbone avec MPLS VPN

    · L'implémentation du service VoIP sur la maquette

    · L'implémentation de MPLS-TE

    V.2 0 N IFn oeXVIH EI la topologie réseau (la maquette du backbone)

    V.2.1 Mise en SOFH d'XORWLDWIII IIIrtXEl

    V2.1.a Logiciel utilisé pour la réalisation

    Pour réalisé cette maquette et simuler la mise en oeuvre de topologie réseau complexe on a dû utiliser les logiciels GNS3 et VMWar :

    ü Le logiciel GNS3

    Le GNS3 est un logiciel d'émulation de routeur Cisco au mode graphique. Ce logiciel permet de simuler matériellement des routeurs 7200, 3600 et 2600... en utilisant l'IOS de Cisco,il fonctionne avec un outil de supervision des routeurs émulés : Dynagen. Ces outils fonctionnent sous Linux et Windows et permettent de simuler des topologies incluant tous les protocoles de l'IOS (RIP, EIGRP, OSPF[ 1) et les interfaces associées au routeur (Frame Relay, ATM,...), il est possible de s'en servir pour tester les fonctionnalités des IOS Cisco ou de tester les configurations devant être déployées dans le futur sur des routeurs réels.

    ü Le logiciel VMwareWorkstation

    Est un logiciels de virtualisation qui permet d'avoir plusieurs machines avec des systèmes d'exploitations différents qui s'exécutent sur le mrme ordinateur, ceux-ci pouvant être reliés au réseau local avec une adresse IP différente, tout en étant sur la même machine physique . Il est possible de faire fonctionner plusieurs machines virtuelles en même temps, la limite correspondant aux performances de l'ordinateur hôte.

    ü Installation du serveur FTP

    FTP, ou File Transfert Protocol (protocole de transfert de fichier) est, comme son nom L'indique, un protocole pour le transfert de fichier. Il s'agit donc d'un langage utilisé par deux ordinateurs pour s'échanger des fichiers. FTP propose une architecture client/serveur, le serveur sert de dépôt central de fichiers et les clients y récupèrent ou y déposent des fichiers

    en utilisant le protocole.

    V.2.1.b Logiciel utilisé pour la supervision de la maquette

    Les logiciels utilisés pour la supervision et la gestion de la maquette sont : Solarwinds Orion, Net Flow et Wireshark :

    1' Solarwinds Orion : est un logiciel qui permet la visualisation en temps réel des statistiques et de disponibilité du réseau, ainsi que la surveillance et l'analyse détaillées des données des routeurs, commutateurs, serveurs et tous les autres dispositifs SNMP fournit aux utilisateurs une vue complète de la santé de leur réseau. Orion permet de surveiller : Disponibilité, Utilisation de la mémoire et du CPU, Latence du réseau, Utilisation de la bande passante, Statut des noeuds, des interfaces, Taux d'erreur et de rejet des interfaces.

    v' Wireshark : (anciennement Ethereal) est un logiciel libre d'analyse de protocole, ou« packet sniffé », utilisé dans le dépannage et l'analyse de réseaux informatiques, le développement de protocoles, l'éducation et la rétro-ingénierie, mais aussi le piratage.

    1' Net Flow : Orion Net Flow Traffic Analyzer (NTA) vous permet de quantifier exactement la façon dont votre réseau est utilisé, par qui et dans quel but. Et notre nouvelle fonctionnalité avancée d'application de cartographie en corrélation le trafic en provenance de ports désignés, IP source, IP de destination, et même les protocoles, les noms de l'application, vous pouvez facilement reconnaître. Orion NTA, il est facile d'obtenir une vue d'ensemble de votre trafic réseau, trouver les goulets d'étranglement, et arrêter les porcs de la bande passante.

    V.2.2 Analyse des propriétés fonctionnelles d'un routeur

    Nous avons utilisé pour la réalisation de la maquette les routeurs de la gamme 7200 pour les raisons suivantes :

    a) Le routeur Cisco 7200 est un routeur compact haute performance, conçu pour un déploiement à la périphérie du réseau et dans le centre de données, où performances et services sont essentiels pour faire face aux besoins des entreprises, des administrations et des fournisseurs de services.

    b) Le routeur Cisco 7200 capable de gérer les applications suivantes :

    v' Accès haut débit à Internet pour professionnel particuliers

    v' Messagerie électronique v' Téléphonie IP et FAX IP v' Vidéo MPEG

    1' Services VPN (Virtual Private Networking)

    v' E-business

    V.2.3 Mise en pratique des concepts fondamentaux des réseaux :

    V.2.3.a Plan d'adressage

    Le choix des adresses est arbitraire. Dans ce cadre nous avons choisit des adresses de class C avec un masque /30 pour les connexions point à point et /24 pour les connexions avec les hauts de l'Edge, et class B pour l'adressage des interfaces loop back (interface de bouclage locale).

    V.2.3.b) Configuration de la maquette

    Pour la réalisation de la maquette on a utilisé :

    3 routeurs représentant le core MPLS (des routeurs P) simulant les routeurs P1, P2, et P3 2 routeurs représentant l'Edge MPLS (des routeurs PE) et simulant les routeurs PE1, PE2

    2 routeurs désignant les deux sites d'un client VPN (des routeurs CE), chaque routeur CE connecté a un PE (CEa, CEb).

    Les routeurs PE, P et CE utilise la version IOS «c7200- p-mz[1].124-10b.bin» supportant ainsi la technologie MPLS.

    La figure suivante représente la topologie utilisée dans la maquette

    Figure V.1 la Maquette de simulation

    Chapitre V

    APPLICATION

     
     

    Pour la configuration du backbone on est amené à suivre les phases suivantes :

    Phase 1 : activation du routage classique

    L'activation du routage classique Au niveau du backbone (PE-P et P-P), le protocole de routage utilisé est l'OSPF, le choix de ce protocole est justifier par les raisons suivantes :

    ü Protocole de routage a état de lien.

    ü Supporte le trafic engineering.

    ü Rapidité de convergence.

    ü Il a une zone de type dorsale (backbone) .

    La configuration d'OSPF est requis les étapes suivants :

    ü Activation de Processus OSPF

    ü Déclaration des réseaux participent au processus

    ü Désignation de la zone administrative

    ü Désignation de l'identificateur de routeur

    Les étapes de configuration pour les routeurs de coeur P2, P3 et les routeur l'Edge PE1, PE2 sont les même que pour le routeur P1 .

    Nous avons utilisé le protocole de routage RIPv2 entre les routeurs client et edge (CE-PE) a cause du MPLS- VPN qui offre la possibilité d'utiliser n'import quel protocole de routage dans les sites des clients ainsi l'échange des routes entre les routeurs PE est assuré par le protocole MP-BG

    Phase 2 : activation du MPLS

    Avant la configuration du MPLS dans les routeurs il est indispensable d'activer le CEF (Cisco Expresse Forwarding). L'activation de MPLS diffère suivant l'emplacement du routeur dans le backbone, dans les 3 routeurs P nous avons activé MPLS sur toutes les interfaces tandis que dans les 2 routeurs PE, MPLS est activé seulement sur les interfaces liant ces routeur aux routeurs P. Nous avons choisit le protocole LDP pour distribuer les labels MPLS.

    Configuration de routeur P1 :

    V.3 IP ScéP I-nARRWIMI- 19 31

    L'une des applications les plus importantes du protocole MPLS est de pouvoir créer des réseaux privés virtuels VPN (Virtual Private Network), pour cela on va implémenter dans notre maquette un vpn mpls qui relie entre deux cites d'un client, cite A (représenté par routeur CEa) et cite B (représenté routeur CEb) .

    Pour assurez l'isolation du trafic entre les différents clients nous avons créé dans les routeurs Edge qui connectent les réseaux des clients un VRF pour chaque client, pour notre client de démonstration, nous avons défini un VRF avec les paramètres suivants:

    Route distinguisher 999:1

    Route target import 64999:1

    Route target export 64999:1

    V.3.1 Configuration de VPN

    La configuration du VPN est réalisée après celle de L'IGP et l' activation de MPLS dans les routeurs du Backbone ,en passant par les phases suivantes :

    Phase 1 : création et configurations des VRFs

    · Création de VRF : pour crée des VRFs on va configurer les deux Edges PE1 et PE2 par les command suivants :

    PE1 (config) #ip vrf Client A

    PE1 (config-vrf) #route-target both 64999:1 PE1 (config-vrf) #rd 999:1

    · Assignement des VRF a des interfaces : PE1 (config-vrf) #int s1/0

    PE1 (config-if) #ip vrf forwarding Client A

    PE1 (config-if) # ip address 10.0.0.2 255.255.255.252 PE1 (config-if)#no shut

    Des configurations similaire doit etre fait dans le router PE2 le seul différance c'est l'adresse ip de l'interface qui égale a 10.0.0.5.

    Phase 2 : configuration des protocoles de routage :

    · Maintenant nous configurons le protocole de routage MP-BGP pour assurer communication entre les VRF des différents PE par les commandes suivantes :

    PE1 (config) #ROUTER BGP 1

    PE1 (config-router) #NO BGP DEFAULT IPV4-UNICAST

    PE1 (config-router) #NEIGHBOR 172.16.0.5 REMOTE-AS 64999 PE1(config-router)#NEIGHBOR 172.16.0.5 UPDATE-SOURCE LO0

    PE1 (config-router) #ADDRESS-FAMILY VPNV4

    PE1 (config-router-af) #NEIGHBOR 172.16.0.5 ACTIVATE

    activation de RIP par VRF:

    PE1 (config) #ROUTER RIP

    PE1 (config-router) #VERSION 2

    PE1 (config-router) #ADDRESS-FAMILY IPV4 VRF clientA PE1 (config-router-af) #NETWORK 10.0.0.0

    PE1(config-router-af)#NO AUTO-SUMMARY

    P
    · hase 3
    configuration du protocole de routage RIP entre le CE et le PE et le MP-BGP entre les PEs et activation de la distribution des routes entre les deux protocoles IGP et EGP.

     

    Activation de la distribution des routes de RIP par BGP

     

    P
    · E1(config)#ROUTER BGP 1

    PE1(config-router)#ADDRESS-FAMILY IPV4 VRF client A PE1(config-router-af)#REDISTRIBUTE RIP METRIC 1

    · Activation de la distribution des routes BGP de par RIP P
    · E1(config-router-af)#ROUTER RIP

    PE1(config-router)#VERSION 2

    PE1(config-router)#ADDRESS-FAMILY IPV4 VRF client A

    PE1(config-router-af)#REDISTRIBUTE BGP 1 METRIC 1

    Remarque : dans les routeurs clients CEa et CEb aucune configuration spéciale n'est nécessaire car les routeurs clients n ' ont pas de connaissance de VPN et réagissent comme s'ils étaient directement reliés, de même pour les routeurs P du coeur qui pour routage des paquets se basent seulement sur les labels.

    V.3.2 Vérification de la configuration

    Apres la configuration de notre VPN avec succès on a capturée le trafic entre les routeurs P1et P2 par le logiciel wireshark pour voir l'encapsulation des paquets,

    Figure V-2 Paquet d'un VPN MPLS capturé entre deux routeurs p

    Interprétation des résultats

    Les résultats donnés par le wireshark et représentés par la figure précédente justifient que MPLSVPN utilise deux labels (le LABEL STACK), le premier indique le Egress-router (label 23) et le deuxième définit le VPN (label 27).

    V.4 Implémentation du service VOIP

    V.4.1 Introduction

    La voix sur IP (Voice over IP) est une technologie de communication vocale en pleine émergence. Elle fait partie d'un tournant dans le monde de la communication. En effet, la convergence du triple play (voix, données et vidéo) fait partie des enjeux principaux des acteurs de la télécommunication aujourd'hui

    Dans cette partie nous allons implémenter le service VOIP dans notre maquette par l'ajout du serveur d'appel TRIXBOX.

    V.4.2 TRIXBOX

    Est une distribution Linux comprenant un ensemble d'éléments permettant de créer facilement un IPBX. L'élément principal est le logiciel Asterisk, entouré d'un ensemble d'autres logiciels pour le gérer.

    V.4 .3 Configuration d'un VPN complexe

    Pour pouvoir offre des services tel que VOIP a notre clients on va ajouter un nouveau site appelé voip_server qui a la possibilité de communiquer avec tous autres sites clients,pour cela

    il est indispensable de rendre notre VPN complexe :

    Premièrement on ajoute un nouveau VRF au routeur sur lequel on connecte notre serveur TRIXBOX en utilisant les paramètres suivants :

    Route distanguisher : 666:1 Route target export : 9999:2 Route target import : 9999 :1

    Dans notre exemple on va connecter le serveur TRIXBOX au routeur auquel est relié le client A. Deuxièmement on ajoute pour chaque VRF de site client une nouvelle route target afin de pouvoir communiquer avec le serveur TRIXBOX :

    Route target export : 9999 :1

    Route target import : 9999 :2

    Il faut remarquer que la deuxième valeur de route target export ajoutée aux VRF clients est égale a la valeur de route target import de la VRF voip_server et vise versa, pour permettre l'échange des tables de routage entre les deux VPN.

    V.4 .3.a Vérification de la configuration

    Apres les configurations mentionnées au dessus nous avons capturée le trafic entre les routeurs P1et P2 par le logiciel wireshark, le résultat est illustré par la figure V.3

    Figure V-3 protocole SIP capturé entre deux routeurs p

    V.4.3.b Interprétation des résultats

    Les résultats donnés par le wireshark représentés par la figure précédente illustrent l'encapsulation d'un paquet de protocole de signalisation (SIP) qui est utilisé pour L'ouverture des sessions permettant de réaliser les communications VOIP entre deux clients.

    Cette capture démontre bien que le trafic VOIP emprunte le tunnel du VPN car les paquets sont encapsulés par deux labels (label stack).

    V.5 Implémentation de MPLS TE

    Le protocole de routage utilisé dans notre maquette est un IGP classique (OSPF), a cause de sa limitation en matière d'ingénierie de trafic tous le trafic généré de routeur CEa vers CEb suit le chemin le plus court (PE1 P1 P 2 PE2) créant ainsi une congestion (dégradation de la Qos) tandis que l'autre chemin (PE1 P1 P 3 P 2 PE2) reste sous utilisé, pour remédier a cela on va appliquer l'ingénierie de trafic sur le backbone.

    V.5.a Configuration de MPLS TE

    Cette section vous présente les étapes de la configuration des routeurs Cisco en mettant en oeuvre MPLS TE. Il est alors suivi par un paragraphe décrivant le processus de configuration réelle sur une topologie composée de cinq routeurs dans lequel plusieurs chemins d'accès peuvent être utilisés à des fins de Traffic engineering

    étape 1 : activation de MPLS TE dans tous les routeurs PE et P, et dans toutes les interfaces qui vont participer a la création des tunnels.

    Etape 2 : configuration la bande passante réservable dans l'interface MPLS TE par RSVP

    Etape 3 : Configuration des Paramètres de l'Interface Tunnel on PE1 » :

    · création d'une interface tunnel

    · spécification de l'adresse destination du tunnel

    · Le tunnel est défini un besoin de bande passante de 100 Kb/s

    Voici les command de configuration de tunnel 0 :

    Des configurations similaires sont nécessaires pour le tunnel 1.

    · spécification de la méthode du choix du chemin (lsp) qui va être emprunté par le tunnel, il peut être configuré manuellement ou dynamiquement

    > Configuration du chemin en mode dynamiquement :

    > Configuration du chemin en mode explicite-chemin (manuellement)

    Définition explicite de LSP Path

    Etape 4: Configuration IGP pour MPLS TE

    Pour cette configuration on a crée deux tunnels « tunnel0 et tunnel1 » allant de PE1vers PE2 passant par deux chemins différents, le tunnel 0 emprunte le plus court chemin.

    · pour résoudre le problème de congestion on propose les deux solutions suivantes : Première solution

    On assigne les tunnels à une «Load Sharing» qui permet le routage de n'import quelle trafic vers les deux tunnels en partage de charge.

    V.5.b Vérification de la configuration

    Pour vérifier que notre configuration a été correctement faite nous avons effectué les tests suivants: Premier test

    On a lancé un téléchargement ) 73 IdPnIs1-111-KIE1-lM au routeur PE1 vers un PC relié au routeur PE 2. Puis on a surveillé le trafic qui passe par les interfaces de P1 avec SOLARWINDS, après dix minutes On a activé dans les deux tunnels MPLS la commande Load Sharing. Le résultat est illustré par la Figure V-4

    Figure V-4 MPLS-TE et partage de charge (Première test )

    Interprétation des résultats

    Nous remarquons que pendant les 10 premières minutes tous les trafic passe par l'interface S1/0 qui relie P1 a P2 (le graphe en bleu) car MPLS TE n'a pas été activé,

    A la dixième minute : activation de MPLS TE alors le trafic FTP emprunte les deux tunnels (tunnel 0 et tunnel 1) pour la même destination donc il y a eu partage de charge.

    Deuxième test

    on a surveillé le trafic qui passe par les interfaces de P1(LSR1) avec NET FLOW, après dix minutes de l'activation de MPLS TE(Load Sharing). Le résultat est illustré par la Figure V-5

    Figure V-5 MPLS-TE et partage de charge(Deuxième test )

    Interprétation des résultats

    Nous remarquons que le trafic est partagé vers les deux interfaces serial 1/0 et serial 1/1

    Deuxième solution

    On a assigné les tunnels à une « Static Routes» qui permet l1-ITIutET1- I'ESSaFEtion FTP et VOIP vers les deux tunnels mais avec un ordre de priorité, chaque service routé vers un tunnel.

    La service VOIP est plus sensible au QoS pour cela on le assigne a tunnel 0 (le plus court chemin).

    2 QE lEcFp un tplpFIEU1-m1-QN173 1d71 s1-1v1-XII1-li1- EX3( 1 1v1-1301 P& 1r1-lip[E343( L 1-t o na lancé un appel téléphonique après sept minute.

    ü Première test

    on a surveillé le trafic qui passe par les interfaces de P1 avec SOLARWINDS, le résultat est illustré par la Figure V.6

    Figure V.6 $ SSMINQU IAKIIInieM EH MINE (Première test )

    Interprétation des résultats

    Pendant les sept premiers minutes le trafic de FTP suit le tunnel 1 (S1/1 via P3) a partir de la septième minute on a réactivé MPLS-TE (active route statique) alors on remarque que le trafic voix router vers le tunnel 0 (S 1/0)

    ü Deuxième test

    Le trafic du téléchargement et de la VOIP passant par les interfaces de P1 surveillé par NET FLOW, est illustré par les Figures V.7.a et V.7.b

    Chapitre V

    APPLICATION

     
     

    Figure V-7-a trafic VOIP Figure V-7-b trafic FTP

    Figure V- E rl ssaaAiiosi mziPQIIMe IArUIP 7 ipq IqPI IAMA ) Interprétation des résultats

    Les résultats donnés par le NET FIOW et représentés par la figure précédente démontrent que l'activation de MPLS-TE permet la distribution du trafic nous remarquons que :

    le trafic FTP passe par l'interface S1/1 (tunnel 1) qui relie P1 a P2 a travers P3 (figure V-7-b) .

    le trafic de la VoIP est passe par l'interface serial S1/0 (tunnel 0) qui relie P1 a P2 (figure V-7-a).

    V.6 Conclusion

    On a pu confirmer à travers cette simulation .certains aspects théoriques déjà étudiés auparavant, et cela en utilisant des logiciels de supervision. Ceci nous a permis de visualiser l'encapsulation des paquets au coeur de réseau MPLS et au tunnel VPN ainsi que le type de trafic empruntant le réseau en agissant sur le MPLS-TE.

    On a ainsi montré dans notre application que l'implémentation de l'ingénierie de trafic dans un coeur de réseau quelque soit sa dimension, est indispensable, car sa congestion sera une certitude dans son futur proche avec la croissance des applications multimédia.






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Ceux qui vivent sont ceux qui luttent"   Victor Hugo