WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Mise en place d'un système de virtualisation des serveurs dans un réseau informatique avec vsphere server (cas de Sri/uni lu).

( Télécharger le fichier original )
par Blaise Bady
Ecole Supérieure d'Informatique Salama ESIS - Ingénieur Technicien en Administration Système et Réseau Informatique 2013
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

I.2.2. Concepts et Terminologie

Voici donc les concepts et terminologies de base de la virtualisation12 :

Isolation ou container : aussi appelé cloisonnement, c'est en effet une technique qui intervient au sein d'un même système d'exploitation. Elle permet de séparer un système en plusieurs contextes ou environnements.

La para-virtualisation : Technique de virtualisation qui présente une interface logicielle similaire à du matériel réel à une machine virtuelle mais optimisée pour ce type de fonctionnement.

L'émulation : Technique qui consiste à utiliser un système d'exploitation (ou un programme) sur un système qui n'utilise pas la même architecture.

Machine virtuelle : Illusion d'un appareil informatique créée par un logiciel d'émulation. Le logiciel d'émulation simule la présence des ressources matérielles et logicielles telles que la mémoire, le processeur, le disque dure, voire même le système d'exploitation et les pilotes permettant d'exécuter des programmes dans les mêmes conditions que celle de la machine simulée.

Hôte : Machine physique destinée à pouvoir héberger les environnements virtuels.

Hyperviseur : Système basée sur l'utilisation d'un noyau hôte allégé et optimisé, utilisé pour faire fonctionner simultanément plusieurs systèmes d'exploitation sur une même plateforme matérielle.

On distingue deux types d'hyperviseurs :

? Hyperviseurs de type 2 : L'hyperviseur s'exécute ici à l'intérieur du SE de la machine hôte. De ce fait on perd en performances du fait de l'empilement des deux SE (hôte et invité). Par contre, c'est une solution très facile à mettre en oeuvre. De ce fait, elle est surtout utilisée au niveau du poste de travail. On trouve dans cette catégorie notamment Microsoft VirtualPC/VirtualServer, Oracle VirtualBox, Parallels Desktop, VMWare Player, et bien d'autres.

12 F. Ostré-Thierry Dostes., « Concept et mise en oeuvre de la virtualisation », Strasbourg, édition ENI, 2011.

10

? Hyperviseurs de type 1 : l'hyperviseur est lui-même un mini-système d'exploitation optimisé pour gérer les accès des machines virtuelles au matériel du système hôte. On y gagne énormément en performances. Il s'agissait initialement de solutions assez onéreuses, mais des versions gratuites commencent à sortir.

I.3. Outils de virtualisation des serveurs

Il connut de tous que de nos jours, plusieurs solutions de virtualisation des serveurs existent. De ce fait, dans cette partie de notre travail, nous vous parlerons donc des outils de cette technologie les plus utilisées ou les plus répandus tout en vous donnant leurs différences et surtout leurs exigences.

Pour ce qui concerne la virtualisation de serveurs, trois outils13 sont pour l'instant les plus utilisés qui sont Microsoft Hyper-V, Citrix XenServer et VMWare ESXi

I.3.1. Microsoft Hyper-V

Hyper-V est le moteur de virtualisation (hyperviseur) de Microsoft, lancé en 2008 pour contrer la suprématie de VMWare dans le secteur de la virtualisation (notamment grâce à VMWare ESX). Il se base donc sur l'hyperviseur de type 2 qui est facile bien évidement à mettre en place mais qui présente par contre plusieurs inconvénients comme nous l'avons vu précédemment.

Hyper-V présente cependant deux limites :

· Il ne prend pas en charge l'accès aux périphériques USB. Contrairement à VMWare ESX qui comporte une fonction de LiveMigration (le maintien des connexions réseau et aucune interruption de services pendant la migration des VM),

· Hyper-V n'a qu'une fonction de QuickMigration (la VM est suspendue sur un hôte et est redémarrée sur un autre hôte. Le réseau ainsi que les services sont alors suspendus le temps du transfert de la mémoire active entre les deux hôtes). Hors pour un réseau efficace, la disponibilité des réssources est vraiment nécessaire; est surtout que pour les entreprises

13 Sylvain G., « concept de la virtualisation des serveurs », Paris, édition ENI, 2010.

11

de nos jours, temps égale argent, donc il suffit juste de quelques minutes de temps mort pour que cela puisse engendrer une perte considérable pour l'entreprise.

I.3.2. Citrix XenServer

Citrix XenServer est le troisième hyperviseur le plus populaire au monde derrière Microsoft Hyper-V et VMware vSphere. Citrix XenServer est une plate-forme de virtualisation gratuite basée sur l'hyperviseur open-source Xen et qui inclut XenCenter, une console de gestion centralisée dotée de fonctionnalités de gestion clés telles que la gestion multiserveur, la prise en charge du stockage partagé, les groupes de ressources ainsi que la migration à chaud instantanée XenMotion.

En outre, bien que Citrix soit un hyperviseur de type un, il présente pas mal d'inconvénients vu que déjà devant lui il a les deux plus grands concurrents en matière de la virtualisation de serveur, il n'est vraiment pas crédible vu qu'il présente peux d'option pour une bonne virtualisation que Microsoft Hyper-V et VMware vSphere.

Avec Citrix XenServer il est impossible de virtualiser certain servers plus précisément ceux qui comportent des applications qui installent des pilotes matériels (émulateurs de disque virtuels, antivirus, pilotes d'imprimantes...).

I.3.3. VMware vSphere

VMware vSphere est une plate-forme de virtualisation de serveurs comprenant l'hyperviseur VMware ESX ainsi que des outils de gestion associés. vSphere est disponible en trois éditions : Standard, Advanced et Enterprise Plus.

VMware offre également une édition Enterprise de vSphere pour une période limitée. Les serveurs vSphere sont gérés à partir de vCenter Server, la console de gestion multiserveurs de VMware. VCenter Server est vendu séparément de vSphere.

Il est à noter que ces deux solutions (Citrix XenServer et VMware vSphere) sont basées sur des technologies d'hypervision de Type 1 (sur matériel nu) et sont installés directement sur des serveurs physiques sans nécessiter de système d'exploitation hôte. Il est unanimement reconnu que cette approche sur matériel nu offre une stabilité ainsi que des performances largement améliorées par rapport à des solutions basées sur un système d'exploitation hôte telles que VMware GSX Server (GSX) et Microsoft Virtual Server.

12

VMware vSphere est donc l'outil qu'on aura à utiliser dans notre travail vu qu'il présente plusieurs avantages comparativement aux deux autres outils (Microsoft Hyper-V et Citrix XenServer).

VMware vSphere supporte les plateformes Linux et Microsoft, et de ce fait, dans notre travail nous nous pencherons beaucoup plus du côté Microsoft bien que nous allons aussi créer et configurer un serveur virtuel linux.

I.4. Autres domaines de virtualisation

I.4.1. Virtualisation d'applications

La virtualisation d'application est une technologie logicielle qui va permettre d'améliorer la portabilité et la compatibilité des applications en les isolants du système d'exploitation sur lequel elles sont exécutées.

Elle consiste à encapsuler14 l'application et son contexte d'exécution système dans un environnement cloisonné. La virtualisation d'application va nécessiter l'ajout d'une couche logicielle supplémentaire entre un programme donné et le système d'exploitation; son but est d'intercepter toutes les opérations d'accès ou de modification de fichiers ou de la base de registre afin de les rediriger de manière totalement transparente vers une localisation virtuelle (généralement un fichiers). Puisque cette opération est transparente, l'application n'a pas notion de son état virtuel.

Le terme virtualisation d'application est trompeur puisqu'il ne s'agit pas de virtualiser l'application mais plutôt le contexte au sein duquel elle s'exécute.

FIG. 1.-Virtualisation d'applications

La virtualisation d'applications présente de nombreux avantages :

14 http://www.linternaute.com/dictionnaire/fr/definition/encapsuler/, 16 juin 2014, 19h37'.

13

Elle permet d'exécuter des applications qui ont été développées pour d'autres environnements d'exécution (nous avons par exemple le Wine15);

Elle protège le système d'exploitation hôte en s'assurant que l'application virtualisée ne viendra pas interagir avec les fichiers de configuration du système;

Elle évite de faire appel à une machine virtuelle qui consomme plus de ressources;

Elle autorise l'exécution de code incorrect (nous avons par exemple une application qui pourrait vouloir écrire un fichiers dans un répertoire système dont elle ne possède que les droits en lecture).

I.4.2. Virtualisation de post de travail

La virtualisation de post de travail, communément appelée VDI (Virtual Desktop Infrastructure), offre à partir d'une machine virtuelle, un environnement de bureau complet, comprenant le système d'exploitation ainsi que les applications

1.4.3. Virtualisation des stockages

La virtualisation de stockage est un procédé qui va séparer la représentation logique et la réalité physique de l'espace de stockage. Son but est de faire abstraction des périphériques de stockage utilisés et des interfaces qui leur sont associés afin de limiter l'impact des modification structurelles de l'architecture de stockage.

Ce type de virtualisation fait appel à une application d'administration de volumes logiques (Logical Volume Manager, LVM). Il s'agit d'une couche logicielle qui va permettre de regrouper plusieurs espaces de stockage, appelés volumes physiques, pour ensuite découper cet espace global suivant la demande en partitions virtuelles appelées volumes logiques. Ce processus de virtualisation peut être vu comme une extension du modèle de partitionnement classique des disques dur.

15 Wine : application qui permet d'exécuter des applications Windows sur une plateforme Linux.

L'administrateur du serveur va utiliser un logiciel grâce auquel il va diviser un serveur physique (constitué ou non de plusieurs machines distinctes) en plusieurs

14

FIG. 2.-Virtualisation des stockages

1.4.4. Virtualisation des réseaux

De manière générale, la virtualisation des réseaux consiste à partager une même infrastructure physique (débit des liens, ressources CPU des routeurs,...) au profit de plusieurs réseaux virtuels isoles.

Un VLAN (Virtual Local Area Network) est un réseau local regroupant un ensemble de machines de façon logique et non physique. Puisqu'un VLAN est une entité logique, sa création et sa configuration sont réalisées de manière logicielle et non matérielle.

I.5. Avantages et Inconvénients I.5.1. Avantages

La virtualisation des serveurs consiste à masquer les ressources du serveur, c'est-à-dire le nombre et les caractéristiques de chaque machine physique, de chaque processeur et de chaque système d'exploitation pour les utilisateurs de ce serveur.

15

environnements virtuels isolés les uns des autres. Ces environnements isolés sont parfois appelés serveurs privés virtuels, hôtes, instances, containeurs ou émulations.

La virtualisation de serveurs s'inscrit dans une tendance globale qui tend à promouvoir la virtualisation au sein des entreprises en faisant notamment appel à la virtualisation de stockage et à celle de réseaux. Cette tendance est une composante dans le développement de systèmes autonomes16.

Un système est dit autonome si il est capable de s'autogérer sur base de l'activité qu'il perçoit, sans aucune intervention externe, et en conservant les détails de son implémentation invisibles pour l'utilisateur.

Au cours des dernières années, la virtualisation semble s'être imposée comme un élément incontournable au sein des entreprises et ce sont principalement les serveurs qui sont au centre de toutes les attentions.

La virtualisation présente les avantages suivants17 :

? Une optimisation de l'infrastructure : La virtualisation permet d'optimiser la charge de travail des serveurs physiques. En effet, il y a quelques années, la relation une application ? un serveur était encore largement répandue.

Cependant, comme le montre le schéma ci-dessous, cette relation introduit un gaspillage important des ressources puisqu'on estime que la charge moyenne d'un serveur se situe entre 5% et 15%.

 
 

Ev = Environnement

FIG.3-Rendement d'un serveur en l'absence de virtualisation FIG.4-Rendement d'un serveur en présence de virtualisation

16 http://www.linternaute.com/encyclopedie/recherche/?f_libelle=syst%E8me+autonome, 16 juin 2014, 19h11'

17 François Santy., « Projet de Recherche et Communication Scientifique », 2010, P. 7-10.

16

L'idée est alors de récupérer ces ressources disponibles afin d'en faire bénéficier d'autres applications. La virtualisation va apporter une solution éfficace.

Plutôt que de faire tourner une seule application sur le serveur physique, on va installer sur celui-ci plusieurs serveurs virtuels exécutant chacun une application bien précise, et c'est le logiciel de virtualisation qui se charge de répartir équitablement les ressources entre les différentes instances.

De cette manière, comme le montre la figure 4, on optimise le rendement de chacun des serveurs physiques.

? Une réduction de l'infrastructure physique et des économies d'énergies : Les centres de données sont d'importants consommateurs de ressources. VMware affirme qu'un serveur au repos consomme jusqu' à 30% du pic de consommation électrique et selon Intel, 36,4% de l'énergie est utilisée par les composants physiques des serveurs (processeurs, mémoire,...) tandis que les 63,6% restants sont consommés par les équipements de climatisation.

Ces chiffres sont interpelant et la virtualisation de l'infrastructure d'une entreprise doit devenir un de ses projets prioritaires. Puisque plusieurs applications peuvent à présent cohabiter de manière éfficace sur un même système, les entreprises vont pouvoir réduire le nombre de machines de leur centre de données en investissant à nouveau dans d'importants mainframes avec lesquels réapparait le modèle de centralisation de la puissance de calcul. Par conséquent, les entreprises font des économies en termes d'espace mais aussi en termes de frais de ventilation et d'alimentation.

La réduction des coûts d'alimentation et de refroidissement s'inscrit également dans une tendance générale à la promotion du respect de l'environnement.

Selon Gartner, une entreprise américaine de conseil et de recherche dans le domaine des techniques avancées, l'industrie informatique serait responsable de 2% des émissions mondiales de CO2. La virtualisation aurait permis d'économiser 5 milliards de kWh d'énergie électrique d'après les sources de VMware.

17

FIG. 5 - Centre de calcul distribué FIG. 6 - Centre de calcul centralisé

? Une reprise automatique lors des incidents : La virtualisation permet d'améliorer la prévention et la gestion des pannes ainsi que le plan de reprise de l'activité du système. En effet, les équipements virtuels étant constitués d'un ensemble de fichiers, il est très simple de les sauvegarder. Si un problème survient sur une machine physique, les fichiers qui ont été sauvegardés auparavant pourront rapidement être restaurés sur une autre machine physique, en attendant que la machine virtuelle initiale soit redémarrée.

? Une optimisation de la sécurité des données : Par la centralisation des ressources applicatives au sein du centre de données, la virtualisation contribue à sécuriser l'accès et l'usage des données de l'entreprise. Il est en effet beaucoup plus simple de contrôler l'accès aux données lorsqu'elles sont regroupées en un lieu que lorsqu'elles sont reparties sur l'ensemble des sites de l'entreprise, comme c'est le cas dans un modèle d'informatique distribué18. Il est néanmoins indispensable de disposer d'un système de synchronisation qui permettra de sauvegarder l'ensemble des informations sur un site extérieur. De cette manière, on limite les risques liés à la destruction du centre de donnée initial.

? Une facilité de migration : La virtualisation apporte la possibilité de migrer facilement un environnement virtuel d'une machine physique vers une autre, facilitant ainsi la mise à jour du centre de donnée ou le remplacement de matériel défectueux. De nombreux outils d'aide à la migration ont été

18 Modèle informatique distribué : Toutes les ressources ne se trouvent pas au même endroit ou sur la même machine.

18

développés .Ils peuvent être regroupés en 3 grandes catégories: P2V (Physical to Virtual), V2P (Virtual to Physical) et V2V (Virtual to Virtual).

Les outils P2V sont généralement utilisés dans les projets de virtualisation d'une infrastructure informatique. Ils consistent à convertir les serveurs physiques en serveurs virtuels.

Les outils V2P, permettent quant à eux de convertir des serveurs virtuels en serveurs physiques, ils sont peu demandés mais une telle fonctionnalité rassure les entreprises qui souhaitent utiliser de la virtualisation; elle leur permet, si elles le désirent, de faire marche arrière.

Enfin, les outils V2V, qui permettent de convertir des serveurs virtuels d'un format dans un autre, sont principalement utilisés au sein d'entreprises qui utilisent des gestionnaires de systèmes virtuels différentes.

? Flexibilité et compatibilité : La virtualisation est un outil éfficace en termes de flexibilité et de compatibilité. En effet, elle supprime toute dépendance entre une application donnée et l'aspect matériel de la machine sur laquelle elle est exécutée.

Il devient alors possible d'exécuter sur un système une application qui a été développée à destination d'un autre système.

? Un cloisonnement : Le développement d'une application s'accompagne nécessairement de phases de tests au cours desquelles le programmeur s'assure du bon fonctionnement et de la stabilité de son logiciel. Néanmoins, il est parfois risqué d'exécuter une application lorsque l'on n'est pas certain du résultat qui sera produit.

Pour réduire les risques liés à des applications peu fiables, la virtualisation peut être utilisée pour créer des environnements isolés et sécurisés qui vont servir de plateformes d'essai. Il devient dès lors possible d'itérer un grand nombre de fois un processus de test sans craindre de déstabiliser la machine physique sur laquelle s'exécute l'application.

19

I.5.2. Inconvénients

Malgré tous ces avantages, se lancer dans la virtualisation sans y avoir bien réfléchit, sans études et surtout sans plan de reprise d'activité (PRA) peut être fatal à votre système d'information.

V' La mise en oeuvre de la virtualisation induit une complexité de gestion. C'est une autre façon d'organiser son parc informatique, qui peut demander un temps d'adaptation.

V' Un autre problème se pose : la gestion des données. Comment en effet retrouver ses données quand elles sont partagées sur plusieurs disques physiques, mais stockées sur des volumes logiques? Il faut absolument faire une cartographie détaillée à un instant T de ses données.

V' Enfin, si la machine qui héberge tous les OS s'arrête ou si la montée en charge d'une application est flagrante, la situation peut vite tourner au cauchemar.

V' D'autant plus que la virtualisation masque souvent l'origine des pannes, notamment grâce aux fonctionnalités automatiques de répartition de charge, qui rendent les pannes quasiment invisibles, puisque le système continue de fonctionner quoi qu'il arrive. Mais si une panne plus importante survient, il devient alors très difficile pour l'administrateur de la localiser.

Pour une virtualisation redondante, il est donc capital de dupliquer les machines virtuelles. Dans tous les cas la virtualisation des serveurs n'est pas à prendre à la légère et doit être mûrement réfléchie.

I.6. Types de virtualisation I.6.1. Para virtualisation

Cette technique présente un logiciel en tant qu'intermédiaire entre le matériel et les systèmes d'exploitation invités19 et non un système d'exploitation. Les systèmes invités sont modifiés. Ils sont conscients du fait qu'ils sont virtualisés.

19 Système d'exploitation invité : système d'exploitation qui s'installe sur un hyperviseur.

20

L'application située entre le matériel est les systèmes invités est appelée VMM20 comme en virtualisation matérielle assistée. Ici on ne tire pas parti des instructions processeur liées à la virtualisation. Ce VMM aussi appelée hyperviseur est le plus simple possible afin d'avoir le minimum de pertes de performances. C'est lui qui est chargé d'appliquer la politique d'accès aux ressources matérielles pour les systèmes invités.

I.6.2. Virtualisation complète

La virtualisation complète consiste à émuler l'intégralité d'une machine physique pour le système invité. Le système invité « croit » s'exécuter sur une véritable machine physique.

Le concept de virtualisation complète est déjà bien ancré dans la littérature, mais ce n'est pas toujours ce terme qui est employé. La virtualisation partielle peut être confondue avec.

En virtualisation complète, la machine physique qui va émuler le matériel pour le système invité doit être dotée d'un OS ainsi que d'une surcouche applicative. Un des gros intérêts de cette technique de virtualisation est de pouvoir émuler n'importe quelle architecture matérielle. On peut donc faire fonctionner les OS que l'on désire indépendamment de l'architecture du système hôte. Il faut savoir que ce type de virtualisation n'est que logiciel, aucune fonctionnalité matérielle de virtualisation n'est utilisée.

I.6.3. Virtualisation par cloisonnement

Cette technique était au départ utilisé pour sécuriser et isoler des applications, sans rapport avec le fait d'isoler des systèmes d'exploitation. C'est seulement récemment que l'idée d'utiliser ces techniques pour la virtualisation a vu le jour.

C'est en effet une autre forme de virtualisation qui consiste tout simplement à isoler le fonctionnement d'un processus pour qu'il ait une vision limitée de son environnement sans tenir compte d'autres processus se trouvant sur le même système, en vue de sécuriser davantage le système.

20 http://en.wikipedia.org/wiki/Virtual_Machine_Manager, 18-juin-2014

21

I.6.4. Virtualisation assistée par l'hyperviseur

Ce type de virtualisation a pour but de faire fonctionner des systèmes invités dont les OS peuvent être différents mais non modifiés. La différence avec la virtualisation totale est qu'ici on tire pleinement partie du matériel et de sa puissance. La perte de performances est minimum particulièrement au niveau du processeur.

Cette technique de virtualisation a été récemment implantée dans les processeurs à base d'architecture x86 sous les noms de : technologies Intel-VTx (32 bits) et Intel VT-i (64 bits) pour Intel, de AMD-V pour AMD, Advanced Power Virtualization pour IBM et de Ultra SPARC T1 Hypervisor pour SUN.

Le but de ce type de virtualisation était de pouvoir faire fonctionner tout type d'OS non modifié de façon parallèle sur une même machine sans perte de performance.

22

Conclusion partielle

La virtualisation est une technique éprouvée qui aide les entreprises à rester rentables et compétitives. Si votre entreprise n'est pas familiarisée avec cette technologie, c'est le moment de profiter de ses avantages.

Outre les économies sur le matériel réalisées grâce à la consolidation, la virtualisation peut réduire votre encombrement informatique et ainsi permettre à votre entreprise de récupérer de la capacité (espace, alimentation et refroidissement) et aussi de différer des plans d'extension couteux.

Ses autres avantages incluent la simplification des tests et du développement, l'accélération du provisioning des ressources et de l'équilibrage de la charge de travail, et ce, tout en offrant une continuité de l'activité abordable.

23

CHAPITRE II : ETUDE DE L'EXISTANT ET SOLUTION

II.1. Introduction

Dans ce chapitre, il sera question de vous présenter tout d'abord nous cas d'étude, son infrastructure réseau, puis par la suite nous vous donnerons notre solution et surtout vous parler de l'outil qui nous a poussé et aidé en même temps à réaliser notre solution.

L'expérience de cette technologie peut se faire dans des réseaux qui existent mais aussi et surtout les réseaux qui sont sur le point de naitre. Dans notre travail, il sera donc question d'une infrastructure réseau qui existe déjà et qui sont les Services des Réssources Informatiques de l'UNILU, en sigle SRI

II.2. Présentation du réseau SRI II.2.1. Brève historique

Les services de ressources informatiques de l'Université de Lubumbashi a vu le jour en 2003. Il a commencé avec trois serveurs connectés à internet qui assuraient la permanence de la recherche scientifique pour les professeurs ainsi que les étudiants.

Très vite, par l'influence de la mondialisation, le SRI aboutit à un projet appelé « désenclavement ». Né dans le but d'ouvrir le monde universitaire aux IT (Informatique Technology), ce dit projet a été initié en 2003.

Pour aboutir, il bénéficie alors de la coopération Belge, et aboutie donc à sa réalisation proprement dite, par l'inauguration d'un cyber espace qui est le fameux cyber espace de l'UNILU mise à la disposition de ses enseignants et étudiants ; mais aussi l'inauguration des services informatiques datant du 5 février 2005.

C'est en cette date que son excellence Monsieur Armand DECKER, ministre de la coopération au développement du Royaume de Belgique, les a inaugurés en présence en présence de plusieurs personnalités de l'UNILU dont l'ex-recteur de l'Université de Lubumbashi.

24

précédent sommaire suivant






Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy








"Il existe une chose plus puissante que toutes les armées du monde, c'est une idée dont l'heure est venue"   Victor Hugo