WOW !! MUCH LOVE ! SO WORLD PEACE !
Fond bitcoin pour l'amélioration du site: 1memzGeKS7CB3ECNkzSn2qHwxU6NZoJ8o
  Dogecoin (tips/pourboires): DCLoo9Dd4qECqpMLurdgGnaoqbftj16Nvp


Home | Publier un mémoire | Une page au hasard

 > 

Réduction des coà»ts d'investissement avec la mise en place d'un environnement de virtualisation en production à  la DTAI

( Télécharger le fichier original )
par Cheikh Saadbouh Tall
Ecole Supérieure de Technologie et de Management de Dakar - Diplôme d'Ingénieur Technologue en Génie Logiciel et Téléinformatique 2006
  

précédent sommaire suivant

Bitcoin is a swarm of cyber hornets serving the goddess of wisdom, feeding on the fire of truth, exponentially growing ever smarter, faster, and stronger behind a wall of encrypted energy

PARTIE 3 : LA VIRTUALISATION

Partie 3

I. Les principes de la virtualisation

Le principe de virtualisation en informatique consiste en l'ensemble des techniques logicielles qui permettent de faire fonctionner sur une seule machine plusieurs systèmes d'exploitation séparément les uns des autres, comme s'ils fonctionnaient sur des machines physiques distinctes.

Nous verrons dans cette partie, dans un premier temps certains aspects techniques de la virtualisation. Ensuite nous nous intéresserons sur les différentes solutions proposées sur le marché, telles que Vmware ESX Server, Virtual PC de Microsoft ou Xen la solution Open Source en étudiant notamment leur intégration en environnement de production et en faisant leur étude comparative. Cette étude devrait aboutir au choix d'un outil pour notre environnement.

Ø Le principe de partage de serveur

Un serveur est un ordinateur utilisé à distance depuis différents postes de travail, ou autres périphériques. Il possède des ressources matérielles, principalement CPU, mémoire, disques et interfaces réseau. Ces ressources sont utilisées par des applications, non pas de manière directe, mais en s'appuyant sur un système d'exploitation. La virtualisation de serveurs est un ensemble de techniques et d'outils permettant de faire tourner plusieurs systèmes d'exploitation sur un même serveur physique. Le principe de la virtualisation est donc un principe de partage : les différents systèmes d'exploitation se partagent les ressources du serveur.

Pour être utile de manière opérationnelle, la virtualisation doit respecter deux principes fondamentaux :

§ Le cloisonnement : chaque système d'exploitation a un fonctionnement indépendant, et ne peut interférer avec les autres en aucune manière.

§ La transparence : le fait de fonctionner en mode virtualisé ne change rien au fonctionnement du système d'exploitation et à fortiori des applications.

La transparence implique la compatibilité: toutes les applications peuvent tourner sur un système virtualisé, et leur fonctionnement n'est en rien modifié. Pour ce qui est du cloisonnement, il existe bien sûr une interférence passive liée à la concurrence dans le partage des ressources. Mais nous verrons que ce partage peut être parfaitement contrôlé.

1-1. historique

C'est en France, dans les laboratoires d'IBM, à Grenoble, que les premiers travaux sur les machines virtuelles font leur apparition. Nous sommes alors en 1960 et Big Blue vient de créer son premier ordinateur avec une base logicielle commune, le System/360, qui pour la première fois n'obligera pas à changer tout le matériel (imprimante, carte. . .) lors de la prochaine évolution du processeur. Cela permettra également de conserver les programmes, sans avoir à en réécrire spécifiquement des parties. Cette première évolution sera continuée par la naissance du CP-40, considérée comme la première machine virtuelle. Le produit se transforma en VM/CMS. La suite logique donnée par IBM les conduira vers les mainframes qui virtualisent leur système d'exploitation. IBM étant à l'époque un vendeur de matériel, il ne pouvait alors pas faire davantage la promotion d'une technologie qui aurait permis au client d'économiser sur ses ventes. Par la suite, d'autres sociétés comme HP, avec ses PA-RISC ou IA64, ou encore Sun avec la série des E10K/E15K/E20K/E25K utiliseront la technologie de virtualisation.

Le système commercial le plus connu actuellement se nomme VMware, du même nom que la société qui le commercialise. C'est cette société qui popularisera auprès du grand public l'intérêt des machines virtuelles, que ce soit pour des tests ou de la production.

De nombreux outils libres et propriétaires existent aujourd'hui, nous en citeront quelques uns pour nous attarder plus particulièrement sur VMware Infrastructure 3, l'outil de virtualisation orienté production, commercialisé par la société VMware.

1-2. usages

Tout comme nous l'avons vu, l'usage premier n'est pas récent et concernait les grands constructeurs de matériels et de systèmes. C'est cependant avec l'explosion d'Internet que la technologie de virtualisation verra de nouveaux utilisateurs. En effet, les premiers ordinateurs personnels grand public, comme ceux d'Atari et Amstrad verront une communauté intéressée à retrouver leurs anciens programmes ou jeux. Il en va de même pour les émulateurs de console de jeux.

C'est plus récemment que le monde de la production revient à cette notion, par besoin de rationalisation des coûts et des usages. Ainsi, le développement et la mise en production sont facilités par le seul déplacement des machines virtuelles. Des tests peuvent dès lors être effectués sans avoir peur de casser le système hôte. Les nouveaux systèmes sont de simples copies logicielles des systèmes de base.

En termes de sécurité, toute attaque peut être limitée à l'hôte virtualisé, rendant de ce fait l'attaque dans un environnement clos. Pour finir, une meilleure gestion de la puissance des processeurs et de la mémoire peut être envisagée.

II. Les différentes familles de virtualiseurs

La virtualisation peut se présenter sous différentes formes, que ce soit de manière matérielle, par une émulation de machine complète, le partage de ressources via un isolateur, ou encore des applications virtuelles, tout comme le permet la technologie java avec sa fameuse machine virtuelle. Nous présentons dans cette section les différents types de virtualisation qui étaient à notre disposition et ce qui a orienté le choix de la solution.

2-1. théorie

Avant de découvrir les différents types de virtualisation qui existent, il est nécessaire d'expliquer les espaces d'exécution, communément appelés ring. Les rings ou anneaux sont des espaces protégés, mis à disposition par le processeur. Le niveau de sécurité s'étend du plus sécurisé, appelé le Ring0 au plus permissif Ring3, tout comme nous le montre la figure 3.2.1

FIG. 3.2.1 - Concept des anneaux

De ce fait, lorsqu'une application se trouve par exemple dans le Ring3, elle doit faire appel à une instruction spéciale pour pouvoir utiliser un périphérique qui se trouverait dans une couche inférieure. Typiquement, les processeurs de type X86 possèdent quatre anneaux. La plupart des systèmes fonctionnant sur ces processeurs n'emploient que deux de ces anneaux, le Ring0 appelé kernel land et le Ring3 nommé user land.

2-2. isolateur

La généralisation des logiciels de virtualisation répond à un besoin, mais aussi à une demande. Ces technologies, incluses directement au coeur des processeurs, sont axées sur l'administrabilité et la sécurisation.

L'isolation est issue du procédé de la mise en place d'un niveau de virtualisation du système d'exploitation. Ainsi, le noyau, la mémoire, le CPU peuvent être partagés. L'application lancée dans un contexte, également appelé zone d'exécution, ne connaîtra que les applications lancées dans le même contexte.

FIG. 3.2.2 - Architecture d'un isolateur

L'isolateur se présente sous la forme d'un patch pour le noyau et gère le partage de la mémoire, du CPU et s'assure qu'un utilisateur ou une application ne pourra pas sauter d'un contexte vers un autre contexte. En ce sens, l'utilitaire chroot ne peut pas être considéré comme un isolateur, puisque son action consiste uniquement à changer le chemin de la racine. Le schéma 3.2.2 montre la place de l'isolateur au sein du système, avec l'exécution en userspace des applications et la présence d'un logiciel de contrôle. Les produits disponibles sur le marché sont Linux-Vserver, BSD Jails ou OpenVZ.

2-3. noyau en espace utilisateur

Il est possible de considérer un noyau comme une application. C'est la solution de virtualisation proposée par exemple par User Mode Linux ou encore coopérative linux. Dés lors l'accès au matériel ne s'effectue plus que par un dialogue avec le noyau de l'hôte. Cette solution est donc assez restrictive en terme de capacité d'interaction puisque le noyau n'est alors plus utile que pour la gestion des applications qui seront au dessus de lui.

FIG. 3.2.3 - Architecture dans l'espace utilisateur

Il est préférable d'utiliser cette solution dans le cadre de développement de nouveaux noyaux, ou alors pour installer un système d'exploitation dans un environnement à droit restreint, où l'utilisateur pourrait installer des applications, mais ne pas supprimer le système existant.

2-4. machines virtuelles

La machine virtuelle constitue le mode de virtualisation le plus connu, puisque popularisé auprès du grand public, par l'intermédiaire de la société VMware. L'idée avancée est de reconstituer un environnement complet, y compris le matériel et de mettre à disposition une plate-forme complète de virtualisation, capable de supporter différents environnements simultanément.

FIG. 3.2.4 - Architecture d'une machine virtuelle

Bien que cette solution soit plébiscitée du public, elle demande néanmoins de grosses configurations matérielles afin de supporter la reconstruction matérielle, en surcouche d'un système d'exploitation, déjà consommateur de ressources. Les logiciels libres connus pour cet usage sont QEMU, Virtual-Box, Xen, etc. Dans le domaine propriétaire nous avons Virtual PC de Microsoft, VMware Workstation de VMware, pour ne citer que ceux là.

2-5. Hyperviseur

L'hyperviseur est une couche directement posée au-dessus du matériel. C'est un noyau optimisé pour la gestion directe de systèmes d'exploitation. Ainsi, contrairement aux autres méthodes, il n'y a pas de latence due à un système hôte. Les surcouches sont elles aussi, normalement, optimisées pour fonctionner avec l'hyperviseur. Les résultats sont donc optimaux.

L'approche adoptée par VMware pour la virtualisation consiste à insérer une fine couche de logiciel directement sur le matériel informatique ou sur un système d'exploitation hôte. Cette couche logicielle crée des machines virtuelles et contient un moniteur de machine virtuelle ou « hyperviseur » qui alloue les ressources matérielles de façon dynamique et transparente, ce qui fait que plusieurs systèmes d'exploitation sont en mesure de fonctionner simultanément sur un seul ordinateur physique sans même le savoir.

FIG. 3.2.5 - Architecture d'un hyperviseur

2-6. Choix de l'outil de virtualisation

Comme nous l'avons déjà évoqué, notre travail se base uniquement sur les outils supportant la production. De ce fait, nous pouvions nous porter sur les logiciels suivants :

- ESX server de VMware

- Virtual Server de Microsoft

- XenSource de Xen récemment racheté par Citrix.

Chacune des technologies a ses avantages et ses inconvénients. Les deux grands éditeurs qui se partagent actuellement le marché sont Microsoft et Vmware.  Microsoft propose leur logiciel Virtual Server  et Vmware son logiciel Vmware ESX server. Xen est la concurrente Open source mais il est non compatible avec les systèmes Microsoft Windows. De ce fait il ne sera pas trop utilisé dans ce comparatif.

2.6.1. Système d'exploitation hôte

Le premier point rencontré dans ce comparatif est le système hôte des machines virtuelles. En effet, Vmware ESX va proposer par défaut une Red Hat 7.2 alors que son concurrent Microsoft va se baser sur ces propres systèmes d'exploitation. 
La solution Vmware sera donc plus abordable pour des raisons de stabilité et de sécurité.

2.6.2. Sécurité et redondance

Un deuxième point constaté, va être au niveau de la redondance des serveurs virtuel. En effet, en cas de panne physique du système hôte, la solution Microsoft doit être configurée en cluster pour obtenir une continuité de services. A l'inverse, la solution Vmware va proposer des outils  (Vmotion, Vmware HA et Vmware DRS) qui vont permettre la migration d'un système virtuel vers un autre système hôte en toute transparence pour l'utilisateur.

Source : http://www.vmware.com/products/vi/

La solution proposée par Vmware est donc beaucoup plus simple puisque la redondance va être indépendante de la configuration du système virtuel a l'instar de Virtual Server qui va être obligé d'être configuré en cluster.

2.6.3. Gestion des ressources physiques

La gestion de l'allocation mémoire et CPU va aussi être mis a défaut dans la solution Microsoft. En effet, Virtual Server ne permet pas d'allouer un processeur physique à une machine virtuel et la gestion de la mémoire n'en est que moins facilité. Son concurrent Vmware va par contre proposer une formule de gestion des ressources CPU avec en outre l'outil Virtual SMP qui va permettre l'allocation de 2 CPU physiques a une seule machines virtuel.

Source : http://www.vmware.com/products/vi/

On peut donc constater sur le schéma ci-dessus que chaque machine virtuelle peut se voir appliquer un nombre différent de processeur physique ou virtuel.

2.6.4. Le stockage

Sur la question du stockage, la solution Vmware va être beaucoup plus performante puisque Vmware va émuler pour chaque machine virtuelle un port Gigabit ainsi qu'un pilote LSI Ultra 320 SCSI. A l'inverse, Virtual Server ne va proposer qu'un port réseaux Fast Ethernet ainsi qu'un pilote SCSI générique. Pour l'architecture du stockage, les 2 éditeurs recommande des architecture SAN redondantes afin d'éviter toutes pertes de donnés concernant les images des disques virtuelles.

Source : http://www.vmware.com/products/vi/

2.6.5. Performance

Les deux solutions sont équivalentes au niveau performances mais d'après certains tests effectués par des laboratoires de recherches, la solution de l'éditeur Vmware aurait un léger avantage dans des conditions mono-applications du a des options de configuration tel que Vmware SMP.

2.6.6. Prix

Source : http://www.supinfo-projects.com/fr/2006/virtualisation%5Fprod/3/

A savoir que Vmware propose des packs tout compris  VIN (Virtual Infrastructures Nodes) comprenant la License ESX, l'extension SMP biprocesseur, l'agent Virtual Center et le module Vmotion.

2.6.7. Temps de lancement

Au-delà de nos besoins, nous pouvons regarder aussi les résultats obtenus par International Data Corporation (IDC), une société américaine réalisant des études de marché dans son étude sur la virtualisation. Les résultats obtenus pour VMware peuvent être considérés identiques pour XenSource, la technologie étant similaire, sauf sur certains points dont nous allons mettre l'accent.

 

Lancement à froid

Lancement à chaud

ESX Server (50 VMs)

460s

30s

Virtual PC (50 VMs)

1040s

160s

Xen(50 VMs)

860s

860s

TAB. 3.2.1 - Comparaison des temps de lancement à froid et à chaud de 3 outils de virtualisation les plus matures

Ce premier tableau 3.2.1 montre des différences lors de la première initialisation, appelée lancement à froid, puis lors de démarrage alors que les bibliothèques sont déjà en mémoire. L'étude sur XenSource, ESX Server de VMware et virtual PC se limite à 50 instances ou machines virtuelles. On constate qu'ESX Server démarre plus rapidement que les autres outils et gagne 1500% de temps de chargement lorsque ses bibliothèques sont déjà présentes.

Les expériences relatées dans les graphiques 3.2.6.1 et 3.2.6.1 (voir page suivante) se fondent sur l'observation de la charge issue de l'utilisation d'une application au sein d'un outil de virtualisation en comparaison avec la charge de la même application sur un hôte nu. Le premier graphique montre très clairement que la technologie de l'isolateur utilise énormément le CPU avec une courbe qui tend vers une exponentielle. L'hyperviseur reste très proche de la charge théorique.

Concernant la surcharge mémoire, la figure 3.2.6.1 montre un comportement erratique de l'outil Virtual Server, alors que les résultats des hyperviseurs ESX Server et XenSource restent toujours aussi proches de la théorie. Tout comme lors de l'analyse du CPU, l'application dans l'isolateur consomme d'autant de mémoire qu'il y a de machines virtuelles lancées.

FIG. 3.2.6.1 - Charge du CPU en fonction du nombre de VM

FIG. 3.2.6.2 - Charge de la mémoire en fonction du nombre de VM

2.6.8. Conclusion

Nous venons de voir qu'il était possible de virtualiser de différentes manières, mais que chacune d'entres elles avait ses avantages et ses inconvénients et qu'elles ne convenaient pas à tous types d'utilisation. Il nous est alors apparu que les avantages étaient prépondérants.

Dans ce contexte, le choix du type de technologie et de l outil de virtualisation adéquat nécessite une analyse comparative. Ainsi, la virtualisation complète (mise en oeuvre par VMware et Microsoft), avec laquelle même les cartes réseaux et les disques sont virtuels, permet plus facilement de reproduire à l'identique un environnement de production existant. A l'inverse, la paravirtualisation n'assure pas une totale indépendance entre couche matérielle et virtuelle.

En tirant partie des résultats résultant de la comparaison des outils, mais également en considérant les besoins de la D.T.A.I., les logiciels ESX Server et XenSource semblent convenir à notre projet. Cependant, il s'avère utile d'avoir des noyaux spécifiques, utile également d'avoir accès à différents systèmes d'exploitation, puisque nous travaillons dans un environnement de production. L'usage requiert une séparation et de la sécurité entre les différentes machines ou contextes. Pour tout cela, notre choix se porte sur ESX Server de VMware qui s'avère également plus simple dans son administration et moins gourmand en espace disque.

III. WMware Infrastructure 3

3-1. Utilisation de VMware infrastructure 3

VMware Infrastructure est la suite logicielle la plus largement déployée pour optimiser et gérer par la virtualisation des environnements informatiques standard. Seule sur le marché dans la catégorie des suites logicielles de virtualisation à supporter la production, VMware Infrastructure a fait la démonstration de ses résultats chez plus de 20 000 clients de toute taille, et ce dans des environnements et pour des usages très divers.

Totalement optimisée, la suite VMware a subi des tests minutieux et sa compatibilité a été certifiée avec une très large gamme de matériels, de systèmes d'exploitation et d'applications logicielles. VMware Infrastructure offre des capacités intégrées de gestion, d'optimisation des ressources, de disponibilité des applications et d'automatisation des opérations. Ces atouts se traduisent par des économies considérables, une efficacité opérationnelle accrue, une réelle polyvalence et une hausse des niveaux de service.

De plus en plus d'entreprises adoptent la virtualisation qui permet de réduire le coût de l'infrastructure. La virtualisation est une solution très en vogue chez les entreprises comme chez les particuliers. Et une étude récente vient confirmer cette tendance: 75% des sociétés profiteront ou déploieront des serveurs de façon virtuelle d'ici un an.

Les deux produits les plus utilisés pour la virtualisation dans le grand public et dans l'univers de l'entreprise sont VMWare ESX Server et Microsoft Virtual Server. Ils détiennent d'ailleurs 75% de parts du marché.

Les données publiées sur internet concernant cette technique indiquent que l'optimisation de l'utilisation des ressources technologiques est l'une des principales préoccupations des entreprises actuellement. Les solutions de VMware répondent tout à fait à ce besoin aujourd'hui.

D'après VMware, En janvier 2008, plus de 2,2 million de copies de VMware ESX Server avaient été téléchargées, à environ 70 % par les grandes entreprises. Lorsque ces clients déploient un environnement de machines virtuelles, ils doivent pouvoir gérer plus efficacement leurs ressources informatiques. C'est là que VMWARE INFRASTRUCTURE 3 intervient.

Ainsi nous verrons dans cette partie du mémoire la solution de virtualisation proposée par VMware, celle sur laquelle nous avons porté notre choix dans le cadre de cette étude : VMware Infrastructure III

3-2. Les points forts de VMware Infrastructure 3

L'utilisation de cette technologie apporte à l'infrastructure de nombreux avantages et favorise un retour sur l'investissement rapide :

Ø L'utilisation des ressources des serveurs, n'est pas souvent exploité de manière optimale, ainsi, l'utilisation d'un serveur  ESX permet gérer ou héberger plusieurs machines virtuelles et  d'utiliser au mieux la puissance du processeur.

Ø Un serveur ESX peut remplacer une série de serveur, en parallèle une analyse de la charge de travail des serveurs du SI, devra être effectuée afin de déterminer le nombre de machine virtuelle que pourra supporter chaque serveur ESX.

Ø Le  Fail Over est géré de manière automatique, en effet les machines virtuelles peuvent être déplacées sur n'importe quel serveur ESX de l'infrastructure.

Ø Diminution importante des coûts de maintenance sur le Datacenter (administration, électricité, sécurité, etc.),  cela sera surtout du, à la diminution du nombre de serveur et à l'administration centralisé permise par virtual center. 

Ø Administration du Datacenter optimisée  avec VirtualCenter, optimisation des ressources matérielles sans coupure de service.

Ø Visualisation rapide et optimisée des performances, VI client permet d'afficher des graphiques de performance.

Ø VI3 permet de réaliser des économies mesurables en termes d'investissement.

Ø Augmente le taux d'utilisation du matériel et réduit les besoins dans ce domaine, grâce à des ratios de consolidation de serveurs dépassant fréquemment 10 machines virtuelles par processeur physique.

Ø Réduit le coût de l'espace occupé par les racks et de leur alimentation en proportion du ratio de consolidation réalisé.

Ø Réduit les frais liés aux interventions humaines en simplifiant et en automatisant les procédures informatiques qui monopolisent la main d'oeuvre et les ressources au sein d'environnements accueillant des matériels, des systèmes d'exploitation et des logiciels hétérogènes.

Ø VMware Infrastructure améliore la réactivité, la facilité de service, la disponibilité et la flexibilité de l'infrastructure informatique.

Ø Permet une disponibilité des applications et une continuité de service étendues et économique quels que soient les matériels et les systèmes d'exploitation.

Ø Assure le fonctionnement permanent et la maintenance sans perturbation des environnements informatiques, avec migration à chaud de systèmes complets en cours d'exécution.

Ø Permet aux systèmes existants de cohabiter avec de nouveaux environnents.

FIG 3.3.1 - Principe de Virtual Infrastructure 3

3-3. Quelques spécifications techniques :

· Support des technologies iSCSI et NAS

· Support des technologies quadri sockets

· VMFS 3 qui permet d'adresser des volumes jusqu'à 64 To

· Virtual SMP permet d'utiliser jusqu'à 4 processeurs simultanément, maximum mémoire porté à 16 Go par VM et 64 Go par serveur.

· Nouveaux modules HA (High Availability), DRS (Distributed Ressource Scheduler) et Consolidated Backup

· Support de Solaris 10 32 bits

· Support limité des systèmes d'exploitation 64 bits

3-3. L'architecture de Virtual Infrastructure 3

a) ESX SERVEUR : un serveur orienté production, un nouvel environnement de travail

L'architecture d'ESX est complètement différente des deux autres architectures présentées précédemment. Elle n'a pas besoin du système d'exploitation de la machine physique. C'est la plateforme ESX qui joue le rôle de système d'exploitation. De ce fait, l'architecture est nettement plus allégée, permettant aux espaces virtuels, dans lesquels vont évoluer les serveurs virtuels, d'être beaucoup plus optimaux.

FIG 3.3.2 : architecture ESX Server

La couche ESX comprend un OS UNIX, adapté spécifiquement à la gestion de machines virtuelles. Elle permet de relier, de la manière la plus directe possible, le hardware de la machine physique aux serveurs virtuels.

ESX a tiré de nombreux avantages de cette architecture, que ce soit d'un point de vue de gestion des processeurs, de réseaux ou d'accès disques.

ü Puissance de calcul

La structure d'ESX permet de faire fonctionner physiquement plusieurs processeurs pour une machine virtuelle.

Comment cela marche ?

Un système d'exploitation a pour but d'allouer et de gérer des ressources pour différents processus et threads voulant s'exécuter sur la machine. Si nous voulons faire tourner un OS traditionnel sur un autre OS traditionnel, il existe une double gestion des ressources. Les systèmes d'exploitation ne sont pas, à l'origine, prévus pour cela et de ce fait, ils se comportent comme les seuls maîtres à bord. Il est donc nécessaire de séparer leur champ d'activité en simulant une interface physique qui supportera la machine virtuelle et qui se comportera, à la vue du système hôte, comme un service classique. C'est ce que font VS et GSX. Cependant, ces produits doivent trouver un ensemble de ruses pour faire cohabiter deux environnements qui n'ont pas été fait pour cohabiter ensemble. Ce qui les contraint à ne pas pouvoir offrir aux machines virtuelles de pouvoir travailler sur deux processeurs et de ne pas pouvoir être connecté directement à un San.

ESX Server, quant à lui, est un système qui a été créé spécifiquement pour supporter des machines virtuelles. Il a donc été conçu de telle manière à ce qu'il n'y est pas double emploi.

ü Le réseau

ESX Server donne la possibilité d'étendre les stratégies de Vlans au coeur même de son système.

  Les Vlan consistent à segmenter un réseau pour regrouper des machines ayant des fonctions similaires ou un besoin de sécurité commun.

Traditionnellement, ce sont les équipements réseau qui s'occupent de la segmentation réseau. Dans le cas de gestion de serveurs virtuels, si l'ensemble de ces derniers est connecté à plusieurs Vlans différents, il sera nécessaire d'installer un certain nombre de cartes sur le serveur, posant un problème de configuration physique et de coûts.

Pour se faire, ESX gère une technologie appelée 802.1Q qui permet de faire véhiculer plusieurs Vlan sur un même média en gardant l'intégrité du Vlan.

Il est important de noter que, pour que cette technologie fonctionne, il est impératif que le commutateur ou routeur, connecté à cette interface, prenne en charge la même technologie (802.1Q).

ü Gestion des disques

ESX serveur, grâce à son architecture, nous permet de connecter directement les machines virtuelles aux disques SAN. Il s'agit d'une option importante, qui n'est pas disponible sur les autres technologies de virtualisation. Pour rappel, ces autres technologies permettent au serveur hôte de stocker les disques virtuels sur leurs propres disques SAN. On peut donc s'attendre, avec la technologie ESX, à un gain de performance. ESX offre, également, de la même manière que VS et GES, la possibilité de stocker les disques en utilisant des fichiers stockés en local dans un répertoire de la machine hôte.

ü Gestion du serveur

Par défaut, le serveur s'administre à l'aide d'une interface Web qui s'installe automatiquement lors de l'installation du serveur. Cette interface est relativement conviviale et ergonomique. Toutes les fonctionnalités sont accessibles depuis cette interface, à l'exception du basculement d'un serveur virtuel en état de marche d'une machine à l'autre, qui elle est accessible à partir de Virtual Center.

Status Monitor : permet de faire un listing des machines hébergées avec les ressources qu'elles occupent. Il est également possible, grâce à cette interface, de modifier le statut des machines virtuelles. En cliquant sur une machine, on accède à ces propriétés.

Memory : permet d'avoir accès au détail de l'utilisation des ressources mémoire.

Option : est une page qui permet de faire le lien avec les différentes interfaces de gestion du serveur ESX, comme la gestion du réseau virtuel, l'arrêt et le redémarrage de la machine, la gestion matérielle, etc.

Cependant, lors de l'utilisation de cette interface, nous avons pu constater deux défauts. Premièrement, il n'existe pas de statistiques. Il n'est donc pas évident de statuer sur la charge que subit le serveur quotidiennement. Et deuxièmement, l'interface réveille des temps de chargement relativement longs.

Pour palier à cela et pour proposer un management globalisé, VMware a mis au point un serveur de management de ses produit : VMware Virtual Center. Cette solution est commenté un peu plus loin dans ce mémoire.

b) VMware Virtual Center et VMotion

Un des plus gros risque de la virtualisation est d'oublier la base physique. Si le serveur physique s'arrête, il entraîne l'arrêt de l'ensemble des serveurs virtuels hébergés.

Pour assurer une fiabilité suffisante en production, deux serveurs ESX sont nécessaires. La cerise sur le gâteau est la disponibilité de VMotion.

FIG 3.3.3 - Principe de VMotion

Avec VMotion, le déplacement à chaud de serveur virtuel d'un serveur physique ESX sur un autre serveur physique ESX devient réalité. Un serveur virtuel migre d'un serveur ESX sur un autre serveur ESX tout en étant connecté sur le serveur qui se déplace. Cela s'explique par le mécanisme de pagination de la mémoire d'un serveur ESX et la capacité de VMFS d'accepter des accès concurrents.

VMotion représente un changement supplémentaire de paradigme, le serveur physique avec VMware ESX devient lui-même virtualisé !

Cependant nous signalons qu un certain environnement est nécessaire pour VMotion:

Ø 2 serveurs certifiés avec une architecture de processeur identique (Intel ou AMD (voir les caractéristiques en page 54).

Ø Une connexion réseau Gigabit Ethernet (c'est-à-dire au moyen de fibres optiques ou de câbles à paire torsadée ordinaires à une vitesse pouvant atteindre 1000 mégabits par seconde) dédiée pour le réseau VMotion sur chaque serveur.

Ø Le logiciel Virtual Center.

Ø Et deux licences de VMotion

Ne disposant pas de cet environnement, nous n'avons pas pu encore tester ces fonctionnalités.

Virtual Center for VMware Server permet de centraliser la gestion de serveurs VMware. Il apporte une solution aux problèmes que les entreprises rencontrent aujourd'hui dans la gestion de leur infrastructure informatique, leur permettant ainsi :

Ø De renforcer l'utilisation de leurs serveurs existants et de limiter l'achat de nouveaux équipements.

Ø D'effectuer des provisionnements de serveurs rapides.

Ø D'offrir une gestion centralisée de leur environnement informatique à partir d'une interface unique

FIG 3.3.4 : Principe de Virtual Center

c) VMware DRS (Distributed Ressource Scheduler)

VMware DRS est une option qui conseille à l'administrateur le meilleur positionnement des VMs sur tel ou tel serveur physique en fonction des ressources disponibles dans le cluster. Si une migration est recommandée, VMotion est utilisé pour transférer la VM sur un autre serveur physique. Les migrations peuvent être entièrement automatisées ou être totalement manuelle.

FIG 3.3.5 - principe de DRS

d) VMware HA (High Avalaibility)

Cette option permet de surveiller les machines virtuelles, si l'une d'elles s'arrête (perte d'un serveur ESX physique), HA redémarre automatiquement la VM sur un autre serveur ESX. Cette opération dure moins de 3 minutes plus le temps de démarrage de la Virtual Machine.

Figure 3.3.6 - principe de HA

e) VMware Consolidated Backup

Consolidated Backup est l'outil de sauvegarde de VMware. Les sauvegardes sont effectuées directement sur le SAN (Storage Area Networking), sans charger les serveurs ESX. Cette option nécessite un serveur relais de sauvegarde connecté au SAN.



FIG 3.3.7 - Principe de VCB


Cette façon de sauvegarder est la seule réellement efficace avec VMware infrastructure (VI3) car les machines virtuelles peuvent changer de serveur physique. VCB (Virtual Consolidated Backup) utilise le serveur VC (Virtual Center).

IV. Les inconvénients de la virtualisation

Bien qu'elle soit très avantageuse, la virtualisation présente quelques inconvénients :

4.1. Le coût

Le premier inconvénient de la virtualisation est le coût en termes de licence. En effet, une architecture complète Vmware pour deux processeurs, revient à environ 5 000€ auquel se rajoute 3 000€ par lot de deux processeurs. Il est donc indéniable que pour rentabiliser ce coût, l'infrastructure doit être déployée sur une grande échelle.  Il existe aujourd'hui des technologies similaires à Vmware dans le domaine de l'open source (Xen) mais qui sont beaucoup plus complexe à mettre en oeuvre demandant des compétences spécifiques. Le coût de ces compétences sera du coup largement supérieur aux coûts de licensing  des produits Vmware. Les produits Microsoft sont aussi une alternative a Vmware mais nécessite une license pour le système hôte.

4.2. Evolution matériel

La virtualisation de serveurs implique aussi une refonte du parc matérielle. En effet, elle va impliquer une augmentation conséquente de la puissance des machines physique hôte. En prenant le cas de la mémoire vive des machines. La mémoire, au lieu d'être repartie sur chaque machine se verra donc rassembler sur une seule machine physique : le serveur hôte. Il ne serra donc pas étonnant se voire des machines dotées de plus de 4Giga de mémoires vives remplirent le rôle de serveur hôte.

4.3. Migration Physic to virtual (P2V)

La complexité des processus de virtualisation de machines physiques peut être aussi mise en avant.  Les processus P2V (Physique To Virtual) doivent être réalisés au cas par cas.  En effet, chaque application ne va pas se comporter de la même manière lors de ces processus. Ceci peut donc être inconvénient dans le cadre d'une migration vers une infrastructure virtuel.

4.4. Consommation des systèmes

Le dernier inconvénient est la consommation des systèmes de virtualisation. VMware a proprement parlé va consommer en permanence 5 a 10% des ressources CPU de la machines physique hôte. Ceci peut être un problème en cas de surcharge des besoins en ressources de la part des machines virtuel. Ce problème peut être résolue grâce a la flexibilité de l'architecture virtuel et en anticipant ce genre de montée des besoins en puissances.

Conclusion

En tirant partie des résultats résultant de la comparaison des outils, mais également en considérant les besoins de la D.T.A.I évoqués plus haut, les logiciels ESX Server et XenSource semblent convenir à notre projet. Cependant, il s'avère utile d'avoir des noyaux spécifiques, utile également d'avoir accès à différents systèmes d'exploitation, puisque nous travaillons dans un environnement de production. L'usage requiert une séparation et de la sécurité entre les différentes machines ou contextes. Pour tout cela, notre choix se porte sur ESX Server de VMware qui s'avère également plus simple dans son administration et moins exigent en espace disque.

Nous essayons ici de faire un tableau comparatif des outils de virtualisation les plus évolués :

 

 

 

 

 

VMware
Infrastructure 3

Microsoft
Virtual Server 2005 R2

Xen

Utilisation cible

- Consolidation d'environnements hétérogènes (Windows, Linux, Novell)

- Consolidation d'environnements hétérogènes (Windows, Linux, Novell)

- Consolidation d'environnements "libres" (majoritairement Linux) sur une même machine physique, pour du maquettage ou prototypage
- Il est nécessaire d'avoir un support IntelVT ou AMDv

Mise en place & utilisation

- CD + assistant d'installation
- S'installe directement sur le matériel comme un OS
- Utilisation via interface Web sécurisée
- Installation via scripts

- CD + assistant comme sur-couche à Windows Server 2003
- Utilisation via interface Web sécurisée

- Package binaire ou code source
- S'installe comme sur-couche à Linux (modification du noyau + binaire)
- Pas d'inteface Web, administration et utilisation en CLI
- Les distributions Suse et Red Hat fournissent des outils d'integration et d'interface à Xen (redhat 5, Suse10,2)

Compétences requises

- Compétences Linux recommandées

- Compétences Windows Server 2003 et/ou Linux

- Très bonnes compétences Linux

Overhead

- 5 à 10 %

- 10 à 20 %

- 2 à 3%

OS hôte

- Possède son propre noyau

- Exclusivement Windows Server 2003 en production et Windows XP en test

- Linux + noyau Xen

Virtualisation des machines linux

- Oui

- Oui

- Oui

Performances


- Systèmes optimisé avec noyau de virtualisation propriétaire

- Jusqu'à 62 machines virtuelles
- Sur-couche de MS Windows Server 2003

 - Très bonnes performances en terme de CPU et de RAM (utilisation directe de la mèmoire physique) et  performance Réseau en générale plus faible

Support

- Supporté dans les environnements Windows, Linux et Novell + application de 60 partenaires

- Supporté dans les environnements Windows et Linux

- Via les moyens classiques : forums, sites web etc.
- Achat d'un support XenSource

Support iSCSI

- Oui (non pour ESX 2.5)

- Oui

- Oui

Haute disponibilité

- Partage d'un même volume disque SAN entre plusieurs serveurs VMware ESX
- Création de clusters de machines virtuelles sur plusieurs serveurs VMware
- VMware HA
- DRS
- Consolidated backup

- Version R2
- Host Clustering : mise en cluster de 2 Virtual Server
- Support de l'iSCSI : accès possible à un SAN, NAS ou une baie de disques via réseau IP

- Supports de l'iSCSI, NAS, SAN etc. tous les espaces de stockage accessibles depuis une machine Linux

Gestion des entrées/sorties

- Pilote Gigabit pour chaque VM

- Pilote Fast Ethernet Standard
- Version 2005 R2 jusqu'à 50% plus rapide que la version précédente

- Périphériques gérés par le noyau XenU

Gestion de 2 CPU par  machine virtuelle

- Possible avec option SMP

- Non

- Intégré

Gestion dynamique des machines virtuelles

- Par l'utilisateur pour RAM, espace disque, réseau et CPU
- Réallocation de machines virtuelles entre CPU possible. Version 3.0 gère 16 Go de RAM et 4 CPU par VM

- Par l'utilisateur pour RAM, espace disque, réseau et CPU
- Par OS Windows pour le reste
- Gestion des OS Linux dans les machines virtuelles

- Gestion dynamique de la mémoire et des CPU virtuels

Hyperviseur inclus

- Oui

- Oui

 

Gestion Intel VT & AMD Pacifica

- Oui (non pour ESX 2.5)

- Service Pack prévu sorti depuis le 2nd trimestre 2006

- Intel-VTx intégré depuis Xen 3.0

Extensions

- VirtualCenter, VMotion, Module de Fail-Over natif

- MOM (Administartion Pack)
- Projet Carmine

 

Migration à chaud

- A l'intérieur d'une même famille de processeurs
- VMotion (non pour la 2.5)

- Via l'implémentation d'un cluster dans l'OS Windows 2003 hôte

- Oui

précédent sommaire suivant


















World Family Special Ops of the Day: