Magic Quadrant for x86 Server Virtualization Infrastructure

Par défaut

Toujours en haut et à droite!

80% des workloads sont considérés comme virtualisés par le Gartner en 2016.

Selon Gartner, «la virtualisation (sous la forme de virtual machine et conteneurs) est un outil fondamental pour IaaS, et indispensable pour créer des services de Cloud privé, des services de Cloud public et des services d’interopérabilité pour le Cloud Hybrid. En effet, toutes les offres IaaS comptent sur les machines virtuelles ou de la technologie de conteneurisation ».

Magic Quadrant 2016 de Gartner sur la virtualisation des serveurs X86

quadrantMagic2016_myvmworld

source Gartner 2016

 

Magic Quadrant 2015 de Gartner sur la virtualisation des serveurs X86

server_virtualisation_magic_quadrant_2015_myvmworld

Source : Gartner 2015

 

Magic Quadrant 2014 de Gartner sur la virtualisation des serveurs X86

Selon le Gartner:

Au moins 70% des workloads (charge de travail) de serveurs x86 sont virtualisés, le marché est donc mature et concurrentiel, et les entreprises ont le choix entre plusieurs solutions éprouvées. Certaines entreprises évaluent à la fois les avantages et les coûts de migrations d’une solution à une autre et aussi à mesurer les avantages du déploiement de technologies de virtualisation hétérogène.  

Selon Gartner, VMware continue de dominer le marché en termes de parts de marché. La version vSphere 5.5 sortie en septembre 2013 a apporté encore de nouvelles fonctionnalités avec l’arrivée du SDS Software Defined Strorage VSAN, vCenter server sous format d’appliance virtuelle… . Les clients se montrent très satisfaits des produits et des compétences de ses revendeurs.

 

Un nouvel acteur entre dans le carré « magic », c’est le fournisseur Telecom Chinois Huawei Technologies, avec leurs solutions FusionSphere et FusionCloud basées sur une architecture Openstack. Huawei a introduit depuis 1 an une architecture de Data Center de prochaine génération conçue pour répondre aux besoins des Data Center à l’ère du cloud. Huawei est devenu la première société du secteur à introduire l’architecture technique du DC2:  Distributed Cloud Data Center .
 
Source: Gartner (July 2014)

VMware bénéficie toujours d’une bonne croissance, mais la croissance est plus difficile, en raison à la fois la saturation croissante du marché et des pressions concurrentielles. 

Un nouveau sujet de préoccupation est la croissance rapide des fournisseurs de cloud IaaS, en particulier les Amazon Web Services (basé sur Xen), en effet les nouveaux workloads d’entreprise sont principalement conçus pour le Cloud Computing et de plus en plus vu comme des applications de consommation.
 

Alors que VMware est très largement rependu et omniprésent pour les charges de travail d’entreprise existantes, sa part des charges de travail plus récentes est beaucoup plus petite dans le nuage.

La stratégie de VMware consiste à étendre la virtualisation à tous les secteurs du Data Center, le Software-Defined DataCenter SDDC. La vision de VMware a commencé par le « compute », le serveur, la puissance de calcul, qui constitue le fondement de cette approche. Puis étendre ce principe au réseau et aux technologies de sécurité et enfin au stockage.
Cependant, son offre de SDDC est confrontée à des structures organisationnelles établies en silos et les compétences des départements informatique sont souvent réfractaires au changement, ce qui rend sans doute la croissance plus difficile. Retrouvez le document complet Magic Quadrant for x86 Server Virtualization Infrastructure du 02 Juillet 2014.
 

Ci-dessous, les derniers Magic Quadrant sur la virtualisation des serveurs x86:

gartner-2011

source Gartner 2011

gartner-2012

source Gartner 2012

Bien que les offres de Citrix Xen Server et Oracle VM ou Red Hat KVM soient très performantes, le marché s’oriente vers une bataille entre Microsoft et VMware. VMware domine le marché de la virtualisation et est en avance sur le point technologique par rapport à Microsoft.Dès 2012, VMware était déjà très implanté dans les grandes entreprises avec une domination quasi-totale.

En 2012, nous faisions déjà ce constat:

source Gartner 2013

En 2013, et cela se confirme pour 2014, Citrix fait un pas en arrière dans le Magic Quadrant. Citrix « laisse » la couche socle de virtualisation, c’est à dire l’hyperviseur, pour se concentrer sur les couches hautes à valeur ajoutée (cloud, Mobilité, Desktop…).

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Etat de l’art de la Virtualisation

Par défaut

Introduction

Virtualisation = latin « virtus », sans effet actuel, ce qui est seulement en puissance.

Par conséquent, le virtuel ne s’oppose pas au réel mais à l’actuel (ce qui existe dans le concret), le réel s’oppose au possible.
« est virtuel ce qui, sans être réel a, avec force et de manière pleinement actuelle (c’est-à-dire non potentielle) les qualités (propriétés, qualia) du réel »

Source wikipedia

Cette définition ne rend pas complètement compte de ce que nous appelons la virtualisation en informatique.
 


Apparu sur les systèmes x86 il y a une dizaine d’années, la virtualisation de serveurs est aujourd’hui une solution incontournable, et il ne se passe pas un salon informatique ou dans la presse spécialisés sans que l’on parle de virtualisation.

C’est devenu un mot à la mode, la virtualisation est dans toutes les bouches
Cette technologie s’adresse aussi bien aux PME qu’aux grands comptes (CAC40, Services Publics, multinationales). C’est devenu une brique indispensable de l’évolution du Système d’Information.

La virtualisation s’impose comme la pierre angulaire du système d’information.

Au fil du temps le système d’information a gagné en complexité et perdu en efficacité, la virtualisation renverse cette tendance en simplifiant un bon nombre de process et de technologie.

Historique:

Contrairement à ce que pensent de nombreuses personnes, la virtualisation n’est pas apparue à la fin des années 90, mais ses débuts remontent aux années 60 sur les plates-formes de superordinateurs (Mainframe) d’IBM, à cette époque les machines virtuelles étaient appelées des pseudo-machines.
Le Mainframe utilisait le programme de contrôle pour allouer les ressources et isoler les différentes instances des partitions les unes des autres.

La version contemporaine du programme de contrôle s’appelle un hyperviseur, sa fonction est de superviser les machines virtuelles qui s’exécutent sur le matériel.


Pour mieux comprendre le concept de la virtualisation, prenons cette analogie à un couple client / Fournisseur. Le fournisseur rend un service que le client consomme.

Ici, dans la virtualisation cela consiste à intercaler une couche d’abstraction entre un client et un fournisseur, en ce sens notre fournisseur va proposer des ressources à notre client.

ARCHITECTURE TRADITIONNELLE

Sans virtualisation, un seul système d’exploitation peut tourner sur une machine physique alors qu’avec la virtualisation il est possible d’en faire tourner plusieurs.

L’hyperviseur rend indépendant un système d’exploitation du matériel sur lequel il est installé et ceci ouvre de grandes possibilités.

Cette technologie permet de consolider et de rationaliser les infrastructures serveurs et stockages, elle marque la fin du: 1 Système d’exploitation = 1 machine physique et stockage dédié, avec la virtualisation chaque application et système d’exploitation se trouvent dans une enveloppe générique appelée Machine Virtuelle (VM).

ARCHITECTURE VIRTUELLE

Les VM sont isolées, les ressources de calcul, les processeurs, le stockage et la mise en réseau sont mis en commun et allouer dynamiquement à chaque VM.

 

Les différents types d’hyperviseur:

Il existe de 2 types d’hyperviseur en milieu x86:

Hyperviseur de type 2:

Source Wikipédia

c’est un logiciel installé au dessus du système d’exploitation et permet de faire fonctionner plusieurs machines virtuelles. La machine hôte émule la couche matériel pour les OS invités.

Exemples :

•Microsoft VirtualPC ou Virtual Server
•Parallels Desktop
•Oracle VM VirtualBox
•QEMU
•VMware Fusion

 

A mon avis, l’appellation d’hyperviseur n’est pas adaptée aux solutions de virtualisation s’exécutant au dessus d’un système d’exploitation invité. Je pense que l’appellation « application de virtualisation » est plus appropriée.

 
Source Wikipédia
 
Hyperviseur de type 1: par défaut c’est un noyau très léger pour gérer les accès des OS invités à l’architecture matérielle. L’hyperviseur présente directement les ressources matérielles aux invités. Cette solution est souvent appelée « bare-metal ».

Exemples:

  • Xen
  • VMware vSphere
  • KVM
  • Microsoft Hyper-V Server

Les tendances du marché: 

Ci-dessous, vous trouverez les 3 dernières études du Magic Quadrant de Gartner des solutions de virtualisation de serveur x86.

Source Gartner Publication 2011
Bien que les offres de Citrix Xen Server et Oracle VM ou Red Hat KVM soient très performantes, le marché s’oriente vers une bataille entre Microsoft et VMware.
VMware domine le marché de la virtualisation et est en avance sur le point technologique par rapport à Microsoft Hyper-V. 
Source Gartner Publication 2012

VMware est aujourd’hui très implanté dans les grandes entreprises avec une dominiation quasi-totale.
Microsoft propose hyper-V qui est en 2012 une solution plutôt adaptée pour les PME.
 
 

Sur la dernière étude, nous remarquons que le fossé se réduit entre Microsoft et VMware, Citrix fait un pas en arrière dans le Magic Quadrant.

Citrix « laisse » la couche socle de virtualisation pour se concentrer sur les couches hautes à valeur ajoutée (cloud, Mobilité, Desktop…).

La virtualisation reste la grande priorité en matière de dépenses informatiques.

Source : rapport IDC State of the Market: IT Spending Review & 2013 Outlook, novembre 2012

La croissance de la virtualisation, depuis 2008, où nous avons vu les premiers gros projets de virtualisation fleurirent sur le territoire français, le taux de virtualisation ne cesse d’augmenter. On estime selon une étude menée par VMware qu’en 2015 nous atteindrons entre 75 et 80% des charges de travail virtualisées.

Source : étude réalisée en janvier 2010, juin 2011 et mars 2012 auprès des clients VMware

Pourquoi adopter la virtualisation?

cascadeeffect

D’après de nombreuses études, il apparaît que 1 serveur sur 6 serait inutilisé dans le monde, et que dans certains Datacenters, l’utilisation des serveurs atteint à peine 5 à 15 %. On peut en déduire que 85 à 95 % des ressources système ne servent à rien et que les salles des serveurs sont encombrées de machines sous-exploitées.


Ecologiquement, le ratio de l’énergie utilisée pour faire fonctionner ces serveurs (et souvent les refroidir) par rapport à l’énergie informatique produite est catastrophique.
1 Watt économisé au niveau d’un serveur se traduit par 2,84 Watts économisés à l’échelle du Datacenter. C’est ce que l’on appelle l’effet de cascade.
Au final, un datacenter est utilisé à 56% de son potentiel selon une étude McKinsey et Uptime.
Tout projet de construction de Cloud doit intégrer un volet DCIM (DataCenter Infrastructure Management) car la mutualisation et l’allocation des ressources réclament un contrôle sans faille de l’énergie nécessaire afin de répondre aux demandes pas toujours prévisibles des utilisateurs des applications en mode Cloud.

Avec cette technologie, les bénéfices directs sont indéniables :
la virtualisation fait partie des leviers pour réduire les investissements CAPEX et OPEX, moins de serveurs dans les datacenters = moins d’investissement et donc moins de coût de maintenance, un espace réduit au sol, et une consommation électrique et de climatisation réduite. 
 
Autre exemple, c’est l’amélioration des niveaux de service (SLA), les fonctionnalités de la virtualisation permettent de mettre en place très simplement des solutions de Haute disponibilité, les opérations des sauvegardes sont grandement simplifiées.

Le temps consacré par les administrateurs à des opérations de support ou maintenance qui n’apportent aucune valeur ajouté à l’entreprise est estimé à environ 70%.
Les coûts indirects tels que les coûts de gestion, d’administration et de consommation électrique deviennent astronomique comparés au coût d’acquisition des serveurs et peuvent représenter jusqu’à 4 fois le coût initial du serveur.
La virtualisation apporte l’agilité, une meilleure réactivité et permet de mettre en place des infrastructures dédiées pour un projet sans devoir investir. De plus, les équipes en charge de l’infrastructure se trouvent soulagées par rapport à des tâches récurrentes grâce à l’automatisation et la standardisation, la virtualisation augment l’efficacité opérationnelle.
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook