Hyper-Convergence – le nouveau visage du Datacenter

Par défaut

L’hyper-convergence : un buzz ? un phénomène de mode ?

L’hyper-convergence est-elle en train de modifier le paysage de nos Data centers et de nos salles informatique ? Intéressons nous à une technologie qui n’a pas fini de faire parler d’elle …BuzzMeter

Mais c’est quoi l’Hyper-convergence ?

L’Hyper-convergence est une architecture basée sur le logiciel qui s’intègre étroitement avec les ressources de calcul, de stockage, de réseau et de virtualisation. Le tout, embarqué dans une boîte, c’est le « All-In-One« . L’Hyper-convergence est donc un nouveau modèle d’infrastructure.

Mais pourquoi en sommes-nous venus à ce modèle ?

Back_to_the_Future.svgPetit retour en arrière… Souvenez-vous de « 1980 » c’était la période de la première démonstration du NAS (serveur de stockage en réseau). Puis, dans les années « 90 », est apparu le SAN (Storage Area Network). Cette technologie avait pour objectif de répondre aux problèmes d’évolution de la volumétrie des données et des performances. Cette architecture était basée sur la constitution d’un réseau performant dédié aux entrées/sorties avec des périphériques de stockage. Ce réseau était totalement indépendant du réseau classique.

Le SAN avait donc été créé pour offrir de la rapidité et du volume de stockage à notre système d’information qui, à l’époque, était construit sur des mainframes. En « 1989 », est apparu dans nos salles informatiques (salle blanche pour reprendre les termes de l’époque) des serveurs x86 (SystemPro). C’est à partir de ce moment que les serveurs x86 ont pris une place prépondérante dans notre SI. Serveurs ayant également eu besoin de volumétrie et de performance et sur lesquels ont donc été greffé le même stockage de type SAN que pour nos mainframes.

Très vite il a été constaté qu’un serveur sur six serait inutilisé dans le monde et dans certains Datacenters. L’utilisation des serveurs atteindrait péniblement 5 à 15 % de leur ressource de calcul et de mémoire. Ainsi, 85 à 95 % des ressources système étaient inexploitées et les salles des serveurs encombrées de machines sous-exploitées.

McKinsey_report

Source: McKinsey analysis: Utilization measurement tool

En conclusion, un datacenter est aujourd’hui utilisé à 56% de son potentiel selon une étude McKinsey et Uptime (Corporate Average Data Efficiency CADE).

Partant de ce postulat, la virtualisation s’est avérée une technologie incontournable et est devenue la pierre angulaire du SI.

infrastructure classique

Lorsque les projets de virtualisation sont apparus, il a fallu construire des architectures virtuelles reposant sur des serveurs x86 et du stockage, hérité de notre patrimoine SI, à savoir du SAN et/ou du NAS.

Les projets d’aujourd’hui ne cessent de prendre de l’ampleur et des objectifs à atteindre de plus en plus ambitieux, à savoir  :

  • réduire et maîtriser les coûts d’acquisition (CAPEX),
  • améliorer et optimiser la gestion de ces environnements (OPEX),
  • réduire le time-to-market,
  • être plus agile, plus souple face aux demandes du métier.

Comme évoqué dans un précédent article, le SDDC (Software-Defined Data Center) est là pour répondre à ces nouveaux enjeux et satisfaire les équipes d’infrastructure.

Afin de faciliter la mise en oeuvre du Data Center piloté par le logiciel, est apparu un nouveau modèle : l’HyperConvergence (HCIS).

L’origine de l’HyperConvergence

L’idée de reproduire ce que font certains acteurs du web tel que GAFA (Google-Amazon-Facebook-Apple) paraît et semble une nouvelle voie d’architecture pour nos data center.

GAFA-myvmworld

Tous ces acteurs ont été confrontés très rapidement, au vu de leur évolution, à des problématiques d’infrastructure et d’architecture dans un Data Center traditionnel. Dans un Data Center traditionnel, le modèle de fonctionnement est en effet basé sur une infrastructure serveur, baie de stockage partagée, réseau SAN.

Cette architecture semblait donc peu compatible avec le modèle de ces géants du web ou les besoins sont exponentiels en terme de volumétrie de stockage.

size_myvmworld

Les architectures traditionnelles nécessitent d’être « sizées », « désignées » par rapport à un besoin précis, définit dans le temps. Très souvent, elles sont taillées sur trois, voir cinq ans en prenant en compte le besoin à l’instant « t » et en se projetant sur cette période. Au moment du renouvellement de leur maintenance un choix doit être opéré vers un nouveau modèle plus novateur et donc un changement de gamme.

L’inconvénient dans cette approche c’est qu’elle ne peut pas s’appliquer à ces mastodontes du web car leur nombre d’utilisateur croit de façon exponentielle.

Inconcevable financièrement et du point de vu de son administration ! Les équipes auraient du passer un temps trop important à re-configurer le Data Center afin de supporter la montée en charge des utilisateurs.

Les acteurs du web vont alors inventer une nouvelle façon de fonctionner. Ils vont capitaliser sur leur savoir faire : le développement. Le hardware n’étant pas leur métier de prédilection, ils vont créer un équipement matériel le plus basic qui soit; CPU, MEM, stockage qui seront identiques les uns aux autres. Le but : multiplier ces configurations pour augmenter la puissance de calcul et la capacité de stockage simultanément.

Chacun de ces serveurs est ainsi conscient de l’existence de ces voisins afin qu’ils puissent se protéger conjointement.

Pour fédérer l’ensemble de ces serveurs, va être rajouter une couche de logiciel. Cette couche intelligente basée sur le logiciel va tout simplement « clusteriser » les serveurs, les rendre conscients de l’existence de leur voisin. A chaque fois qu’une donnée sera écrite quelque part, elle sera protégée sur le reste du Cluster.

HCIS_SDS_Myvmworld

Cette façon de penser « architecture du Data Center » souvent nommée « web-scale IT » répond ainsi aux problématiques de mise à l’échelle SCALE-OUT. Grâce à cette innovation technologique, nous pouvons étendre un Cluster à l’infini sans jamais être confronté à des problèmes de performance ou de capacité.

L’incrément dans ce modèle est un serveur complet (CPU + stockage).

Toutes les sociétés ne sont pas Google ou FaceBook (même si je leur souhaite le même succès), toutefois, dans l’univers de la virtualisation, nous sommes souvent confrontés à la même problématique.

La virtualisation a tellement simplifié la façon de provisionner les workloads qu’aujourd’hui nous avons multiplié le nombre de machines virtuelles (VMs). Beaucoup plus rapidement que les architectures physiques. Nous sommes donc confrontés à des problématiques de mise à l’échelle, et ce, beaucoup plus rapidement qu’il y a dix ans lorsque la virtualisation n’en était qu’à ses débuts.

D’où l’idée de certains player tels que Nutanix XCP (Xtrem Computing Platform), Simplivity (OmniStack 3.0), ou encore Pivot3 … de proposer cette même logique de web-scale IT pour le monde de la virtualisation et uniquement pour les VMs. D’autres on aussi embrayé le pas à ces player, et notamment Atlantis Computing qui, avant de proposer une solution de type scale-out, a développé une solution d’optimisation de stockage, (SCaleIO EMC, HP VSA, VMware EVO:RAIL, Nimboxx…).

HCIS

La plupart de ces solutions embarquent une VM sur chaque noeud (Hyperviseur+serveur+CPU+MEM+Stockage), cette VM fait office de contrôleur de stockage et embarque toute l’intelligence logicielle. On retrouve ainsi des fonctionnalités de type : compression, déduplication, tiering, réplication… Sauf pour EVO:RAIL où la gestion du stockage et des données est gérée par VSAN qui est inclus dans le Kernel de l’Hyperviseur.

Evolution & Tendance du marché de l’HyperConvergence

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Magic Quadrant for x86 Server Virtualization Infrastructure

Par défaut

Toujours en haut et à droite!

80% des workloads sont considérés comme virtualisés par le Gartner en 2016.

Selon Gartner, «la virtualisation (sous la forme de virtual machine et conteneurs) est un outil fondamental pour IaaS, et indispensable pour créer des services de Cloud privé, des services de Cloud public et des services d’interopérabilité pour le Cloud Hybrid. En effet, toutes les offres IaaS comptent sur les machines virtuelles ou de la technologie de conteneurisation ».

Magic Quadrant 2016 de Gartner sur la virtualisation des serveurs X86

quadrantMagic2016_myvmworld

source Gartner 2016

 

Magic Quadrant 2015 de Gartner sur la virtualisation des serveurs X86

server_virtualisation_magic_quadrant_2015_myvmworld

Source : Gartner 2015

 

Magic Quadrant 2014 de Gartner sur la virtualisation des serveurs X86

Selon le Gartner:

Au moins 70% des workloads (charge de travail) de serveurs x86 sont virtualisés, le marché est donc mature et concurrentiel, et les entreprises ont le choix entre plusieurs solutions éprouvées. Certaines entreprises évaluent à la fois les avantages et les coûts de migrations d’une solution à une autre et aussi à mesurer les avantages du déploiement de technologies de virtualisation hétérogène.  

Selon Gartner, VMware continue de dominer le marché en termes de parts de marché. La version vSphere 5.5 sortie en septembre 2013 a apporté encore de nouvelles fonctionnalités avec l’arrivée du SDS Software Defined Strorage VSAN, vCenter server sous format d’appliance virtuelle… . Les clients se montrent très satisfaits des produits et des compétences de ses revendeurs.

 

Un nouvel acteur entre dans le carré « magic », c’est le fournisseur Telecom Chinois Huawei Technologies, avec leurs solutions FusionSphere et FusionCloud basées sur une architecture Openstack. Huawei a introduit depuis 1 an une architecture de Data Center de prochaine génération conçue pour répondre aux besoins des Data Center à l’ère du cloud. Huawei est devenu la première société du secteur à introduire l’architecture technique du DC2:  Distributed Cloud Data Center .
 
Source: Gartner (July 2014)

VMware bénéficie toujours d’une bonne croissance, mais la croissance est plus difficile, en raison à la fois la saturation croissante du marché et des pressions concurrentielles. 

Un nouveau sujet de préoccupation est la croissance rapide des fournisseurs de cloud IaaS, en particulier les Amazon Web Services (basé sur Xen), en effet les nouveaux workloads d’entreprise sont principalement conçus pour le Cloud Computing et de plus en plus vu comme des applications de consommation.
 

Alors que VMware est très largement rependu et omniprésent pour les charges de travail d’entreprise existantes, sa part des charges de travail plus récentes est beaucoup plus petite dans le nuage.

La stratégie de VMware consiste à étendre la virtualisation à tous les secteurs du Data Center, le Software-Defined DataCenter SDDC. La vision de VMware a commencé par le « compute », le serveur, la puissance de calcul, qui constitue le fondement de cette approche. Puis étendre ce principe au réseau et aux technologies de sécurité et enfin au stockage.
Cependant, son offre de SDDC est confrontée à des structures organisationnelles établies en silos et les compétences des départements informatique sont souvent réfractaires au changement, ce qui rend sans doute la croissance plus difficile. Retrouvez le document complet Magic Quadrant for x86 Server Virtualization Infrastructure du 02 Juillet 2014.
 

Ci-dessous, les derniers Magic Quadrant sur la virtualisation des serveurs x86:

gartner-2011

source Gartner 2011

gartner-2012

source Gartner 2012

Bien que les offres de Citrix Xen Server et Oracle VM ou Red Hat KVM soient très performantes, le marché s’oriente vers une bataille entre Microsoft et VMware. VMware domine le marché de la virtualisation et est en avance sur le point technologique par rapport à Microsoft.Dès 2012, VMware était déjà très implanté dans les grandes entreprises avec une domination quasi-totale.

En 2012, nous faisions déjà ce constat:

source Gartner 2013

En 2013, et cela se confirme pour 2014, Citrix fait un pas en arrière dans le Magic Quadrant. Citrix « laisse » la couche socle de virtualisation, c’est à dire l’hyperviseur, pour se concentrer sur les couches hautes à valeur ajoutée (cloud, Mobilité, Desktop…).

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook