L’hyper-convergence : un buzz ? un phénomène de mode ?

L’hyper-convergence est-elle en train de modifier le paysage de nos Data centers et de nos salles informatique ? Intéressons nous à une technologie qui n’a pas fini de faire parler d’elle …BuzzMeter

Mais c’est quoi l’Hyper-convergence ?

L’Hyper-convergence est une architecture basée sur le logiciel qui s’intègre étroitement avec les ressources de calcul, de stockage, de réseau et de virtualisation. Le tout, embarqué dans une boîte, c’est le « All-In-One« . L’Hyper-convergence est donc un nouveau modèle d’infrastructure.

Mais pourquoi en sommes-nous venus à ce modèle ?

Back_to_the_Future.svgPetit retour en arrière… Souvenez-vous de « 1980 » c’était la période de la première démonstration du NAS (serveur de stockage en réseau). Puis, dans les années « 90 », est apparu le SAN (Storage Area Network). Cette technologie avait pour objectif de répondre aux problèmes d’évolution de la volumétrie des données et des performances. Cette architecture était basée sur la constitution d’un réseau performant dédié aux entrées/sorties avec des périphériques de stockage. Ce réseau était totalement indépendant du réseau classique.

Le SAN avait donc été créé pour offrir de la rapidité et du volume de stockage à notre système d’information qui, à l’époque, était construit sur des mainframes. En « 1989 », est apparu dans nos salles informatiques (salle blanche pour reprendre les termes de l’époque) des serveurs x86 (SystemPro). C’est à partir de ce moment que les serveurs x86 ont pris une place prépondérante dans notre SI. Serveurs ayant également eu besoin de volumétrie et de performance et sur lesquels ont donc été greffé le même stockage de type SAN que pour nos mainframes.

Très vite il a été constaté qu’un serveur sur six serait inutilisé dans le monde et dans certains Datacenters. L’utilisation des serveurs atteindrait péniblement 5 à 15 % de leur ressource de calcul et de mémoire. Ainsi, 85 à 95 % des ressources système étaient inexploitées et les salles des serveurs encombrées de machines sous-exploitées.

McKinsey_report
Source: McKinsey analysis: Utilization measurement tool

En conclusion, un datacenter est aujourd’hui utilisé à 56% de son potentiel selon une étude McKinsey et Uptime (Corporate Average Data Efficiency CADE).

Partant de ce postulat, la virtualisation s’est avérée une technologie incontournable et est devenue la pierre angulaire du SI.

infrastructure classique

Lorsque les projets de virtualisation sont apparus, il a fallu construire des architectures virtuelles reposant sur des serveurs x86 et du stockage, hérité de notre patrimoine SI, à savoir du SAN et/ou du NAS.

Les projets d’aujourd’hui ne cessent de prendre de l’ampleur et des objectifs à atteindre de plus en plus ambitieux, à savoir  :

  • réduire et maîtriser les coûts d’acquisition (CAPEX),
  • améliorer et optimiser la gestion de ces environnements (OPEX),
  • réduire le time-to-market,
  • être plus agile, plus souple face aux demandes du métier.

Comme évoqué dans un précédent article, le SDDC (Software-Defined Data Center) est là pour répondre à ces nouveaux enjeux et satisfaire les équipes d’infrastructure.

Afin de faciliter la mise en oeuvre du Data Center piloté par le logiciel, est apparu un nouveau modèle : l’HyperConvergence (HCIS).

L’origine de l’HyperConvergence

L’idée de reproduire ce que font certains acteurs du web tel que GAFA (Google-Amazon-Facebook-Apple) paraît et semble une nouvelle voie d’architecture pour nos data center.

GAFA-myvmworld

Tous ces acteurs ont été confrontés très rapidement, au vu de leur évolution, à des problématiques d’infrastructure et d’architecture dans un Data Center traditionnel. Dans un Data Center traditionnel, le modèle de fonctionnement est en effet basé sur une infrastructure serveur, baie de stockage partagée, réseau SAN.

Cette architecture semblait donc peu compatible avec le modèle de ces géants du web ou les besoins sont exponentiels en terme de volumétrie de stockage.

size_myvmworld

Les architectures traditionnelles nécessitent d’être « sizées », « désignées » par rapport à un besoin précis, définit dans le temps. Très souvent, elles sont taillées sur trois, voir cinq ans en prenant en compte le besoin à l’instant « t » et en se projetant sur cette période. Au moment du renouvellement de leur maintenance un choix doit être opéré vers un nouveau modèle plus novateur et donc un changement de gamme.

L’inconvénient dans cette approche c’est qu’elle ne peut pas s’appliquer à ces mastodontes du web car leur nombre d’utilisateur croit de façon exponentielle.

Inconcevable financièrement et du point de vu de son administration ! Les équipes auraient du passer un temps trop important à re-configurer le Data Center afin de supporter la montée en charge des utilisateurs.

Les acteurs du web vont alors inventer une nouvelle façon de fonctionner. Ils vont capitaliser sur leur savoir faire : le développement. Le hardware n’étant pas leur métier de prédilection, ils vont créer un équipement matériel le plus basic qui soit; CPU, MEM, stockage qui seront identiques les uns aux autres. Le but : multiplier ces configurations pour augmenter la puissance de calcul et la capacité de stockage simultanément.

Chacun de ces serveurs est ainsi conscient de l’existence de ces voisins afin qu’ils puissent se protéger conjointement.

Pour fédérer l’ensemble de ces serveurs, va être rajouter une couche de logiciel. Cette couche intelligente basée sur le logiciel va tout simplement « clusteriser » les serveurs, les rendre conscients de l’existence de leur voisin. A chaque fois qu’une donnée sera écrite quelque part, elle sera protégée sur le reste du Cluster.

HCIS_SDS_Myvmworld

Cette façon de penser « architecture du Data Center » souvent nommée « web-scale IT » répond ainsi aux problématiques de mise à l’échelle SCALE-OUT. Grâce à cette innovation technologique, nous pouvons étendre un Cluster à l’infini sans jamais être confronté à des problèmes de performance ou de capacité.

L’incrément dans ce modèle est un serveur complet (CPU + stockage).

Toutes les sociétés ne sont pas Google ou FaceBook (même si je leur souhaite le même succès), toutefois, dans l’univers de la virtualisation, nous sommes souvent confrontés à la même problématique.

La virtualisation a tellement simplifié la façon de provisionner les workloads qu’aujourd’hui nous avons multiplié le nombre de machines virtuelles (VMs). Beaucoup plus rapidement que les architectures physiques. Nous sommes donc confrontés à des problématiques de mise à l’échelle, et ce, beaucoup plus rapidement qu’il y a dix ans lorsque la virtualisation n’en était qu’à ses débuts.

D’où l’idée de certains player tels que Nutanix XCP (Xtrem Computing Platform), Simplivity (OmniStack 3.0), ou encore Pivot3 … de proposer cette même logique de web-scale IT pour le monde de la virtualisation et uniquement pour les VMs. D’autres on aussi embrayé le pas à ces player, et notamment Atlantis Computing qui, avant de proposer une solution de type scale-out, a développé une solution d’optimisation de stockage, (SCaleIO EMC, HP VSA, VMware EVO:RAIL, Nimboxx…).

HCIS

La plupart de ces solutions embarquent une VM sur chaque noeud (Hyperviseur+serveur+CPU+MEM+Stockage), cette VM fait office de contrôleur de stockage et embarque toute l’intelligence logicielle. On retrouve ainsi des fonctionnalités de type : compression, déduplication, tiering, réplication… Sauf pour EVO:RAIL où la gestion du stockage et des données est gérée par VSAN qui est inclus dans le Kernel de l’Hyperviseur.

Evolution & Tendance du marché de l’HyperConvergence

Aujourd’hui, je constate que chacun se revendique comme acteur de l’HyperConvergence, avec ou sans légitimité ! En s’appuyant cependant sur les dernières études du Gartner et de l’IDC, nous pouvons avoir une représentation plutôt fiable des principaux acteurs du marché.

Gartner a publié le 11 août dernier son dernier rapport « Magic Quadrant for Integrated Systems » sur les systèmes intégrés, qui se décompose en trois familles :

  • ISS Integrated Stack System : toutes les couches matérielles: serveur, stockage, réseaux, sont intégrées avec une solution logicielle pour fournir une appliance fonctionnelle de type Exadata d’Oracle,…
  • IIS Integrated Infrastructure System : toutes les couches matérielles sont inétgrées pour fournir une infrastructure de calcul partagée, exemple, VCE, HP Converged system.
  • HCIS Hyperconverged Integrated System, qui allie étroitement la puissance de calcul, le réseau et le stockage, le tout géré par le logiciel, exemple, Atlantis, Simplivity, Nutanix, Pivot3,…
gartner_is_mq_2014_to_2015
Source : Twitter : Chris_Mellor

Pour 2015, les grands gagnants mis en avant par cette étude sont Cisco, Nutanix et HP. Le marché en 2014 a eu une croissance de plus de 30%; 8,7 milliards € de CA.

Infographie_HP_Myvmworld
Infographie HyperConvergence par HP

Sur un autre rapport extrait de l’IDC (décembre 2014) qui consacre un quadrant entièrement aux solutions HCIS, on y retrouve les principaux acteurs, avec 52% de part de marché, Nutanix s’affiche aujourd’hui comme le leader.

IDC_MarketScape_HCIS_2015

Cependant, j’imagine que le prochain rapport devrait mettre en évidence de nouveaux acteurs aux solutions très prometteuses et déjà reconnues mondialement tels qu’Atlantis Computing qui vient de lancer l’offre Hyperscale.

Atlantis_HyperScale_myvmworld

Enfin, d’après une étude publiée cette année par ActualTech Media et menée par Scott D.Lowe (vExpert & MVP), nous pouvons mettre en avant certaines informations complémentaires nous indiquant les perspectives du marché.

En effet, l’HyperConvergence est encore à ses balbutiement, sur les 500 interviewés, seulement un quart (24%)  ont déclaré avoir mis en oeuvre une solution d’infrastructure HyperConverged. Et, 54% de cette échantillon prévoit de déployer ce nouveau modèle dans les prochains 24 à 36 mois.

ActualTech02_myvmworld
Source: hyperconverged.org

Améliorer la sauvegarde des données, la reprise après sinistre et la continuité de service des activités sont des priorités informatique pour près de la moitié des répondants (45%).

ActualTech01_myvmworld
Source: Hyperconverged.org

Améliorer l’efficacité opérationnelle est également une initiative clé pour plus de 43%, en effet, 37% de ceux qui ont adopté les solutions HyperConvergence  ont identifié une amélioration des services opérationnels. Parmi ceux qui envisagent de passer sur ce modèle, 1 sur 5 souhaitent que ce facteur soit un des principaux facteurs décisionnel.

ActualTech05_myvmworld
Source: hyperconverged.org

Le résultat de cette enquête soulignent quelques principaux vecteurs d’adoption sur ce marché :

  • Le coût des infrastructures legacy trop élevé.
  • Les départements informatique désirent améliorer l’efficacité opérationnelle.
  • La protection des données est identifiée comme le plus grand problème auquel sont confrontés les services informatiques.
  • Augmenter le taux de virtualisation et étendre le champ d’application à la virtualisation pour d’autres sujets (exemple: poste de travail, CRM, sites distants…).

Retrouvez-le rapport sur Hyperconverged.org2015 STATE OF HYPERCONVERGED INFRASTRUCTURE MARKET REPORT

Info complémentaires :

Pour ceux qui souhaitent aller plus loin dans l’aspect technique ou pour d’autres informations, je vous conseille quelques blog français :

Full-Book-Side-Shot-Right-hc

Retrouvez un ebook sur l’implémentation d’infrastructure HyperConvergente.

Bonne lecture !

Noham MEDYOUNI

Rédigé par

Noham MEDYOUNI

Noham MEDYOUNI, il exerce dans l’informatique depuis près de 18 ans et nourris ce blog depuis 2012. Diplômé de l’ENI Ecole, et avec plus de 12 années d’expérience pratique en tant que référent technique virtualisation. Par le passé il a travaillé en tant que Systems Engineer ou Solutions Architect pour de grandes ESN et éditeur de logiciel autour du Software Defined-Storage. Noham est certifié VCP3, 4 et 5, vExpert depuis 2014, Nutanix Technical Champion 2016 et NPP4, Veeam VMTSP, et Apple ACTC. Team Leader VMUG France.