Par Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

Transition entre les infrastructures traditionnelles et le cloud natif avec l’hyper-convergence (VCE, Nutanix, Simplivity)

Cet article est la suite de l’article sur la place de l’Hyper-convergence dans la problématique du DevOps : « L’hyper-convergence (Nutanix, Simplivity, VCE) et les entreprises ensemble face au paradigme du DevOps. »

Bien qu’incontournable, l’infrastructure représente un coût important (qu’il soit direct ou indirect) dans les budgets des sociétés. Dans le même temps, les technologies utilisées dans les infrastructures traditionnelles sont de plus en plus matures alors que le cloud ne l’est pas encore assez aux yeux des entreprises. Cette différence entre deux approches oblige les entreprises à reconsidérer et à optimiser leurs infrastructures et donc leurs investissements.

 En juin 2016 le Laboratoire National de l’Université de Berkeley a publié une excellente étude qui explique et annonce la réduction de 75% des serveurs dans les entreprises en 2020. Bien que cette évolution soit en marche, comment l’appréhender et l’anticiper ?

Les principaux arguments sont l’augmentation de la puissance des serveurs capables de faire tourner un nombre grandissant de services (virtualisation, containers, …) et des services de plus en plus grand dans les clouds.

Selon cette étude, depuis 2014, nous constatons (confère l’étude, diagramme ci-dessous) le changement d’orientation entre l’infrastructure traditionnelle (current Trends) et les environnements Clouds (Hyperscale Shift)

Si nous reprenons le diagramme et en regardant la courbe d’évolution du « Non-Hyperscale », en 2020 il faut s’attendre à une perte d’environ 75% de serveurs.

(hyperscale représente les Clouds des grandes entreprises : MSFT, AWS, Google,… quand les non-hyperscales sont DC ou les Clouds dits privés)

Dans le même temps, il faut s’attendre à une croissance d’environ 20% des environnements clouds.

Cette perte de 75% de serveurs ne va pas se retrouver dans les environnements cloud comme un simple transfert des serveurs d’un environnement vers un autre. Il y a l’optimisation qui consiste à mutualiser les services sur les serveurs mais aussi l’évolution technologique. Les environnements Hyperscales sont en acquisition de nouvelles technologies alors que les environnements « Non-Hyperscale » sont en décroissance, ce qui explique en partie cette différence.

Sans aborder la problématique énergétique mondiale causée par l’informatique et tous les moyens de communication, l’étude montre la part grandissante de consommation d’énergie pour l’infrastructure, le stockage et les serveurs. (Confère ci-dessous le diagramme extrait de la même étude).

Les problèmes énergétiques sont un des moteurs du changement dans le choix d’infrastructure pour les systèmes d’informations. La virtualisation a été la première étape à éviter une explosion peut-être exponentielle du nombre de serveurs. L’étape suivante consiste à regrouper l’ensemble de ces besoins énergétiques en une et une seule technologie. Les promesses de l’Hyper-convergence est à mi-chemin de la promesse du Cloud en ce sens.

Cette différence est visible en faisant le lien entre ces deux précédents diagrammes :

  • réduction des serveurs (75%) associée à la réduction possible d’énergie dans les infrastructures restantes dans les entreprises (non-Hyperscale)
  • Augmentation énergétique associée à la faible augmentation en infra des solutions Hyper-scale (+21%) par rapport à la récupération des serveurs des solutions non-Hyperscale (75%?).

Même si la tendance montre une nécessité de changement, pour justifier des acquisitions il faut continuer de pouvoir les justifier par rapport à un service générant des revenus pour l’entreprise. Toutes les entreprises ne font pas face aux problèmes de DevOps mais doivent répondre dans tous les cas à l’équation : Ajuster les ressources pour un service aux utilisateurs dans une logique de business d’entreprise en réponse à un marché à acquérir ou à consolider.

Lors de nouvelles acquisitions, les DSI cherchent :

    • de la flexibilité
    • la capacité de supporter des environnements hétérogènes
    • le contrôle des composants
    • une intégration dans un système hardware ou applicatif existant
    • une montée en charge non prévues
    • des mises à jour (patchs ou nouvelles fonctionnalités) continuellement
    • mise à disposition « self-service » d’environnements (un grand nombre de petits environnements de travail)
    • garantir la continuité des services dans l’ensemble
    • garantir l’interopérabilité des mêmes services
    • l’agilité de l’infrastructure
    • la performance correspondant au cahier des charges des services
    • un contrôle des couts

Pour le développeur utilisant ces infrastructures que son travail (code) ne doit pas avoir d’emprise sur l’environnement de travail et être transparent par rapport à la localisation de son travail. Ce qui est déjà en soit un changement considérable.

Les infrastructures traditionnelles offrent des évolutions toujours constantes pour proposer de la performance. Ces dernières souvent s’appuient sur de nouvelles technologies (nouveaux processeurs, nouveaux type de disque, nouveaux protocoles, …) mais doivent toujours permettent la continuité et interopérabilités des services entre eux. Même si le prix est un élément important venant des contraintes financières, ce dernier et la densité (impact prix aussi sur les couts indirects) viennent s’ajouter dans l’équation du processus de décision d’acquisition.

Tel un père au prétendant de sa fille quadragénaire, secrètement désireux de la voir quitter le domicile parental à l’approche de sa retraite, les nouvelles technologies arrivent toutes avec des promesses. Faire converger dans le moins de densité possible : le prix, la puissance de calcul (computing), le stockage, le réseau, la virtualisation pour les services et avec la simplicité d’intégration aux besoins actuels et futurs. S’il fallait représenter les tendances, nous pourrions représenter la courbe de la maturité des technologies traditionnelles (TT) et celle de la maturité du cloud.

Ces deux technologies avec deux courbes de maturités différentes vont se croiser à un moment notable dans l’histoire de l’infrastructure de l’entreprise. Nous appelons cela aussi un «virage technologique» à prendre ou à rater.

Dans notre cas, il faut tenir compte d’un réajustement de la courbe de maturité des technologies traditionnelles avec l’arrivée d’une nouvelle approche lui donnant un second souffle (une séquence à cycle de vie double).

En rouge : séquence à cycle de vie double de la courbe de l’infrastructure traditionnelle des entreprises

En vert : courbe de maturité de l’approche «Cloud»

Etape 1 : phase d’adoption et de maturité des infrastructures traditionnelles. Apparition d’une nouvelle approche «cloud».

Etape 2 : phase de renouvellement mais en optimisant (refonte possible de l’infrastructure)

Etape 3 : le rebond par l’optimisation sur des solutions innovantes (en rupture ou non)

Etape 4 : Adoption des environnements cloud représente par l’intersection des deux tendances

A : point de maturité des infrastructures traditionnelles

B : point de rupture avec un rebond en s’appuyant sur une nouvelle technologie (par exemple l’hyper-convergence)

C : prolongation ou rupture vers les environnements clouds

D : point d’interception des infrastructures traditionnelles avec le cloud sans le rebond de l’hyper-convergence

En considérant les technologies actuelles (sections 1 et 2) et en y ajoutant un composant supplémentaire (hardware ou software, point B) les technologies traditionnelles entrent dans une séquence à cycle de vie double (section 3). Le marché appelle ce second souffle la convergence ou l’hyper-convergence.

C’est la phase 3 qui m’intéresse le plus parce qu’il me semble que nous sommes en train de la vivre. Nous avons une infrastructure actuelle et des besoins qui s’orientent vers le cloud sans trop savoir comment le faire. Le point C est le résultat des promesses de ces nouvelles technologies. C’est en phase 3, qu’il faut se poser les bonnes questions au sujet des promesses des acteurs proposant de nouvelles technologies et au point C ou nous avons la réponse … ou la terrible sanction. 

… l’évolution c’est aussi de sauter dans le bon bocal :

Phase 3

La phase 3 va être clé pour celui qui est le premier à faire le pas ou à changer de bassin sans trop savoir ce qu’il va y trouver.

Pour ceux qui ne mènent pas cette démarche, il suffit d’attendre l’obligation de migrer vers le cloud mais en poursuivant ses investissements dans le traditionnelle. Cette solution est rassurante et permet de rester en contrôle de tous les composants techniques, financiers et humains. Elle a aussi l’avantage de ne pas essuyer les plâtres pour les autres. Elle a bien évidemment des avantages comme des désavantages.

La suivante consiste à se montrer précurseur et de participer aux solutions de demain tout en acquérant des compétences précieuses pour le futur. Pour l’instant l’adoption de cette approche reste timide soit à cause des limitations techniques, sécuritaires, ou pour des aspects financiers ou légaux. L’adoption inconditionnelle du tout cloud n’est pas pour aujourd’hui …

L’approche la plus probable est d’anticiper avec des technologies qui répondent aux problématiques actuelles et capables de s’inscrire dans la prochaine étape à moindre couts. Cette phase d’optimisation de l’infrastructure trouve écho aux promesses des solutions d’Hyper-convergences … à condition que les investissements soient pérennes et permettent d’aborder le virage sereinement.

emmanuelforguesEmmanuel Forgues est diplômé de l’EPITA (promo 97) en spécialité système et Réseaux et récemment diplômé de Sciences Politique Paris en stratégie Internationale et accompagnement du changement. Emmanuel possède une vue globale en s’appuyant sur plus de 20 années d’expérience dans les start-ups, grandes entreprises et les éditeurs. Ces années sur différents domaines (avant-vente, product manager, stockage, sécurité ou réseaux) lui confère de fortes connaissances techniques. Spécialisé aujourd’hui dans la création, l’accompagnement et la montée en puissance des réseaux de distribution en Europe du sud.

Pour suivre Emmanuel et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Emmanuel Forgues Voir le profil de Emmanuel Forgues

Noham MEDYOUNI

Rédigé par

Noham MEDYOUNI

Noham MEDYOUNI, il exerce dans l’informatique depuis près de 18 ans et nourris ce blog depuis 2012. Diplômé de l’ENI Ecole, et avec plus de 12 années d’expérience pratique en tant que référent technique virtualisation. Par le passé il a travaillé en tant que Systems Engineer ou Solutions Architect pour de grandes ESN et éditeur de logiciel autour du Software Defined-Storage. Noham est certifié VCP3, 4 et 5, vExpert depuis 2014, Nutanix Technical Champion 2016 et NPP4, Veeam VMTSP, et Apple ACTC. Team Leader VMUG France.