Le blog myvmworld.fr évolue et devient collaboratif !

Par défaut

Myvmworld

La rentrée de Myvmworld affiche un nouveau tournant… Mon blog personnel devient désormais une plateforme collaborative plus riche où vous aurez la possibilité de découvrir plus de contributions avec des articles sur des thèmes élargis.

Myvmworld prend en effet une nouvelle dimension. Nous serons désormais trois contributeurs et plus encore dans quelques semaines à vous décortiquer l’actualité, animer et enrichir l’écosystème des infrastructures virtuelles, Cloud, automatisation, vous parler technique, process, vision, … 
 
Sur ce blog, nous partagerons avec vous sur nos spécialités respectives afin de mieux répondre à vos besoins croissants d’informations.
 

Nous sommes donc trois blogueurs avec chacun notre univers ! Retrouvez désormais Damien, Erwan, et Eric, spécialistes virtualisation, stockage, automatisation, et network.

Retrouvez-nous aussi dans quelques jours pour des feedback en direct du vmworld.

Bonne découverte !
Présentation des auteurs du blog Myvmworld sur la page About Us

Eric MAILLE, Eric est Consultant avant-vente chez DELL EMC. Il intervient en phase amont des projets d’infrastructure et conseille les entreprises sur les choix et les orientations technologiques.
Eric travaille en collaboration étroite avec les équipes service/consulting chez DELL EMC pour aider les entreprises à accélérer leur transformation Digitale. Eric Maillé a co-écrit 2 livre sur VMware vSphere 4 et vSphere 5 , il est certifié VMware VCP, EMC Cloud Architect et a été récompensé du titre de vExpert 2011 et 2012.

Pour suivre Eric et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Eric Maille Voir le profil d’Eric Maille

Erwan Quélin est depuis 6 ans Ingénieur Systèmes chez Cheops Technology. Ses interventions sont multiples et auprès de clients très diversifiés dans la région Ouest. Spécialisé dans la virtualisation autour des produits VMware et dans le stockage autour des gammes VNX, Unity et VPLEX de Dell EMC, Erwan est certifié VMware Certified Professional – Datacenter virtualization 4, 5 et 6 ainsi que EMC Implementation Engineer – VNX et Unity et vient d’intégrer les programmes VMware vExpert et Dell EMC Elect pour l’année 2017.

Lorsqu’il lui reste un peu de temps libre, Erwan développe des projets open sources ayant pour sujet principal l’automatisation d’infrastructures.

Pour suivre Erwan et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Erwan Quelin Voir le profil Linkedin d’Erwan

Voir mon profil GitHub Erwan Quelin Voir le profil GitHub d’Erwan

Damien Rivière est depuis près de 9 ans consultant chez Axians Cloud Builder. Spécialisé dans la virtualisation autour des produits VMware et dans le stockage autour des solutions Dell EMC, Damien est certifié VMware Certified Professional – Datacenter virtualization 4, 5 et 6 ainsi que EMC Implementation Engineer – VNX et Unity. Damien est également certifié VCP6-NV (Network Virtualization), DCIE Datacore, AWS Technical Professional, CCNA Cisco, Netapp, Simplivity…

Pour suivre Damien et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Damien Rivière Voir le profil de Damien

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Hyper-Convergence – le nouveau visage du Datacenter

Par défaut

L’hyper-convergence : un buzz ? un phénomène de mode ?

L’hyper-convergence est-elle en train de modifier le paysage de nos Data centers et de nos salles informatique ? Intéressons nous à une technologie qui n’a pas fini de faire parler d’elle …BuzzMeter

Mais c’est quoi l’Hyper-convergence ?

L’Hyper-convergence est une architecture basée sur le logiciel qui s’intègre étroitement avec les ressources de calcul, de stockage, de réseau et de virtualisation. Le tout, embarqué dans une boîte, c’est le « All-In-One« . L’Hyper-convergence est donc un nouveau modèle d’infrastructure.

Mais pourquoi en sommes-nous venus à ce modèle ?

Back_to_the_Future.svgPetit retour en arrière… Souvenez-vous de « 1980 » c’était la période de la première démonstration du NAS (serveur de stockage en réseau). Puis, dans les années « 90 », est apparu le SAN (Storage Area Network). Cette technologie avait pour objectif de répondre aux problèmes d’évolution de la volumétrie des données et des performances. Cette architecture était basée sur la constitution d’un réseau performant dédié aux entrées/sorties avec des périphériques de stockage. Ce réseau était totalement indépendant du réseau classique.

Le SAN avait donc été créé pour offrir de la rapidité et du volume de stockage à notre système d’information qui, à l’époque, était construit sur des mainframes. En « 1989 », est apparu dans nos salles informatiques (salle blanche pour reprendre les termes de l’époque) des serveurs x86 (SystemPro). C’est à partir de ce moment que les serveurs x86 ont pris une place prépondérante dans notre SI. Serveurs ayant également eu besoin de volumétrie et de performance et sur lesquels ont donc été greffé le même stockage de type SAN que pour nos mainframes.

Très vite il a été constaté qu’un serveur sur six serait inutilisé dans le monde et dans certains Datacenters. L’utilisation des serveurs atteindrait péniblement 5 à 15 % de leur ressource de calcul et de mémoire. Ainsi, 85 à 95 % des ressources système étaient inexploitées et les salles des serveurs encombrées de machines sous-exploitées.

McKinsey_report

Source: McKinsey analysis: Utilization measurement tool

En conclusion, un datacenter est aujourd’hui utilisé à 56% de son potentiel selon une étude McKinsey et Uptime (Corporate Average Data Efficiency CADE).

Partant de ce postulat, la virtualisation s’est avérée une technologie incontournable et est devenue la pierre angulaire du SI.

infrastructure classique

Lorsque les projets de virtualisation sont apparus, il a fallu construire des architectures virtuelles reposant sur des serveurs x86 et du stockage, hérité de notre patrimoine SI, à savoir du SAN et/ou du NAS.

Les projets d’aujourd’hui ne cessent de prendre de l’ampleur et des objectifs à atteindre de plus en plus ambitieux, à savoir  :

  • réduire et maîtriser les coûts d’acquisition (CAPEX),
  • améliorer et optimiser la gestion de ces environnements (OPEX),
  • réduire le time-to-market,
  • être plus agile, plus souple face aux demandes du métier.

Comme évoqué dans un précédent article, le SDDC (Software-Defined Data Center) est là pour répondre à ces nouveaux enjeux et satisfaire les équipes d’infrastructure.

Afin de faciliter la mise en oeuvre du Data Center piloté par le logiciel, est apparu un nouveau modèle : l’HyperConvergence (HCIS).

L’origine de l’HyperConvergence

L’idée de reproduire ce que font certains acteurs du web tel que GAFA (Google-Amazon-Facebook-Apple) paraît et semble une nouvelle voie d’architecture pour nos data center.

GAFA-myvmworld

Tous ces acteurs ont été confrontés très rapidement, au vu de leur évolution, à des problématiques d’infrastructure et d’architecture dans un Data Center traditionnel. Dans un Data Center traditionnel, le modèle de fonctionnement est en effet basé sur une infrastructure serveur, baie de stockage partagée, réseau SAN.

Cette architecture semblait donc peu compatible avec le modèle de ces géants du web ou les besoins sont exponentiels en terme de volumétrie de stockage.

size_myvmworld

Les architectures traditionnelles nécessitent d’être « sizées », « désignées » par rapport à un besoin précis, définit dans le temps. Très souvent, elles sont taillées sur trois, voir cinq ans en prenant en compte le besoin à l’instant « t » et en se projetant sur cette période. Au moment du renouvellement de leur maintenance un choix doit être opéré vers un nouveau modèle plus novateur et donc un changement de gamme.

L’inconvénient dans cette approche c’est qu’elle ne peut pas s’appliquer à ces mastodontes du web car leur nombre d’utilisateur croit de façon exponentielle.

Inconcevable financièrement et du point de vu de son administration ! Les équipes auraient du passer un temps trop important à re-configurer le Data Center afin de supporter la montée en charge des utilisateurs.

Les acteurs du web vont alors inventer une nouvelle façon de fonctionner. Ils vont capitaliser sur leur savoir faire : le développement. Le hardware n’étant pas leur métier de prédilection, ils vont créer un équipement matériel le plus basic qui soit; CPU, MEM, stockage qui seront identiques les uns aux autres. Le but : multiplier ces configurations pour augmenter la puissance de calcul et la capacité de stockage simultanément.

Chacun de ces serveurs est ainsi conscient de l’existence de ces voisins afin qu’ils puissent se protéger conjointement.

Pour fédérer l’ensemble de ces serveurs, va être rajouter une couche de logiciel. Cette couche intelligente basée sur le logiciel va tout simplement « clusteriser » les serveurs, les rendre conscients de l’existence de leur voisin. A chaque fois qu’une donnée sera écrite quelque part, elle sera protégée sur le reste du Cluster.

HCIS_SDS_Myvmworld

Cette façon de penser « architecture du Data Center » souvent nommée « web-scale IT » répond ainsi aux problématiques de mise à l’échelle SCALE-OUT. Grâce à cette innovation technologique, nous pouvons étendre un Cluster à l’infini sans jamais être confronté à des problèmes de performance ou de capacité.

L’incrément dans ce modèle est un serveur complet (CPU + stockage).

Toutes les sociétés ne sont pas Google ou FaceBook (même si je leur souhaite le même succès), toutefois, dans l’univers de la virtualisation, nous sommes souvent confrontés à la même problématique.

La virtualisation a tellement simplifié la façon de provisionner les workloads qu’aujourd’hui nous avons multiplié le nombre de machines virtuelles (VMs). Beaucoup plus rapidement que les architectures physiques. Nous sommes donc confrontés à des problématiques de mise à l’échelle, et ce, beaucoup plus rapidement qu’il y a dix ans lorsque la virtualisation n’en était qu’à ses débuts.

D’où l’idée de certains player tels que Nutanix XCP (Xtrem Computing Platform), Simplivity (OmniStack 3.0), ou encore Pivot3 … de proposer cette même logique de web-scale IT pour le monde de la virtualisation et uniquement pour les VMs. D’autres on aussi embrayé le pas à ces player, et notamment Atlantis Computing qui, avant de proposer une solution de type scale-out, a développé une solution d’optimisation de stockage, (SCaleIO EMC, HP VSA, VMware EVO:RAIL, Nimboxx…).

HCIS

La plupart de ces solutions embarquent une VM sur chaque noeud (Hyperviseur+serveur+CPU+MEM+Stockage), cette VM fait office de contrôleur de stockage et embarque toute l’intelligence logicielle. On retrouve ainsi des fonctionnalités de type : compression, déduplication, tiering, réplication… Sauf pour EVO:RAIL où la gestion du stockage et des données est gérée par VSAN qui est inclus dans le Kernel de l’Hyperviseur.

Evolution & Tendance du marché de l’HyperConvergence

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

ViPR – Software Defined Storage par EMC²

Par défaut

Retrouvez mon article sur ViPR dans le monde informatique

 

EMC ViPR transforme un environnement de stockage physique hétérogène en une solution simple, extensible et ouverte, vers une plateforme de stockage virtuelle.

ViPR2

 

« ViPR, la solution de stockage pilotée par le logiciel »

Interview de Noham Medyouni, Solutions Architect Specialist chez SCC

Comment s’inscrit l’offre ViPR dans la stratégie de SCC ?

La technologie ViPR d’EMC s’inscrit dans notre stratégie Cloud autour du Software-Defined Data Center (SDDC). Il faut rappeler que l’objectif du SDDC vise à optimiser et automatiser la topologie actuelle des départements IT, c’est à dire « décloisonner » les organisations en silo qui subsistent depuis longtemps dans les sociétés et qui pénalisent l’agité et la flexibilité des entreprises, en exemple la communication entre les différents responsables des structures réseau, stockage, infrastructure, etc.. Le SDDC permet ainsi, via le logiciel, d’optimiser et automatiser le datacenter en vue  d’être autonome de manière transverse, et ce, sur les trois piliers du SDCC : la virtualisation, le stockage et le réseau. C’est précisément sur la couche stockage que la technologie ViPR intervient avec 2 objectifs, l’automatisation des opérations liée au stockage et la mise en place d’un « service » de stockage : on parle de SDS (Software Define Storage).

A qui s’adresse ViPR et décrivez nous brièvement la solution ?

Lancée il y a un an par EMC, la solution ViPR s’adresse à toutes les entreprises (de la PME aux grands comptes) qui envisagent de créer un Cloud privé ou Hybride ou souhaitant un accès à un cloud public. Techniquement, ViPR se présente sous la forme d’une appliance soit totalement logicielle soit physique (via le produit ECS) et qui va simplifier, automatiser et optimiser la gestion du stockage depuis un point de contrôle unique, et offrir un ensemble de service associés pour l’exploiter (exemple Catalogue de Service).  Cette offre est totalement agnostique, et couvrent l’ensemble des équipements de tout constructeur, via des APIs permettant la prise en charge d’environnement hétérogène.

ViPR est conçu pour supporter des applications à l’échelle du Cloud, ViPR supporte les plateformes de type Amazon S3, EMC Atmos, et les API OpenStack.

Avec ViPR, il est possible de définir aisément une politique de classes de services en fonction du type de stockage. Par exemple, si on désire de la performance, on orientera les besoins vers des technologies en full flash. En clair, ViPR transforme des environnements physiques hétérogènes en un point unique extensible et ouvert.

Quels sont les bénéfices pour les entreprises utilisatrices de la plateforme ViPR ?

Comme je le précisais précédemment, ViPR fait office de plateforme unique qui centralise la gestion du stockage quel que soit son type (objet, bloc, fichier, etc.) et indépendamment du fournisseur. Au-delà de cette optimisation, la prise en main de l’application est simple, aucune formation n’est nécessaire. D’autre part, ViPR automatise le provisionnement du stockage, ce qui permet à un administrateur stockage de gagner en réactivité (60 % à 70% du temps consacré à rechercher des espaces libres de stockage dans des milieux hétérogènes). Ce gain de temps est donc financièrement bénéfique : les administrateurs peuvent se consacrer à des tâches à valeur ajoutées. D’ailleurs, en termes de gain financier, l’entreprise, qui exploite ViPR, va adresser une meilleure gestion de ces Capex grâce à une diminution des achats types : disques, de tiroirs, baie de stockage. L’entreprise va également améliorer ses dépenses OPEX grâce à une gestion optimisé des taches « dites récurrentes/redondantes ».

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook