Acheter la convergence aujourd’hui pour respirer le futur

Par défaut

Par Emmanuel Forgues

Voir le profil d'Emmanuel sur LinkedIn

Acheter la convergence (VCE, VMware, EMC) ou l’Hyper-convergence (VCE, Nutanix, Simplivity, Atlantis) aujourd’hui pour respirer le futur

 

Délivrer l’IaaS comme fondation de l’ITaaS

it_myvmworldPour reprendre et donner une prolongation à l’article de Noham « Pourquoi conduire la transformation de l’IT est aujourd’hui un incontourable ? » : Il y a quelques temps les fournisseurs externes arrivaient à être plus précurseurs que les départements informatiques des entreprises, poussant les utilisateurs à expérimenter eux-mêmes les nouvelles options qui s’offraient à eux comme le Cloud Public. Avec un usage de plus en plus large des technologies et services externes à l’entreprise, les utilisateurs on fait apparaitre des risques considérables pour l’entreprise, créant par la même occasion un nouveau marché : le shadow IT (l’IT cachée). La convergence de ces nouvelles tendances et le sursaut des DSI pousse à voir apparaitre une nouvelle tendance : l’ITaaS (IT As A Service) ou l’ensemble des services de l’IT peuvent être proposés comme un service externe rétribué à l’usage et prenant en charge les besoins des utilisateurs ‘hors-control’ par le DSI. Dans cette course au besoin et aux réponses, les DSI peuvent prendre une longueur d’avance considérable et innovante.

Avant d’en arriver à choisir l’ITaaS (IT as a Service) il faut commencer par la base et choisir son infrastructure pour répondre aux besoins des développeurs (Dev) et de l’opérationnel (Ops). Les logiciels et le matériel doivent offrir :

  • la mise à disposition d’environnement rapidement en mode self-service
  • tous les mécanismes d’automatisations associés
  • l’identification des couts (refacturation transparente des coûts)
  • sécurisation : encryption, authentification, contrôle des accès
  • évolutivité possible (d’autres Hyperviseurs par exemple)

La partie logicielle a déjà été abordée dans l’article sur l’association de l’hyper-convergence et des entreprises pour répondre au besoin du DevOps, nous abordons dans celle-ci le choix de l’infrastructure et ses critères. Néanmoins, il ne faut pas perdre de vue que l’infrastructure se verra totalement masquée par tous les services additionnels pour faire bénéficier à l’entreprise l’expérience du SDDC. Par extrapolation, l’importance du type de matériel est très faible à partir du moment où il délivre le service demandé. Il saura se rappeler à votre mémoire lorsqu’il ne sera pas possible d’en augmenter les ressources, en cas de panne, pour des migrations impossibles ou compliquées et autres actions classiques sur une infrastructure.

silos_myvmworld

Choix du socle de l’infrastructure

Nous avons assisté il y a de cela quelques années à une grande phase d’optimisation des infrastructures avec la virtualisation. En virtualisant les serveurs physiques nous avons assistés à un gain conséquent de toutes les ressources dans les entreprises (humains, financiers, énergétiques, etc…). Dans un premier temps avec la virtualisation des services puis la virtualisation du stockage avant d’aborder la virtualisation des réseaux (dernière étape peu démocratisé).

serveur-tradi hyperviseur

Mais il fallait aller encore plus loin dans la densification des infrastructures. Les éditeurs faisaient échos aux besoins toujours aussi nombreux et de plus en plus complexe en apportant des réponses qui ne simplifiaient pas pour autant les infrastructures.

pay_infra_myvmworld

Nous en sommes à une nouvelle étape de simplification et d’optimisation des infrastructures en réduisant l’hétérogénéité : des éditeurs, des équipements et des contrats de maintenance. C’est à ce moment que sort du bois la technologie de convergence (Flexpod de Netapp, VCE, VMware,…) et l’Hyper-convergence HCI (Nutanix, VCE vXRail, Simplivity, Atlantis, …). Cette optimisation permet d’avoir dans un seul et unique boitier (Baie ou Appliance) aussi bien les serveurs, le stockage que les infrastructures réseaux nécessaires (IP ou stockage).

Construire son propre DataCenter sur des équipements traditionnels

architecture_hci_myvmworld

Source : http://www.lemagit.fr/definition/Hyperconvergence-ou-Infrastructure-Hyperconvergee

L’infrastructure classique continue de répondre aux besoins des entreprises et ça va continuer ainsi encore pendant un moment. Avec l’approche classique (Legacy) ou en convergé ou Hyper convergé l’édifice doit être construite sur de bonnes bases. Pour disposer de l’expérience du SDDC au service du DevOps, vient s’empiler des couches successives de services. Ce qui confère à l’infrastructure toute son importance dans l’édifice. L’approche Hyper-Convergée offre cette simplification technique recherchée.

 

Continuer sur son infrastructure classique ou basculer vers le convergé ou l’Hyper-convergé est une étape lourde et compliqué. Dans l’équation il ne faut pas oublier les aspects financiers : coûts d’acquisition mais aussi les couts indirects et cachés : prix de la maintenance, consommation électrique, refroidissement, etc …

criteres_hci_myvmworldLe choix de la technologie pour le socle de toute la solution doit se faire selon plusieurs critères :

 

Modélisons une situation financière dite idéale ou ; après un investissement initial faible, la courbe d’investissements des évolutions vient exactement se superposer à la courbe des besoins comme ci-dessous :

capex_myvmworld

capex02_myvmworldEn faisant figurer les investissements initiaux d’acquisition de matériel (incluant maintenant, etc) et la courbe des besoins dans une situation idéale nous avons le diagramme suivant. Les investissements suivent alors parfaitement les besoins. Ce cas de figure est possible aujourd’hui mais uniquement dans une approche en cloud ou il est possible de consommer en fonction des besoins et de payer à l’usage.

 

Appliquons la même méthode de modélisation pour comprendre les investissements dans une infrastructure traditionnelle.

Nous retrouvons l’investissement initial qui est incontournable et souvent relativement important. La croissance va pousser l’entreprise à continuer ses acquisitions en fonction des besoins et créer ainsi un impact relativement conséquent sur ses budgets. Par souci de simplification, je fais figurer les investissements matériels, le support, les renouvellements et les autres coûts adjacents comme un seul et même investissement.

capex_03_myvmworld

Pour donner une représentation concrète des couts liés à une infrastructure j’applique la méthode suivante :

  1. faire figurer la courbe des besoins (réguliers et constants pour simplifier)
  2. l’investissement initial
  3. L’ajout par couches successives des acquisitions qui accompagne les besoins.

Partant de cette représentation le coût en excèdent (ressource acheté et non utilisée) figure au-dessus de la courbe des besoins : I1 + S1+…S4+S4′

I1 = représente la surface des besoins non utilisés mais achetés.

S1+…S4+S4′ = représente le surinvestissement pour l’évolution de l’infrastructure.

S4′ = représente le surcoût lorsque la scalabilité de l’offre est arrivée à son extrême et que le coût de l’incrément est constant, incompressible et supérieur au besoin. Ce coût excédentaire est le plus notable car oblige l’entreprise à une acquisition excessive par rapport à un besoin pouvant être faible.

Les moments dans cette phase d’investissement successif qui sont les plus intéressants à observer sont :

– lorsque l’acquisition utile (sous la courbe) devient moins important ou égale que l’acquisition non-utilisée (au-dessus de la courbe)

– Pendant combien de temps le non-utilisé acheté est supérieur à l’utilisé acheté.

C’est à ce moment dans la vie de l’infrastructure qu’il faut financièrement anticiper la pertinence de la technologie sélectionnée. Une offre qui permet d’optimiser une infrastructure existante avec un impact minimum sur les budgets doit se trouver entre ces deux cas tout en restant le plus proche possible de la solution dite « idéale ». Dans le cas où le choix est de remplacer une infrastructure existante par une solution entièrement Hyper-convergée cela revient à racheter l’infrastructure initiale. Cette démarche sur un gros Datacenter risque donc d’être financièrement rédhibitoire.

La solution la plus réaliste modélisé dans l’exemple ci-dessous consiste à avoir un investissement initial faible (ou sinon plus faible qu’une infrastructure standard L1<I1) et ou l’augmentation des ressources se passe avec la granularité la plus fine en ajoutant ce qui est au plus proche de ce qui est nécessaire.

capex04_myvmworld

Le marché propose des solutions qui techniquement tienne vraiment la route mais ou l’investissement initial est aussi élevé que l’infrastructure traditionnelle. Si en plus la solution n’offre pas de modularité il devient compliqué de justifier l’acquisition d’un bloc complet pour répondre à un manque d’espace disque (par exemple).

Sans une « granularité fine » nous aurions le diagramme ci-dessous.

capex05_myvmworld

Au moindre besoin supplémentaire l’achat d’un serveur complet est nécessaire avec une surface d’investissement non utilisé très important. Même si c’est moins souvent que les autres solutions cela revient à racheter une maison quand j’ai besoin d’agrandir un peu ma cuisine.

Cet article vient à la suite des 2 articles suivant :

 

emmanuelforguesEmmanuel Forgues

Pour suivre Emmanuel et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Emmanuel Forgues Voir le profil de Emmanuel Forgues

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Atlantis USX – Storage is Software

Par défaut

Atlantis USX – The New Order of Storage Freedom

Atlantis est une solution purement Software, elle fournit une solution de stockage par logiciel (100%), du pur SDS ! Atlantis USX Unified Software-Defined Storage est une solution intelligente de stockage définie par logiciel. Elle peut fournir instantanément des ressources de stockage pour toute application utilisant plus efficacement une infrastructure classique existante et permet de renforcer ou de faire évoluer cette infrastructures vers des solutions hyper-convergées.

En exploitant la puissance de traitement (calcul, mémoire et flash) plus rapide et moins cher, Atlantis USX élimine les inefficacités et les contraintes des solutions de stockage legacy (traditionnel) du SAN et du NAS matériel. Atlantis USX 3.1 optimise le stockage et améliore les performances pour supporter les workloads tels que les applications critiques, stockage de fichiers, VDI, SBC, et sur n’importe quel hyperviseur.

USX supporte VMware, vSphere et Citrix XenServer.

La solution Atlantis est en cela très intéressante car elle propose conjointement une couche de virtualisation, à laquelle il est possible d’ajouter de nouvelles fonctionnalités au stockage existant (VVOL), et de proposer une solution complète SDS Software-Defined Storage.

Atlantis permet de mettre en commun et de proposer une abstraction du stockage (NAS, SAN et DAS) afin de créer des volumes destinés aux applications VM, VDI… La solution offre également de nouvelles fonctionnalités comme le HA, la déduplication, la mise en cache, la compression…

Atlantis solution est aujourd’hui distribuée sous forme d’appliance virtuelle OVF. La phase d’installation et de configuration est relativement simple, elle nécessite uniquement une bonne compréhension de certains concepts de base.

Atlantis USX 3.1 GA est sortie le 16 octobre 2015.

AtlantisUSX_myvmworld

 

Atlantis Computing propose à ses clients deux approches très simples. La première permet de s’intégrer dans un environnement virtualisé et de consolider le stockage existant. La seconde permet de fournir directement sous forme d’appliance hyper convergée (HyperScale), une infrastructure complète et Full Flash. Les deux approches utilisent le même logiciel, le même moteur : Atlantis USX.

hyperscale_Myvmworld

Comment fonctionne Atlantis ?

Atlantis introduit une couche logicielle entre l’hyperviseur et les machines virtuelles afin de fournir une file d’attente optimisée permettant, grâce à une déduplication en ligne (réalisée par les appliances virtuelles) de réduire la latence des I/O, mais également de réduire la capacité de stockage nécessaire aux machines virtuelles consommant le Datastore présenté par Atlantis.

Une fois l’OVF téléchargé et déployé sur l’infrastructure virtuelle, Atlantis USX déploie de manière automatisée deux types de machine virtuelle : les Volumes VM et les Services VM. Ces deux machines virtuelles sont fondamentalement différentes car elles possèdent des rôles bien distincts.

La flexibilité et la souplesse du logiciel permet à Atlantis de pouvoir proposer plusieurs types de volume en fonction du cas d’usage.

  • Hyper-Convergé (Hybrid ou All Flash),
  • Hybrid,
  • In-Memory,
  • All Flash,
  • Simple Hybrid, Simple In-Memory, and Simple All Flash.

USX volume comparison table-Myvmworld

Volume VM

Le volume VM est une machine virtuelle (Ubuntu) entièrement autonome possédant toute l’intelligence d’Atlantis : déduplication en ligne, compression, réplication, cloning, snapshot, etc. Elle représente le cœur de la solution et permet de présenter un Datastore à l’hyperviseur.

Cette machine virtuelle, va exporter au travers du réseau, le Datastore sous deux protocoles NFS ou iSCSI.

Du point de vue des machines virtuelles, le Datastore USX est perçu comme un DataStore partagé et les lectures / écritures se font directement au travers de ce Datastore.

Atlantis_myvmworld

Architecture HCI

Service VM

Les services VM sont utilisés afin de pouvoir distribuer la couche de « back end » des volumes VM au niveau de plusieurs hyperviseurs. La donnée est donc répartie sur les différents hyperviseurs grâce au service VM, l’accès au Datastore se fera toujours au travers du Volume VM.

USX components_myvmworld

Source: https://help.atlantiscomputing.com/usx3

Pour les volumes de type Hyper-Converged (Hybrid ou All Flash), hybride, et en mémoire, Atlantis déploie aussi sur chaque hôte une VM appelée Service VM. Ces Services VM permettent d’exporter des ressources locales sous-jacente à l’hyperviseur (RAM, mémoire flash locale, DAS, JBOD, SSD) de chaque hôte et d’agréger ces ressources en un pool virtuel. Chaque service VM peut servir plusieurs volumes.

Chaque service VM peut exporter jusqu’à deux des ressources suivantes :

  • mem (RAM uniquement).
  • DISK (DAS seulement).
  • FLASH (flash local uniquement).
  • mem + disque (RAM + DAS).
  • mem + flash (Flash RAM + local).

 Deduplication In-line In-Memory

La Volume VM va procéder une déduplication en ligne sur des blocs de données fixes de 4KB (< 200 microsecondes de latence par opération IO). Avant d’écrire sur le système de fichier embarqué en mémoire (DedupFS), les données en écriture sont segmentées en block de 4KB. L’algorithme propriétaire d’Atlantis permet d’identifier si un bloc de données de 4KB est déjà présent ou non dans le système de fichier. A partir de son algorithme, Atlantis utilise un mécanisme de Hash (MD5 HASH) qui couvre un domaine de collision de 91 ExaByte par volume pour 0,0001% de probabilité. 

deduplication_myvmworld

Si celui-ci n’est pas présent, un nouvel inode est créé dans le DedupFS, la table de blocs est mise à jour, une nouvelle entrée est créé et  identifiée de façon unique, ce block (en mémoire) est copié sur le tiers de performance (SSD, PCIe Flash, RAM). Les inodes, ainsi que la table des blocs, sont copiés sur le tiers de performance, puis l’acquittement est envoyé au niveau de l’application. Si en revanche le bloc de 4KB est déjà présent dans le système de fichier, ce bloc de 4KB n’est pas copié sur le tiers de performance, il est acquitté immédiatement, après que les metadata (inode + reference count) soient mises à jour et copiées sur le tiers de performance, le tiers de performance jouera le rôle de Write Caching et de Read Buffer.

La déduplication est construite à partir d’un journal en trois dimensions :

  • 1 pour les métadonnées dedup,
  • 1 pour les blocs Rewired,
  • 1 pour le système de fichiers (DedupFS).

La déduplication est implémentée par volume, elle n’est pas globale.

x-lzma-compressed-tarLes données sont compressées à partir d’un algorithme de compression sans perte LZMA, et ensuite écrites sur le tiers de performance, la compression favorise la croissance du facteur de déduplication.

L’algorithme utilisé est propriétaire et protégé par les brevets US 8996800 B2 / US 8874877 B2 / US 8732401 B2 / US 8874851 B2 /US 8868884 B2.

 

Atlantis USX dispose d’une façon unique d’exploiter la mémoire disponible à l’intérieur des Hyperviseurs pour fournir un stockage performant et optimisé. En tirant parti des ressources de la RAM (un des composants les plus performants du serveur), Atlantis USX peut effectuer en temps réel, la déduplication Inline, la compression et l’écriture. Chacune de ces fonctions réduit la quantité de données consommée, d’accélérer les IOPS et surtout de diminuer la latence.

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Hyper-Convergence – le nouveau visage du Datacenter

Par défaut

L’hyper-convergence : un buzz ? un phénomène de mode ?

L’hyper-convergence est-elle en train de modifier le paysage de nos Data centers et de nos salles informatique ? Intéressons nous à une technologie qui n’a pas fini de faire parler d’elle …BuzzMeter

Mais c’est quoi l’Hyper-convergence ?

L’Hyper-convergence est une architecture basée sur le logiciel qui s’intègre étroitement avec les ressources de calcul, de stockage, de réseau et de virtualisation. Le tout, embarqué dans une boîte, c’est le « All-In-One« . L’Hyper-convergence est donc un nouveau modèle d’infrastructure.

Mais pourquoi en sommes-nous venus à ce modèle ?

Back_to_the_Future.svgPetit retour en arrière… Souvenez-vous de « 1980 » c’était la période de la première démonstration du NAS (serveur de stockage en réseau). Puis, dans les années « 90 », est apparu le SAN (Storage Area Network). Cette technologie avait pour objectif de répondre aux problèmes d’évolution de la volumétrie des données et des performances. Cette architecture était basée sur la constitution d’un réseau performant dédié aux entrées/sorties avec des périphériques de stockage. Ce réseau était totalement indépendant du réseau classique.

Le SAN avait donc été créé pour offrir de la rapidité et du volume de stockage à notre système d’information qui, à l’époque, était construit sur des mainframes. En « 1989 », est apparu dans nos salles informatiques (salle blanche pour reprendre les termes de l’époque) des serveurs x86 (SystemPro). C’est à partir de ce moment que les serveurs x86 ont pris une place prépondérante dans notre SI. Serveurs ayant également eu besoin de volumétrie et de performance et sur lesquels ont donc été greffé le même stockage de type SAN que pour nos mainframes.

Très vite il a été constaté qu’un serveur sur six serait inutilisé dans le monde et dans certains Datacenters. L’utilisation des serveurs atteindrait péniblement 5 à 15 % de leur ressource de calcul et de mémoire. Ainsi, 85 à 95 % des ressources système étaient inexploitées et les salles des serveurs encombrées de machines sous-exploitées.

McKinsey_report

Source: McKinsey analysis: Utilization measurement tool

En conclusion, un datacenter est aujourd’hui utilisé à 56% de son potentiel selon une étude McKinsey et Uptime (Corporate Average Data Efficiency CADE).

Partant de ce postulat, la virtualisation s’est avérée une technologie incontournable et est devenue la pierre angulaire du SI.

infrastructure classique

Lorsque les projets de virtualisation sont apparus, il a fallu construire des architectures virtuelles reposant sur des serveurs x86 et du stockage, hérité de notre patrimoine SI, à savoir du SAN et/ou du NAS.

Les projets d’aujourd’hui ne cessent de prendre de l’ampleur et des objectifs à atteindre de plus en plus ambitieux, à savoir  :

  • réduire et maîtriser les coûts d’acquisition (CAPEX),
  • améliorer et optimiser la gestion de ces environnements (OPEX),
  • réduire le time-to-market,
  • être plus agile, plus souple face aux demandes du métier.

Comme évoqué dans un précédent article, le SDDC (Software-Defined Data Center) est là pour répondre à ces nouveaux enjeux et satisfaire les équipes d’infrastructure.

Afin de faciliter la mise en oeuvre du Data Center piloté par le logiciel, est apparu un nouveau modèle : l’HyperConvergence (HCIS).

L’origine de l’HyperConvergence

L’idée de reproduire ce que font certains acteurs du web tel que GAFA (Google-Amazon-Facebook-Apple) paraît et semble une nouvelle voie d’architecture pour nos data center.

GAFA-myvmworld

Tous ces acteurs ont été confrontés très rapidement, au vu de leur évolution, à des problématiques d’infrastructure et d’architecture dans un Data Center traditionnel. Dans un Data Center traditionnel, le modèle de fonctionnement est en effet basé sur une infrastructure serveur, baie de stockage partagée, réseau SAN.

Cette architecture semblait donc peu compatible avec le modèle de ces géants du web ou les besoins sont exponentiels en terme de volumétrie de stockage.

size_myvmworld

Les architectures traditionnelles nécessitent d’être « sizées », « désignées » par rapport à un besoin précis, définit dans le temps. Très souvent, elles sont taillées sur trois, voir cinq ans en prenant en compte le besoin à l’instant « t » et en se projetant sur cette période. Au moment du renouvellement de leur maintenance un choix doit être opéré vers un nouveau modèle plus novateur et donc un changement de gamme.

L’inconvénient dans cette approche c’est qu’elle ne peut pas s’appliquer à ces mastodontes du web car leur nombre d’utilisateur croit de façon exponentielle.

Inconcevable financièrement et du point de vu de son administration ! Les équipes auraient du passer un temps trop important à re-configurer le Data Center afin de supporter la montée en charge des utilisateurs.

Les acteurs du web vont alors inventer une nouvelle façon de fonctionner. Ils vont capitaliser sur leur savoir faire : le développement. Le hardware n’étant pas leur métier de prédilection, ils vont créer un équipement matériel le plus basic qui soit; CPU, MEM, stockage qui seront identiques les uns aux autres. Le but : multiplier ces configurations pour augmenter la puissance de calcul et la capacité de stockage simultanément.

Chacun de ces serveurs est ainsi conscient de l’existence de ces voisins afin qu’ils puissent se protéger conjointement.

Pour fédérer l’ensemble de ces serveurs, va être rajouter une couche de logiciel. Cette couche intelligente basée sur le logiciel va tout simplement « clusteriser » les serveurs, les rendre conscients de l’existence de leur voisin. A chaque fois qu’une donnée sera écrite quelque part, elle sera protégée sur le reste du Cluster.

HCIS_SDS_Myvmworld

Cette façon de penser « architecture du Data Center » souvent nommée « web-scale IT » répond ainsi aux problématiques de mise à l’échelle SCALE-OUT. Grâce à cette innovation technologique, nous pouvons étendre un Cluster à l’infini sans jamais être confronté à des problèmes de performance ou de capacité.

L’incrément dans ce modèle est un serveur complet (CPU + stockage).

Toutes les sociétés ne sont pas Google ou FaceBook (même si je leur souhaite le même succès), toutefois, dans l’univers de la virtualisation, nous sommes souvent confrontés à la même problématique.

La virtualisation a tellement simplifié la façon de provisionner les workloads qu’aujourd’hui nous avons multiplié le nombre de machines virtuelles (VMs). Beaucoup plus rapidement que les architectures physiques. Nous sommes donc confrontés à des problématiques de mise à l’échelle, et ce, beaucoup plus rapidement qu’il y a dix ans lorsque la virtualisation n’en était qu’à ses débuts.

D’où l’idée de certains player tels que Nutanix XCP (Xtrem Computing Platform), Simplivity (OmniStack 3.0), ou encore Pivot3 … de proposer cette même logique de web-scale IT pour le monde de la virtualisation et uniquement pour les VMs. D’autres on aussi embrayé le pas à ces player, et notamment Atlantis Computing qui, avant de proposer une solution de type scale-out, a développé une solution d’optimisation de stockage, (SCaleIO EMC, HP VSA, VMware EVO:RAIL, Nimboxx…).

HCIS

La plupart de ces solutions embarquent une VM sur chaque noeud (Hyperviseur+serveur+CPU+MEM+Stockage), cette VM fait office de contrôleur de stockage et embarque toute l’intelligence logicielle. On retrouve ainsi des fonctionnalités de type : compression, déduplication, tiering, réplication… Sauf pour EVO:RAIL où la gestion du stockage et des données est gérée par VSAN qui est inclus dans le Kernel de l’Hyperviseur.

Evolution & Tendance du marché de l’HyperConvergence

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Episode I : Le logiciel englouti le monde du stockage !

Par défaut

Dossier SDS Software-Defined Storage

Retrouvez dans l’édition N°50° de l’E.D.I , un dossier complet sur le Software-Defined Storage, cette nouvelle approche du stockage qui offre une flexibilité autour du stockage et met l’accent sur celle-ci plus que sur la partie hardware.

L’objectif est bien de fournir aux équipes d’exploitation et d’administration des fonctionnalités souples de gestion par le biais de programmation, notamment les API Restful et les webservices. De ce fait, on élimine les contraintes du système physique et ainsi, optimiser l’utilisation de ce stockage grâce à une gestion basée par des règles automatisées SPBM.

3 Questions, interview EDI N°50 autour du SDS

http://www.RestApiTutorial.com – Todd Fredrich from Pearson eCollege goes over the basic principles behind REST. Learn about REST practices by visiting the six RESTful constraints and how they apply to Web services. This short presentation introduces the REST architecture constraints and provides some detail on them. http://youtu.be/llpr5924N7E

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMware Partner Exchange 2015 – Dare To Thrive

Par défaut

La grande conférence annuelle de VMware Partner Exchange vient de se clôturer à San Francisco au Moscone Center : état des lieux

pexbanner

vmwarepex2015-01

Dare : to have enough courage or confidence to do something 

To thrive : to prosper: be fortunate or successful

 

Our Must wins in 2015

Le Partner Exchange c’est aujourd’hui plus de 4000 partenaires et 80 nationalités représentées et rassemblées autour du même leitmotiv « Dare to Thrive« .

La session générale a été introduite par Carl Eschenbach (VMware président & Chief operating officer) qui a remercié activement tous les partenaires et l’écosystème pour leurs apports, leur savoir faire et car ce sont eux qui font aujourd’hui le succès de VMware. Il a aussi fortement étayé son discours autour d’un message clé : oser transformer nos SI et ne pas hésiter à bousculer le modèle traditionnel de ces derniers.

Le PDG de VMware, Pat Gelsinger, a ensuite comparé la stratégie de VMware à l’éducation rurale dispensée en Pennsylvanie et a souligné que VMware désire avant tout se rapprocher de sa communauté de partenaires pour aboutir à toujours plus de succès.

En effet, d’après lui, les DSI ont des difficultés à concilier le monde du « client/serveur » avec celui du « mobile/Cloud« . Ces difficultés affectent leur stratégie de croissance globale et freinent leur efficacité organisationnelle.

Selon Pat Gelsinger, la stratégie de VMware est basée sur le principe du « tout appareil, toute application, un seul Cloud”. L’entreprise a pour objectif de construire un Cloud public, privé et un Cloud hybride basé sur le DataCenter défini par le logiciel.

Il a aussi ajouté qu’il était temps de faire place à un nouveau modèle informatique fondé sur les principes d’accès instantané aux solutions, de fluidité et de sécurité. Il a appelé ce modèle le “Brave New Model of IT”. VMware travaille également sur une approche dite non-conventionnelle à l’informatique pour son architecture de Cloud hybride.

L’environnement des affaires est de nos jours fluide et ce en raison des changements auxquels nous faisons face au quotidien.

Pat Gelsinger a aussi énuméré les principaux objectifs de VMware pour 2015 :

  • Positionner VMware vCloud Air en tant que plateforme de Cloud hybride.
  • Gagner la bataille de l’architecture réseau NSX.
  • Devenir un leader en matière de mobilité professionnelle.

PEX2015_Bridge

What’s New at Partner Exchange 2015 ?

vSphere 6

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

ViPR – Software Defined Storage par EMC²

Par défaut

Retrouvez mon article sur ViPR dans le monde informatique

 

EMC ViPR transforme un environnement de stockage physique hétérogène en une solution simple, extensible et ouverte, vers une plateforme de stockage virtuelle.

ViPR2

 

« ViPR, la solution de stockage pilotée par le logiciel »

Interview de Noham Medyouni, Solutions Architect Specialist chez SCC

Comment s’inscrit l’offre ViPR dans la stratégie de SCC ?

La technologie ViPR d’EMC s’inscrit dans notre stratégie Cloud autour du Software-Defined Data Center (SDDC). Il faut rappeler que l’objectif du SDDC vise à optimiser et automatiser la topologie actuelle des départements IT, c’est à dire « décloisonner » les organisations en silo qui subsistent depuis longtemps dans les sociétés et qui pénalisent l’agité et la flexibilité des entreprises, en exemple la communication entre les différents responsables des structures réseau, stockage, infrastructure, etc.. Le SDDC permet ainsi, via le logiciel, d’optimiser et automatiser le datacenter en vue  d’être autonome de manière transverse, et ce, sur les trois piliers du SDCC : la virtualisation, le stockage et le réseau. C’est précisément sur la couche stockage que la technologie ViPR intervient avec 2 objectifs, l’automatisation des opérations liée au stockage et la mise en place d’un « service » de stockage : on parle de SDS (Software Define Storage).

A qui s’adresse ViPR et décrivez nous brièvement la solution ?

Lancée il y a un an par EMC, la solution ViPR s’adresse à toutes les entreprises (de la PME aux grands comptes) qui envisagent de créer un Cloud privé ou Hybride ou souhaitant un accès à un cloud public. Techniquement, ViPR se présente sous la forme d’une appliance soit totalement logicielle soit physique (via le produit ECS) et qui va simplifier, automatiser et optimiser la gestion du stockage depuis un point de contrôle unique, et offrir un ensemble de service associés pour l’exploiter (exemple Catalogue de Service).  Cette offre est totalement agnostique, et couvrent l’ensemble des équipements de tout constructeur, via des APIs permettant la prise en charge d’environnement hétérogène.

ViPR est conçu pour supporter des applications à l’échelle du Cloud, ViPR supporte les plateformes de type Amazon S3, EMC Atmos, et les API OpenStack.

Avec ViPR, il est possible de définir aisément une politique de classes de services en fonction du type de stockage. Par exemple, si on désire de la performance, on orientera les besoins vers des technologies en full flash. En clair, ViPR transforme des environnements physiques hétérogènes en un point unique extensible et ouvert.

Quels sont les bénéfices pour les entreprises utilisatrices de la plateforme ViPR ?

Comme je le précisais précédemment, ViPR fait office de plateforme unique qui centralise la gestion du stockage quel que soit son type (objet, bloc, fichier, etc.) et indépendamment du fournisseur. Au-delà de cette optimisation, la prise en main de l’application est simple, aucune formation n’est nécessaire. D’autre part, ViPR automatise le provisionnement du stockage, ce qui permet à un administrateur stockage de gagner en réactivité (60 % à 70% du temps consacré à rechercher des espaces libres de stockage dans des milieux hétérogènes). Ce gain de temps est donc financièrement bénéfique : les administrateurs peuvent se consacrer à des tâches à valeur ajoutées. D’ailleurs, en termes de gain financier, l’entreprise, qui exploite ViPR, va adresser une meilleure gestion de ces Capex grâce à une diminution des achats types : disques, de tiroirs, baie de stockage. L’entreprise va également améliorer ses dépenses OPEX grâce à une gestion optimisé des taches « dites récurrentes/redondantes ».

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMworld 2014 Day 3

Par défaut

General session : Keynote introduite par Carl Eschenback et Ben Fathi (CTO)

 Day 3 – 15 octobre 2014

 Mercredi 15 octobre à Barcelone, la keynote d’ouverture est introduite par Carl Eschenbach (Président & Chief Operating Office). A travers son discours, Carl a principalement rappelé les impacts positifs d’une architecture basée sur du Software-Defined et a notamment insisté sur l’importance de la transformation des entreprises (un discours concordant avec mon article publié récemment Pourquoi conduire la transformation de l’IT est aujourd’hui un incontournable ?. A travers leurs discours, les dirigeants VMware en ont aussi profité pour nous faire partager l’expérience de certains de leurs clients, tels que SAP et Vodafone et leur architecture de Cloud Hybride.

Depuis notre arrivée au VMworld, le message clé distillé ou plutôt martelé au fil des keynotes, des interventions et des sessions a toujours été le suivant :  » pourquoi est-il aujourd’hui inéluctable de changer l’IT et comment le SDDC peut aider les entreprises à adopter ce modèle « . Ben Fathi nous a aussi et à nouveau présenté les produits phares de cette édition 2014 :   vSphere 6.0 (avec la possibilité d’effectuer du vMotion entre vCenter), vRealize, Suite, EVO:RAIL, Workspace Suite, vCloud Air…

SDSSur cette troisième journée, j’ai aussi souhaité accompagner quelques uns de nos clients sur des stands orientés SDS  (Software-Defined Storage). Ce sujet suscite un réel intérêt et nous avons pu constater un nombre croissant de stands et de visiteurs intéressés par ce thème (Atlantis, Nutanix, Simplivity, Nimble Storage, Nexenta, PernixData, Tintri). Nous avons ainsi pu faire un état de l’art du marché entre les solutions hypercongées et les solutions pures Software-defined Storage.

SD_ATLANTIS

Pour finir cette journée sur une note cordiale et festive, nous avons dîné au Mandarin Hôtel en compagnie de nos clients SCC et de notre partenaire Veeam. A cette occasion, j’ai pu rencontrer les auteurs du blog http://vroomblog.com/ avec lesquels nous avons pu échanger sur le VMworld 2014.

Pour compléter votre curiosité sur le VMworld, je vous invite à consulter le blog de Julien Cohen: Coté Utilisateur .

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Pourquoi conduire la transformation de l’IT est aujourd’hui un incontournable ?

Par défaut

Si le changement a toujours été le seul fait perdurable du secteur informatique depuis des années, le rythme de celui-ci s’est aujourd’hui accéléré. Savoir accompagner la transformation de l’IT est ainsi devenu un enjeu stratégique pour la performance de l’entreprise. men-in-black-neurolyzer

Souvenez-vous, le neuralyzer est ce petit appareil utilisé par les agents J et Q de Men in Black (MIB) pour effacer la mémoire du public mis en relation avec des extraterrestres ou témoins d’un phénomène prouvant leur existence. Partons de ce postulat, oublions tous les concepts actuels et débutons une feuille blanche.

Il est aujourd’hui révolu le temps ou les utilisateurs se contentaient d’exploiter des applications et des ressources fournies par le département informatique. Les dynamiques de marché et les récentes avancées technologiques ont en effet fondamentalement changé leurs attentes. Ils étaient auparavant de simples consommateurs et deviennent aujourd’hui de véritables consommacteurs. Les utilisateurs privés maîtrisent parfaitement les réponses qui satisferont avec justesse leurs besoins. Ils sont connectés au quotidien avec l’informatique (consultation de leurs emails, de leurs comptes bancaires, de l’actualité ou encore tweets,…).

Si à titre personnel le myvmworld_01niveau de service qui leur est proposé est de haut niveau, en entreprise, ce niveau est loin d’être à la hauteur de ce qu’ils attendent (interfaces conviviales, possibilité d’accéder à leurs applications et données partout et à tout moment, proposition de solutions innovantes pour résoudre des problématiques actuelles et ou de longues dates.).

Le Cloud est le facteur clé de croissancecroissance_cloud

De plus, grâce à leur facilité d’accès, ces technologies sont accessibles à tous. Rien de plus simple que de télécharger une application mobile ou d’ouvrir un compte utilisateur gratuit (ou à faible coût) auprès d’un fournisseur de services de Cloud Computing pour travailler plus efficacement. L’utilisateur se procure ses propres technologies, pour un usage professionnel ou privé, et devient alors consommateur de Cloud pour répondre à ses propres désirs et consomme seulement ce qu’il utilise.

silo_myvmworldLes fournisseurs externes sont ainsi devenus de véritables précurseurs et concurrents en apportant aux utilisateurs un niveau de service que les départements informatiques ne sont jamais parvenus à atteindre pour cause de leur fonctionnement en silos. Quel utilisateur serait assez patient pour attendre des jours de la part de son département informatique l’obtention d’une ou plusieurs applications de gestion de projets ? Il préfèrera les tester lui-même directement en ligne sans perdre de temps, et exploitera ainsi le Cloud public au détriment de sa DSI.

Cloud_Etude_Forrester_2011

Source: Forrester 2011

Le marché de l’informatique traditionnel décroit, on peut soit simplement regarder ce marché mourir à petit feu, soit être pro-actif par l’accompagnement de la transformation de l’IT.

Ces analyses et réflexions démontrent que l’IT doit fondamentalement être transformé en profondeur pour devenir un fournisseur de services auprès de ses différents métiers.

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VSI 6.x EMC² pour le client Web vSphere

Par défaut

VSI : Virtual Storage Integrator

Ce plug-in fournit par EMC permet d’offrir un accès facile à partir de l’interface du client Web vSphere 5.5 afin de provisionner des datastores en VMFS et NFS.

Le plug-in est téléchargeable à l’adresse suivante, la version 6.2 est disponible depuis le 10 Juillet 2014:

https://support.emc.com/products/34010_VSI-for-VMware-vSphere-Web-Client

VSI assure une intégration et un approvisionnement de VMware vCenter Client  pour ViPR Software Defined Storage SDS.

VSI se présente avec une interface utilisateur graphique (GUI) et le code EMC Solutions Integration Service (SIS) assure la communication et l’accès au système de stockage, et permet de réaliser les tâches suivantes:

  • Storage provisioning
  • Cloning
  •  Block deduplication
  • Compression
  • Storage mapping
  • Capacity monitoring
  • Virtual Desktop infrastructure integration

VSI est déployé comme une vApp appelé Solutions Integration Service (SIS) et nécessite une adresse IP unique. Après le déploiement, le vCenter est inscrit, inventorié dans le SIS et ensuite le SIS est inscrit dans le vCenter accessible via le client Web vSphere.

Liste des pré-requis VSI 6.2 pour VMware vSphere Web Client:

  • VMware vSphere 5.1 ou 5.5
  • VMware vCenter  5.1 ou 5.5
  • vSphere Web Client 5.1 ou 5.5
  • VMware ESXi 5.1 ou 5.5
  • EMC ViPR 1.1 ou 2.0
  • VMware Horizon View 5.3.1 et +

Ci dessous quelques étapes pour la mise en oeuvre de VSI :

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMware : dessine moi un stockage distribué ! VSAN

Par défaut

VIRTUAL SAN ou VSAN

Le buzz autour du VIRTUAL SAN de VMware ( VSAN ) est chaud bouillant. Selon VMware, plus de 12.000 bêta testeurs se sont penchés sur la solution VSAN dans des environnements de pré-production ou en lab afin de mieux comprendre les performances du test ou voir comment la solution peut (ou non) être introduite dans leur stratégie de Datacenter.
 
Petite remarque, durant la phase de test (bêta) on parlait de vSAN, depuis sa date de sortie officielle le 12 mars, on parle de Virtual SAN (VSAN).
 
VMware Virtual SAN ™est un nouveau niveau de stockage défini par logiciel pour les environnements VMware vSphere. Cette solution s’inscrit dans la stratégie de VMware du SDDC, le SDS Software-defined Storage composant logique du SDDC.
 
Une nouvelle approche de stockage voit le jour en raison de l’augmentation des besoins de stockage mais aussi de sa complexité. Aujourd’hui, nous cherchons à simplifier, améliorer l’efficacité, ou encore délivrer des applications utilisant des ressources de stockage dont nous avons besoin sur le plan de la performance et de l’évolution.
Le stockage définit par logiciel est la prochaine génération de stockage qui alimentera les applications et les Datacenters pour les générations à venir. A suivre donc…
 

Et l'histoire continue...
Il y a un peu plus de 20 ans, nous disposions d’architectures de serveur / de stockage traditionnelle, c’est à dire que chaque serveur disposait de son propre stockage local. Résultat : une mauvaise utilisation des ressources, certains serveurs disposaient d’une trop grande volumétrie de stockage et d’autres pas assez.
 

A la fin des années 90, le stockage a été déporté via le réseau sur des unité dédié, le SAN et le NAS se sont démocratisés dans les entreprises (Grands comptes, PME, etc.). Ceci a permis d’améliorer le TCO, mais on a  aussi remarqué que l’acquisition de ressources de stockage faisait parti des principaux budgets d’investissement des DSI avec la croissance exponentielle des données.
 
Depuis 3 ans, nous avons vu se dessiner sur le marché du stockage, l’apparition de nouveau type de baie de stockage basé sur la technologie Flash.
 

Virtual SAN est une solution logicielle de stockage distribuée qui est implémentée directement dans l’hyperviseur. Et Non, ce n’est pas une appliance virtuelle comme la plupart des autres solutions (par exemple: VSA). 
 
Le Software-Defined Storage consiste à glisser une couche d’abstraction des ressources de stockage physique hétérogènes pour créer des pools logiques de stockage dans un environnement de données virtualisées. Le SDS via VSAN automatise le provisioning et la gestion de stockage avec une approche auto-apprentissage par VM-centric.
Software-Defined Stockage fournit un stockage qui est efficace, agile et souple.

Les cas d’usage du VSAN:

  • Virtual desktops (VDI) : modèle scale out, réduction des coûts et simplification des opérations. VSAN est compatible avec Horizon View 5.3.
  • Développement & test : cela permet d’éviter de faire l’acquisition d’un stockage. 
  • Big Data : modèle scale out avec des capacités de bande passante élevées.
  • Objectif DR: solution de Disaster recovery à moindre coût, grâce aux fonctionnalités de réplication comme vSphere Replication.
Virtual SAN a été introduit avec la version de vSphere 5.5 U1, VSAN est en version 1.0
 

Virtual SAN est disponible en 2 éditions

  • VMware Virtual SAN, coût au CPU de l’hyperviseur, tous les processeurs doivent être licenciés.
  • VMware Virtual SAN For Desktop, licencié par utilisateur concurrent (CCU), avec des packages 10/100 licences, l’offre est alignée avec celle d’Horizon View.
source : VMware Virtual SAN Customer Presentation EN.pptx
Le VSAN est composé obligatoirement de 2 types de disque pour chaque hyperviseur, les disques SSD contribueront à la performance et les disques magnétiques (HDD) seront dédiés à la capacité.  On ne peut pas utiliser uniquement des SSD ou des HDD, on doit mixer les 2 types de disques. Minimum : chaque host doit disposer d’un disque SDD et un disque HDD.
Pour la validation des disques et des contrôleurs disques, consultez la HCL VMware vsanhcl.
 
Un cluster VSAN doit contenir un minimum de 3 noeuds ESXi. VSAN ne requière pas la construction d’un RAID local.
VSAN supporte à la fois les commutateurs de type vSphere Standard Switch vSphere Distributed Switch avec des liaisons de 1GbE ou 10GbE. VMware recommande l’utilisation de vSphere Distributed Switch avec 10GbE de liaison montante afin de supporter les activités de réplication et de synchronisation.
 
Taille du Flash Cache : dans VSAN 30% de chaque dispositif flash est utilisé comme write-back buffer. VSAN utilise 70% de chaque dispositif flash comme read cache.
 
Chaque host supporte au maximum 5 groupes de disque, les groupes de disques peuvent être considérés comme un conteneur dans lequel les périphériques flash SSD / PCIe et disques magnétiques sont reliés entre eux.
 
Chaque groupe de disque peut disposer au maximum d’1 disque SSD et de 7 disques HDD. Donc par host, on peut avoir au maximum 5 disques SSD et 35 disques HDD.
VMware recommande d’utiliser au moins un ratio 1:10 de SSD:HDD.
Pour calculer et dimensionner votre infrastructure VSAN, je vous invite à consulter le blog VMware écrit par Cormac Hogan.

Comment VSAN gère une défaillance disque ou d’un hôte :

A partir de Virtual SAN, on peut définir plusieurs politique de protection au niveau des VMs. La gestion du stockage est basée sur des règles ou profils (SPBM, Storage Policy Based Management), ces règles vont répondre aux besoins de chaque VM, en terme de performance, capacité et disponibilité.  Vous l’aurez donc compris : le Stockage Policy Based Management (SPBM) joue un rôle majeur dans les politiques et l’automatisation de la stratégie de stockage. 
 

VSAN  supporte actuellement cinq règles de capacité de stockage:

SPBM

  • Number of Failures to Tolerate
  • Number of Disk Stripes per Object
  • Flash Read Cache Reservation
  • Object Space Reservation
  • Force Provisioning

 

A partir de la version 6.0 d’Horizon View, la gestion des profils de stockage (SPBM, Storage Policy Based Management) sera entièrement intégrée.
 
VSAN assure la réplication pour chaque objet créé au sein du datastore.
Une VM est un ensemble de fichier, et chaque fichier est vu comme un objet dans VSAN, par exemple le fichier .vmdk (disque virtuel de la VM). 
 VSAN va créer deux objets identiques via un replica et un témoin. Un réplica est une copie des objets de la machine virtuelle à la création de celle-ci. La capacité de la disponibilité dicte le nombre de répliques qui sera créé, ce qui permet à la VM de rester en cours d’exécution si un hôte est défaillant.
Le témoin est là, juste au cas où quelque chose arrive à votre cluster et pour vous aider à décider qui va prendre le contrôle en cas de défaillance (tie-breaker), le témoin n’est pas une copie de votre objet, le témoin contient uniquement les métadonnées. Donc chaque objet créé possède son double (un miroir) et un témoin (witness), les témoins n’occupent pas beaucoup de place ,environ 2 Mo.
 
Lors d’une panne d’un hôte, soit une défaillance hardware ou une perte de connectivité VSAN, le cluster VSAN attendra 60 minutes avant de commencer la copie des objets et des composants sur un groupe de disques d’un hôte opérationnel.
Il existe deux méthodes principales pour créer un nœud  VSAN, vous pouvez soit acheter un serveur pré-configuré qui utilise des composants architecturés pour VSAN ou construire votre propre nœud à partir de la liste des composants qui sont inclus sur la VSAN HCL de VMware.

Les chiffres clés du Cluster VSAN

source : VMware Virtual SAN Customer Presentation EN.pptx

Group Disk

source : VMware Virtual SAN Customer Presentation EN.pptx

Interopérabilité VSAN et vSphere 5.5

source : VMware Virtual SAN Customer Presentation EN.pptx

Capacité de stockage les recommandations 

source : VMware Virtual SAN Customer Presentation EN.pptx

Performance & Capacité

source : VMware Virtual SAN Customer Presentation EN.pptx

Configuring a 16 Node VMware Virtual SAN cluster with Distributed Switch

How to Supercharge your Virtual SAN Cluster (2 Million IOPS!!!)

Sizing VSAN

Depuis début août 2014, vous pouvez trouver un outil en ligne qui vous permettra de dimensionner votre environnement VSAN, il vous suffira de renseigner quelques inputs, comme par exemple : nombre de VM, nombre de de VMDK par VM, quantité de mémoire par VM, taille des HDD, nombre de VM par core,…
VSAN Sizing

VSAN Sizing

 
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook