vSphere 6.0 Update 3 is Out!

Par défaut

vSphere 6.0 Update 3

L’Update 3 de la version 6.0 vient juste d’être publié ce vendredi 24 février, avec quelques corrections et améliorations, notamment pour la partie VSAN (amélioration du code Checksum).

Visualiser la Release note de VMware ESXi 6.0 Update 3

Cette mise à jour inclut le support TLS pour v1.0 1.1 et 1.2,  donc attention aux impacts, surtout aux niveaux des connexions avec les autres produits VMware. Exemple, par défaut vCloud Director SP attend comme connexion TLSv 1.1.

Pour vSAN, plusieurs correctifs ont été introduits pour optimiser le chemin des I/O; et permettre d’améliorer les performances vSAN dans toutes les configurations Flash et Hybrid, voir le KB ci-dessous:

VSAN : KB 2149127

KB 2148819 : Managing TLS protocol configuration for vSphere 6.0 Update 3

KB 2145796 : Status of TLSv1.1/1.2 Enablement and TLSv1.0 Disablement across VMware products

Rappel sur la chronologie des releases et updates de VMware vSphere 6.0:

Release Patch Date Build
ESXi 6.0 Update 3 ESXi600-update3 2017-02-24 5050593
ESXi 6.0 Update 3 (Security Only) ESXi600-update3 2017-02-24 5047589
ESXi 6.0 Patch 4 ESXi600-201611001 2016-11-22 4600944
ESXi 6.0 Patch 4 (Security Only) ESXi600-201611001 2016-11-22 4558694
ESXi 6.0 Express Patch 7 ESXi600-201610001 2016-10-17 4510822
ESXi 6.0 Patch 3 ESXi600-201608001 2016-08-04 4192238
ESXi 6.0 Patch 3 (Security Only) ESXi600-201608001 2016-08-04 4179598
ESXi 6.0 Express Patch 6 ESXi600-201605001 2016-05-12 3825889
ESXi 6.0 Update 2 ESXi600-update2 2016-03-15 3620759
ESXi 6.0 Update 2 (Security Only) ESXi600-update2 2016-03-15 3568943
ESXi 6.0 Express Patch 5 ESXi600-201602001 2016-02-23 3568940
ESXi 6.0 Update 1b ESXi600-201601001 2016-01-07 3380124
ESXi 6.0 Update 1b (Security only) ESXi600-201601001 2016-01-07 3341439
ESXi 6.0 Express Patch 4 ESXi600-201511001 2015-11-25 3247720
ESXi 6.0 Update 1a ESXi600-201510001 2015-10-06 3073146
ESXi 6.0 Update 1 ESXi600-update1 2015-09-10 3029758
ESXi 6.0 Update 1 (Security only) ESXi600-update1 2015-09-10 3017641
ESXi 6.0b ESXi600-201507001 2015-07-07 2809209
ESXi 6.0b (Security Only) ESXi600-201507001 2015-07-07 2809111
ESXi 6.0 Express Patch 2 ESXi600-201505001 2015-05-14 2715440
ESXi 6.0 Express Patch 1 ESXi600-201504001 2015-04-09 2615704
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VxRail 4.0 la première brique du DataCenter moderne

Par défaut

Le changement est la seule constante du secteur informatique depuis des années.

La transformation de nos entreprises passera par la modernisation des Data Centers

Le marché de l’infrastructure informatique connaît une transformation sans précédent. La transformation la plus significative se traduit par deux grandes tendances : une tendance de déploiement vers une infrastructure convergée et Hyper-convergée,  et une tendance de conception vers le nouveau Data Center définis par logiciel (SDDC). Les deux sont des réponses aux réalités informatiques :

  • Encombrement des infrastructures
  • Complexité
  • Coûts élevés
  • Réduction du Time-To-Market

Platform 3.0

Les applications sont généralement identifiées par les plates-formes de charge applicatives définies par l’industrie : Plate-forme 1.0 qui se réfère aux charges applicatives de type mainframe; Platform 2.0 qui fait référence aux workloads client-serveur et virtualisés x86 traditionnels, et Platform 3.0, qui se réfère aux applications Big Data avec de nouvelles applications conçues pour les environnements Cloud, application Cloud native, social et mobile.3rd Platform

Il est essentiel que les systèmes qui composent l’infrastructure des SI reposent sur des technologies compatibles avec la troisième plate-forme, notamment les technologies Flash, scale-out, software-defined et Cloud.

Le document d’IDC intitulé « Worldwide Hyperconverged Systems 2015–2019 Forecast » montre notamment que les systèmes hyperconvergés devraient être le segment à la croissance le plus rapide de l’infrastructure convergée avec un CAGR de 60% d’ici 2019.

VxRail

Dell EMC VxRail est une appliance Hyper-Convergée (HCI) développée conjointement entre Dell EMC et VMware. Le lancement de la solution VxRail 4.0 a été annoncée lors du dernier Dell EMC World en octobre 2016.

Les appliances Dell EMC VxRail sont construites à partir de la technologie VMware Virtual SAN (VSAN).

VxRail est construit sur une architecture clustering modulaire de type Scale-Out. L’architecture est un système distribué constitué de blocs (Base Building Block), le form-factor de ces blocs ou appliances varient en fonction du modèle 1U1N, 2U1N et 2U4N (U: comme abréviation pour l’espace dans le rack et N pour le nombre de nœuds dans chaque appliance). VxRail offre la possibilité d’étendre jusqu’à 64 noeuds au sein d’un même cluster VxRail.

Les appliances reposent sur du matériel x86 basé sur des serveurs Dell EMC ( sauf pour le modèle 2U4N Quanta) avec des processeurs Intel (Broadwell Gen5). Les séries V et P reposent quant à eux sur des serveurs PowerEdges R730, quant à la serie E, elle respose sur des serveurs PowerEdge R630. La serie S repose enfin sur la gamme PowerEdge R730xd.

Les appliances se déclinent en deux versions, hybride ou version full flash, à l’exception de la série S (uniquement en hybride).

La gamme des appliances Dell EMC VxRail se décline en 5 séries pour répondre aux différents cas d’usage:

  • G series – « General Purpose » –  modèles G410 et G410F
  • E series – « Entry Level » – modèles E460 et E460F
  • P series – « Performance optimized » – modèles P470 et P470F
  • V series – « VDI optimized » – modèles V470 et V470F
  • S series – « Storage Dense » – modèle S470

Chaque noeud inclus le matériel suivant :

  • 1 ou 2 CPU Intel Xeon E5-2600 v4
  • Possibilité d’étendre de 64GB à 1536GB en capacité mémoire DDR4 DIMMs
  • Contrôleur disque PCIe SAS 12GB SAS
  • Carte SATADOM de 64GB pour le boot de l’ESXi
  • En fonction des modèles, une carte Dual-port 10GbE et 2 ports 1GbE, avec la possibilité de rajouter une carte supplémentaire 10GbE et 1GbE.

Le modèle V supporte les cartes graphiques de type NVIDIA Tesla M60, AMD FirePro S7150 (S7150 x2).

L’architecture de l’appliance VxRail est un système distribué pouvant évoluer de façon linéaire de 3 à 64 nœuds.

L’approche modulaire du VxRail permet de faire évoluer la structure au fur et à mesure des besoins métiers, c’est un des nombreux avantages de l’hyper Convergence : la Scalabilté.

Une de mes préconisations pour adopter l’hyper convergence est de débuter par un petit périmètre et le faire évoluer. Faite cohabiter votre plateforme VxRail avec votre solution legacy et migrer (via Storage vMotion) vos VMs sur la nouvelle plateforme, c’est une transition tout en douceur !

La configuration minimale initiale de VxRail est de 3 noeuds. Il est possible de faire évoluer son cluster en rajoutant un noeud ou en rajoutant des disques aux DG (Disks Group), l’incrément ici est, soit le disque, soit le noeud.

Remarque : la configuration du 4ème noeud doit correspondre aux trois premiers. Il est possible de mixer les différentes gammes de VxRail à partir du 4ème noeud.

La version 4.0 : What Else !

Finalement, VxRail est une suite de logiciels pré-configurée et pré-chargée sur les appliances, la plus-value de l’offre repose essentiellement sur 3 arguments : la performance, le support unique de la plate-forme et la sécurisation des données et des VMs.

L’offre software :

VxRail intègre VMware vSphere, vCenter Server et VSAN pour créer une solution accélérée et prête à l’emploi. VxRail inclut également VMware Log Insight (Root Cause Analysis), pour la maintenance automatisée et les mises à jour logicielles VxRail s’appuie sur VxRail Manager.

L’offre Bundle de VxRail comprend la suite logiciel suivante :

  • VxRail Manager 4.0 pour le déploiement, le management et configuration
  • VSAN Enterprise en 6.2
  • vCenter Server en 6.0 U2 (la licence du vCenter Server est exclusivement réservée pour le management du Cluster VxRail)
  • vRealize Log Insight 3.3.1
  • ESRS/VE Secure Remote Services 3.16

Donc, seules les licences des hyperviseurs vSphere ne sont pas comprises. Concernant les licences vSphere, VxRail supporte :

  • vSphere Enterprise +
  • vSphere Enterprise
  • vSphere Standard
  • vSphere ROBO Advanced
  • vSphere ROBO Standard
  • vSphere Desktop

Sécurisation & Protection

VxRail inclut une suite de services autour de la sécurisation et de la protection de la donnée, notamment la réplication et la sauvegarde :

  • VDP 6.1.3 : VMware Data Protection
  • VSR : vSphere Replication
  • RP4VM 4.3.1.4 : RecoverPoint for Virtual Machines
  • CloudArray 7.0.7 : passerelle Cloud public & privée

RecoverPoint est une solution permettant de restaurer instantanément les applications en cas d’incident sur l’environnement de production. Cette solution appelée également CDP (Continuous Data Protection) réalise une journalisation d’écriture et permet de restaurer à partir de n’importe quelle date dans le temps, en réalisant une réplication synchrone ou asynchrone.

VxRail fournit également une passerelle aux Clouds publics et privés, CloudArray est intégrée à VxRail en fournissant 1To de cache pour 10To supplémentaires de stockage Cloud à la demande par appliance.

La licence VSAN Enterprise fournit également un service de continuité d’activité grâce à la fonctionnalité VSAN Stretched Cluster ( à lire dans le prochain article VxRail).

Support Unique

Une des plus value de l’appliance VxRail se trouve également dans le support proposé.
Le support est pris en charge par les équipes Dell EMC 24×7 concernant le matériel et logiciels, y compris le support logiciel VMware & VSAN. C’est toute l’appliance qui est supportée, de bout en bout.

De plus, grâce à SRS Secure Remote Services, l’appliance dispose d’une connexion à distance bidirectionnelle proactive entre l’appliance VxRail et le support Dell EMC, une connexion sécurisée, et fonctionnant 24x7x365. Un mécanisme de Heartbeat assure une surveillance continue et permet d’envoyer des notifications et des logs au support. La solution permet de proposer un diagnostic et une résolution à distance et de recevoir des mises à jour de façon transparente et automatique.

Je vous invite à consulter le post de Cédric vBlog.io sur ce sujet, un bon retour d’expérience, en live!

  • Le résultat du sondage ci-dessous, réalisé par « Enterprise Strategy Group » soulignent quelques principaux vecteurs d’adoption sur le marché des solutions hyper-Converged HCI:

Améliorer l’efficacité du service et du support du fournisseur de solution HCI est également une initiative clé pour plus de 41%.

Source: Enterprise Strategy Group, 2017

 

 

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Hyperconverged technologies and companies facing the DevOps paradigm

Par défaut

By Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

Hyperconverged technologies (Nutanix, Simplivity, VCE) and companies facing the DevOps paradigm

To survive today, a company faces a challenge: the balance between development time and market demand. It is not possible to wait 6 months to come up with an application. The release of a new OS (Android, IOS, Windows, …) requires immediate reactivity or the company might face a potentially heavy financial penalty or just miss a new market. However, we must not confuse speed with haste when marketing cannot wait, especially in an economic context crippling budgets. Just look at the sad example of the mobile application deployed urgently, at the request of the French authorities to inform on terrorist actions. This application (SAIP), developed in 2 months by a team of 15 engineers functioned for a few hours only after the attack in Nice.

The new convergence and hyper-convergence solutions provide companies with the  rationality of an infrastructure to face the challenges of DevOps. The major publishers have different approaches but should eventually be able to integrate a broader range of technologies into a single offer.

The non-named problems encountered in business:

Two technical entities participate in the development of all the companies relying on IT.

On one hand, the development team (DEV) which produces IT solutions both for internal or external use, and, on the other hand, the operation team (OPS) which provides DEV with the necessary tools and maintains them. We see that their goals are often contradictory within the same company, in fact their alignment is a strategic and economic challenge for IT departments.

For convenience we will speak of DEV for Development and OPS teams for Operational teams.

Where is the brake between market demands and technical services? Why is DEV not reactive enough? First answers: because they are hamstrung by overly rigid infrastructure, inadequate service catalog and physical or virtual infrastructure without  « programmability » capacity. Why are OPS not reactive enough? It is likely that they are not sufficiently involved with the DEV teams to meet their expectations.

Obviously the physical and virtual infrastructure has to change to become more programmable. At the same time the DEV must be able to program infrastructure and OPS must be able to understand and control the interactions of DEV with the infrastructure. In short, the difficulties between DEV and OPS are as follows:

We will call « DevOps » the necessary confrontation between these two teams. DevOps is the concatenation of English words Development and Operation

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

L’hyper-convergence et les entreprises ensemble face au paradigme du DevOps

Par défaut

Par Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

L’hyper-convergence (Nutanix, Simplivity, VCE) et les entreprises ensemble face au paradigme du DevOps

Pour survivre aujourd’hui, l’entreprise est face à un challenge : l’adéquation entre le temps de développement et la demande du marché. Il n’est, en effet plus possible d’attendre 6 mois pour sortir une application. La parution d’un nouvel OS (Android, IOS, Windows, …) nécessite une réactivité immédiate sous peine d’une sanction financière pouvant être lourde ou simplement de louper un nouveau marché. Cependant, il ne faut pas confondre vitesse et précipitation lorsque le marketing ne peut pas attendre et dans un contexte économique grevant les budgets. Il suffit de regarder le triste exemple de l’application mobile déployée, en urgence, à la demande des pouvoirs publics français pour informer sur les actions terroristes. Cette application (SAIP) développée en 2 mois par une équipe de 15 ingénieurs n’a fonctionnée que plusieurs heures après l’attentat de Nice.

                  Les nouvelles solutions de convergence et d’hyper-convergence fournissent aux entreprises la rationalité de l’infrastructure face aux challenges du DevOps. Les principaux éditeurs ont des approches différentes mais doivent à terme être capables d’intégrer un ensemble plus large de technologies dans une seule et même offre.

La problématique non-nommée rencontrée dans les entreprises :

Deux entités techniques participent aux développements de l’ensemble des entreprises s’appuyant sur l’Informatique. D’un côté les équipes de développement (DEV) qui vont produire une solution informatique (usage interne ou usage externe) et de l’autre côté les équipes des Opérations qui sont là pour mettre à disposition de la première équipe des outils nécessaires et en assurer la maintenance. Nous verrons que leurs objectifs sont trop souvent contradictoires au sein de la même entreprise et l’alignement de ceux-ci est un challenge stratégico-économique pour les DSI.

Par commodité nous parlerons de DEV pour les équipes de Développement et de OPS pour les équipes Opérationnelles.

Où se trouve le frein entre les demandes du marché et les services techniques ? Pourquoi le DEV n’est pas suffisamment réactif ? De premiers éléments de réponse : car ils sont bridés par des infrastructures trop rigides, un catalogue de services inapproprié et infrastructure physique ou virtuelle sans capacité de « programmabilité ». Pourquoi les OPS ne sont-ils pas assez réactifs ? Il est fort probable qu’ils ne soient pas suffisamment impliqués par les équipes DEV pour répondre à leurs attentes.

A l’évidence l’infrastructure physique et virtuelle doit changer pour devenir plus programmable. Dans le même temps les DEV doivent pouvoir programmer l’infrastructure et les OPS doivent pouvoir comprendre et contrôler les interactions des DEV avec l’infrastructure. En résumé, les difficultés entre DEV et OPS :

Nous nommerons « DevOps » cette confrontation nécessaire de ces deux équipes. DevOps est la concaténation des mots anglais : « development » (développement) et « Operation » (exploitation).

La grande majorité des analyses mettent en avant que les années 2016-2017 seraient le début d’une adoption massive du PaaS (Plate-Forme as a Service), du DevOps et du container Docker.

  • IDC : 72 % des sociétés vont adopter le PAAS
  • DZone : 45 % des interrogés répondent qu’ils évaluent ou utilisent déjà les Docker Containers
  • Right Scale : 71 % des entreprises annoncent une stratégie basée sur plusieurs clouds.

PAAS :

paas_myvmworldUne « Plateform as a Service » (PAAS) est un service de « Cloud computing » fournissant une plateforme et un environnement nécessaire aux développeurs avec les avantages du « cloud ».

Ce service offre :

  • Une capacité de montée en charge importante et rapide sans les coûts associés d’investissement et de maintenance.
  • L’usage via une interface WEB sans les compétences d’infrastructure complexe
  • Flexibilité des services à utiliser et des circonstances d’utilisation
  • Environnement collaboratif poussé à l’extrême
  • Sécurité assurée par le fournisseur de PAAS pour les accès et les données

Container Docker :

docker_container_engine_logo

                  Aujourd’hui se pose toujours la question du déploiement des applications actuelles. Mais très vite il va falloir se poser la question du déploiement des applications du futur (container/Dockers). La technologie Docker va permettre l’exécution des services sur n’importe quel serveur quel que soit l’infrastructure cloud ou non.

 Contrairement à une VM (Machine virtuelle de plusieurs Go), le container (quelques Mo) n’embarque pas d’OS. Le container/Docker est donc plus léger et plus rapide à démarrer, déplacer, dupliquer (ainsi que toutes les autres actions de maintenance courante).

Considérons une entreprise qui doit augmenter brutalement les ressources pour un développement stratégique urgent (secteur bancaire, sociétés de développement, …). Avec une solution traditionnelle de VM, il faut avoir provisionné un grand nombre de VM en attente et les démarrer pour les mettre à disposition. Il est donc nécessaire de disposer au même instant de l’infrastructure nécessaire pour supporter le démarrage de tous ces environnements : CPU, RAM, Stockage, I/O disque et I/O réseau, …).

En éliminant l’OS, les containers consomment de 4 à 30 fois moins de RAM et de disques. Dans ce cas quelques secondes suffisent pour démarrer les applications. Les containers/Dockers sont aux applications ce que la virtualisation était aux serveurs dans les années 90.

Aujourd’hui leurs usages facilitent les développements en automatisant l’intégration. Cette intégration est continue et automatise les passages successifs des mises jour du code source provenant des environnements du dev, QA, pre-prod jusqu’à la production.

 Nous mettons en exergue le problème de la mise en production de ces containers qui ne peut se faire par les équipes IT tant que le contrôle du réseau, sécurité, stockage, sauvegarde, supervision… ne sont pas correctement intégrés à la programmation et à la configuration du Container. Dès lors, les containers seront la réponse logicielle au DevOps car utilisés par les DEV qui consomment de l’infrastructure tout en étant maîtrisé par les OPS. Pour une bonne intégration les éditeurs proposent déjà des solutions d’orchestration pour gérer l’équilibrage de charge, la gestion de la résilience, chiffrement, etc.

Selon Datadog, l’adoption des dockers a augmenté de 30% en 1 an :

source Datadog

Les Container Docker apporteront rapidement tous leurs bénéfices comme solution au DevOps !

Le problème nommé est donc le DevOps :

                  devops_03_myvmworldSelon le Gartner, le DevOps dépassera le stade de la niche en 2016 avec 25 % des très grandes entreprises mondiales qui l’auront adopté représentant un marché de 2,3 milliards de $. Selon IDC, En France 53 % des entreprises ont engagé une démarche DevOps généralisée à tous leurs développements.

Face aux difficultés des entreprises à transformer leurs infrastructures classiques en une solution suffisamment agile, les fournisseurs de cloud peuvent proposer la mise en œuvre du DevOps avec leurs approches Scale-Out et leurs propositions d’économies d’échelles.

La mise en œuvre de DevOps oblige à regarder plusieurs problèmes : structurels, organisationnels, de ressources, etc. Pour le DSI, en charge de la réponse technique il est cauchemardesque de mettre en place une infrastructure agile avec des équipements actuels traditionnels. Il lui faut gérer aussi bien des environnements complexes, de multiples serveurs (stockages, computing, réseaux, sécurité) que des services de développements (Bases de données multiples, les portails WEB, les logiciels de développements comme python, C++, les libs et autres APIs, les applications de supervision et d’analyse de performance…). Les technologies de containers et les réseaux overlays apportent des réponses pertinentes aux problèmes de réseaux, à condition que les administrateurs de ces services anticipent leur arrivée. L’ensemble devant se réaliser dans un temps record en supportant la pression externe du marché, la pression interne du marketing et avec des budgets restreints. Une fois l’ensemble en place, il faut enfin en tirer profit au maximum pour que toutes les applications interagissent entre elles correctement tout en étant capable de gérer les besoins de migration rapides. Le tout sans impacts pour l’ensemble de l’infrastructure.

  1. Nombre de serveurs physiques ou virtuels
  2. Nombre de services de développement
  3. Garantir la stabilité et les interactions face à une complexité grandissante en fonction du nombre de serveurs et de services
  4. Temps de mise en œuvre qui soit être de plus en plus court
  5. Contrainte des budgets
  6. S’assurer de la capacité des migrations d’un environnement vers un autre en s’assurant de maintenir les 3 points précédents
  7. Pression du marché (marketing dans l’entreprise) grandissante
  8. Garantir l’évolution des acquisitions sur quelques années

En excluant les solutions traditionnelles, il y a sur le marché deux grandes tendances répondant à ces besoins :

  1. Construire/assembler pour un « Workload » Spécifique : les principaux acteurs étant Oracle Exadata DataBase Machine (les Hyper-Appliances).
  2. Intégrer l’ensemble du stockage, la puissance de calcul (computing), le réseau… dans une solution capable de démarrer plusieurs workloads (les solutions de convergences et d’Hyper-convergences comme Nutanix (http://www.nutanix.com)Simplivity (https://www.simplivity.com/), VCE (http://www.vce.com/), …) Aujourd’hui ces technologies peuvent faire fonctionner les workloads actuels mais devront aussi anticiper les prochains.

Les infrastructures (Hyper-)convergées et les systèmes intégrés présentent le plus fort potentiel pour s’intégrer dans une solution de DevOps. Elles offrent toutes les avantages d’être extensible, standardisation de l’IT, programmable…

Certains acteurs proposent dans leurs offres toute ou partie de l’ensemble des briques intéressantes pour un DevOps :

  • Flexibilité de la mise à disposition des ressources (stockage, CPU, RAM,…) avec des solutions de (hyper-)convergence.
  • Mise à disposition des applications nécessaires avec des solutions dockers ou de containers et les applications pour le provisionnement rapide.
  • Provisionnement rapide des environnements de travail via un portail Web : 1-Click.
  • Réduction des compétences complexes et couteuse dans les équipes d’infrastructure
  • Externalisation totale de l’infrastructure pour ne plus en supporter les couts.

Aujourd’hui les sociétés VMware, CISCO et Nutanix peuvent provisionner aussi bien des VMs que des containers, Simplivity à ce jour est capable de le faire rapidement pour les VMs uniquement, (mais je ne vois pas cette société être en reste longtemps). VMware est capable d’avoir un seul OS pour supporter plusieurs containers simplifiant déjà la gestion de cet OS. Nutanix est capable de provisionner les Containers avec leurs stockages. La société Nutanix à acquis Calm.io mais va devoir faire évoluer le produit pour être capable de déployer les applications actuelles comme elle est déjà capable de le faire pour les applications futures. Toutes ces sociétés montrent une étonnante capacité à ne pas se créer des points de blocage pour aborder le futur sereinement.

devops_02_myvmworld

Ces acteurs peuvent dès aujourd’hui répondre aux besoins des entreprises pour simplifier l’infrastructure en supprimant des serveurs comme le SAN ou de faire disparaître le Fiber-Channel, simplifier les backups et profiter des PRA dans des conditions plus acceptable. Dans un deuxième temps il sera important de pouvoir mieux tirer profit de ces infrastructures pour déployer, déplacer… des environnements. Enfin, ces mêmes acteurs seront alors capables de répondre entièrement aux besoins du DevOps.

Aujourd’hui ces acteurs se battent sur le marché de l’infrastructure mais le nerf de la guerre s’est déjà déplacé sur le « provisionnement » des applications avec l’infrastructure associée et nécessaire (SDDC). Déjà certains d’entre eux se positionnent sur l’infrastructure et dans le même temps montent vers les couches logicielles.  Un œil comptable sur leurs marges pour constater qu’elles se rapprochent de celles des éditeurs de logiciels (85%). Tous ces acteurs sont d’ores et déjà capables de proposer la simplification mais certains anticipent l’optimisation de ces mêmes infrastructures (VCE, Nutanix par exemple). Le gagnant sera certainement celui qui arrivera à proposer une solution intégrée unique et capable de déployer aussi bien les applications d’aujourd’hui (Exchange, etc.) que celle de demain (Containers/Dockers). Quand et qui sera le premier à proposer la première solution « SDDC all in a box » capable de répondre à tous ces besoins ?

Article sur la problématique de l’évolution de l’infrastructure et dans la continuité de l’article ci-dessus : « Transition entre les infrastructures traditionnelles et le cloud natif avec l’hyper-convergence (VCE, Nutanix, Simplivity)« 

emmanuelforguesEmmanuel Forgues est diplômé de l’EPITA (promo 97) en spécialité système et Réseaux et récemment diplômé de Sciences Politique Paris en stratégie Internationale et accompagnement du changement. Emmanuel possède une vue globale en s’appuyant sur plus de 20 années d’expérience dans les start-ups, grandes entreprises et les éditeurs. Ces années sur différents domaines (avant-vente, product manager, stockage, sécurité ou réseaux) lui confère de fortes connaissances techniques. Spécialisé aujourd’hui dans la création, l’accompagnement et la montée en puissance des réseaux de distribution en Europe du sud.

Pour suivre Emmanuel et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Emmanuel Forgues Voir le profil de Emmanuel Forgues

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Hyper-Convergence – le nouveau visage du Datacenter

Par défaut

L’hyper-convergence : un buzz ? un phénomène de mode ?

L’hyper-convergence est-elle en train de modifier le paysage de nos Data centers et de nos salles informatique ? Intéressons nous à une technologie qui n’a pas fini de faire parler d’elle …BuzzMeter

Mais c’est quoi l’Hyper-convergence ?

L’Hyper-convergence est une architecture basée sur le logiciel qui s’intègre étroitement avec les ressources de calcul, de stockage, de réseau et de virtualisation. Le tout, embarqué dans une boîte, c’est le « All-In-One« . L’Hyper-convergence est donc un nouveau modèle d’infrastructure.

Mais pourquoi en sommes-nous venus à ce modèle ?

Back_to_the_Future.svgPetit retour en arrière… Souvenez-vous de « 1980 » c’était la période de la première démonstration du NAS (serveur de stockage en réseau). Puis, dans les années « 90 », est apparu le SAN (Storage Area Network). Cette technologie avait pour objectif de répondre aux problèmes d’évolution de la volumétrie des données et des performances. Cette architecture était basée sur la constitution d’un réseau performant dédié aux entrées/sorties avec des périphériques de stockage. Ce réseau était totalement indépendant du réseau classique.

Le SAN avait donc été créé pour offrir de la rapidité et du volume de stockage à notre système d’information qui, à l’époque, était construit sur des mainframes. En « 1989 », est apparu dans nos salles informatiques (salle blanche pour reprendre les termes de l’époque) des serveurs x86 (SystemPro). C’est à partir de ce moment que les serveurs x86 ont pris une place prépondérante dans notre SI. Serveurs ayant également eu besoin de volumétrie et de performance et sur lesquels ont donc été greffé le même stockage de type SAN que pour nos mainframes.

Très vite il a été constaté qu’un serveur sur six serait inutilisé dans le monde et dans certains Datacenters. L’utilisation des serveurs atteindrait péniblement 5 à 15 % de leur ressource de calcul et de mémoire. Ainsi, 85 à 95 % des ressources système étaient inexploitées et les salles des serveurs encombrées de machines sous-exploitées.

McKinsey_report

Source: McKinsey analysis: Utilization measurement tool

En conclusion, un datacenter est aujourd’hui utilisé à 56% de son potentiel selon une étude McKinsey et Uptime (Corporate Average Data Efficiency CADE).

Partant de ce postulat, la virtualisation s’est avérée une technologie incontournable et est devenue la pierre angulaire du SI.

infrastructure classique

Lorsque les projets de virtualisation sont apparus, il a fallu construire des architectures virtuelles reposant sur des serveurs x86 et du stockage, hérité de notre patrimoine SI, à savoir du SAN et/ou du NAS.

Les projets d’aujourd’hui ne cessent de prendre de l’ampleur et des objectifs à atteindre de plus en plus ambitieux, à savoir  :

  • réduire et maîtriser les coûts d’acquisition (CAPEX),
  • améliorer et optimiser la gestion de ces environnements (OPEX),
  • réduire le time-to-market,
  • être plus agile, plus souple face aux demandes du métier.

Comme évoqué dans un précédent article, le SDDC (Software-Defined Data Center) est là pour répondre à ces nouveaux enjeux et satisfaire les équipes d’infrastructure.

Afin de faciliter la mise en oeuvre du Data Center piloté par le logiciel, est apparu un nouveau modèle : l’HyperConvergence (HCIS).

L’origine de l’HyperConvergence

L’idée de reproduire ce que font certains acteurs du web tel que GAFA (Google-Amazon-Facebook-Apple) paraît et semble une nouvelle voie d’architecture pour nos data center.

GAFA-myvmworld

Tous ces acteurs ont été confrontés très rapidement, au vu de leur évolution, à des problématiques d’infrastructure et d’architecture dans un Data Center traditionnel. Dans un Data Center traditionnel, le modèle de fonctionnement est en effet basé sur une infrastructure serveur, baie de stockage partagée, réseau SAN.

Cette architecture semblait donc peu compatible avec le modèle de ces géants du web ou les besoins sont exponentiels en terme de volumétrie de stockage.

size_myvmworld

Les architectures traditionnelles nécessitent d’être « sizées », « désignées » par rapport à un besoin précis, définit dans le temps. Très souvent, elles sont taillées sur trois, voir cinq ans en prenant en compte le besoin à l’instant « t » et en se projetant sur cette période. Au moment du renouvellement de leur maintenance un choix doit être opéré vers un nouveau modèle plus novateur et donc un changement de gamme.

L’inconvénient dans cette approche c’est qu’elle ne peut pas s’appliquer à ces mastodontes du web car leur nombre d’utilisateur croit de façon exponentielle.

Inconcevable financièrement et du point de vu de son administration ! Les équipes auraient du passer un temps trop important à re-configurer le Data Center afin de supporter la montée en charge des utilisateurs.

Les acteurs du web vont alors inventer une nouvelle façon de fonctionner. Ils vont capitaliser sur leur savoir faire : le développement. Le hardware n’étant pas leur métier de prédilection, ils vont créer un équipement matériel le plus basic qui soit; CPU, MEM, stockage qui seront identiques les uns aux autres. Le but : multiplier ces configurations pour augmenter la puissance de calcul et la capacité de stockage simultanément.

Chacun de ces serveurs est ainsi conscient de l’existence de ces voisins afin qu’ils puissent se protéger conjointement.

Pour fédérer l’ensemble de ces serveurs, va être rajouter une couche de logiciel. Cette couche intelligente basée sur le logiciel va tout simplement « clusteriser » les serveurs, les rendre conscients de l’existence de leur voisin. A chaque fois qu’une donnée sera écrite quelque part, elle sera protégée sur le reste du Cluster.

HCIS_SDS_Myvmworld

Cette façon de penser « architecture du Data Center » souvent nommée « web-scale IT » répond ainsi aux problématiques de mise à l’échelle SCALE-OUT. Grâce à cette innovation technologique, nous pouvons étendre un Cluster à l’infini sans jamais être confronté à des problèmes de performance ou de capacité.

L’incrément dans ce modèle est un serveur complet (CPU + stockage).

Toutes les sociétés ne sont pas Google ou FaceBook (même si je leur souhaite le même succès), toutefois, dans l’univers de la virtualisation, nous sommes souvent confrontés à la même problématique.

La virtualisation a tellement simplifié la façon de provisionner les workloads qu’aujourd’hui nous avons multiplié le nombre de machines virtuelles (VMs). Beaucoup plus rapidement que les architectures physiques. Nous sommes donc confrontés à des problématiques de mise à l’échelle, et ce, beaucoup plus rapidement qu’il y a dix ans lorsque la virtualisation n’en était qu’à ses débuts.

D’où l’idée de certains player tels que Nutanix XCP (Xtrem Computing Platform), Simplivity (OmniStack 3.0), ou encore Pivot3 … de proposer cette même logique de web-scale IT pour le monde de la virtualisation et uniquement pour les VMs. D’autres on aussi embrayé le pas à ces player, et notamment Atlantis Computing qui, avant de proposer une solution de type scale-out, a développé une solution d’optimisation de stockage, (SCaleIO EMC, HP VSA, VMware EVO:RAIL, Nimboxx…).

HCIS

La plupart de ces solutions embarquent une VM sur chaque noeud (Hyperviseur+serveur+CPU+MEM+Stockage), cette VM fait office de contrôleur de stockage et embarque toute l’intelligence logicielle. On retrouve ainsi des fonctionnalités de type : compression, déduplication, tiering, réplication… Sauf pour EVO:RAIL où la gestion du stockage et des données est gérée par VSAN qui est inclus dans le Kernel de l’Hyperviseur.

Evolution & Tendance du marché de l’HyperConvergence

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMware Partner Exchange 2015 – Dare To Thrive

Par défaut

La grande conférence annuelle de VMware Partner Exchange vient de se clôturer à San Francisco au Moscone Center : état des lieux

pexbanner

vmwarepex2015-01

Dare : to have enough courage or confidence to do something 

To thrive : to prosper: be fortunate or successful

 

Our Must wins in 2015

Le Partner Exchange c’est aujourd’hui plus de 4000 partenaires et 80 nationalités représentées et rassemblées autour du même leitmotiv « Dare to Thrive« .

La session générale a été introduite par Carl Eschenbach (VMware président & Chief operating officer) qui a remercié activement tous les partenaires et l’écosystème pour leurs apports, leur savoir faire et car ce sont eux qui font aujourd’hui le succès de VMware. Il a aussi fortement étayé son discours autour d’un message clé : oser transformer nos SI et ne pas hésiter à bousculer le modèle traditionnel de ces derniers.

Le PDG de VMware, Pat Gelsinger, a ensuite comparé la stratégie de VMware à l’éducation rurale dispensée en Pennsylvanie et a souligné que VMware désire avant tout se rapprocher de sa communauté de partenaires pour aboutir à toujours plus de succès.

En effet, d’après lui, les DSI ont des difficultés à concilier le monde du « client/serveur » avec celui du « mobile/Cloud« . Ces difficultés affectent leur stratégie de croissance globale et freinent leur efficacité organisationnelle.

Selon Pat Gelsinger, la stratégie de VMware est basée sur le principe du « tout appareil, toute application, un seul Cloud”. L’entreprise a pour objectif de construire un Cloud public, privé et un Cloud hybride basé sur le DataCenter défini par le logiciel.

Il a aussi ajouté qu’il était temps de faire place à un nouveau modèle informatique fondé sur les principes d’accès instantané aux solutions, de fluidité et de sécurité. Il a appelé ce modèle le “Brave New Model of IT”. VMware travaille également sur une approche dite non-conventionnelle à l’informatique pour son architecture de Cloud hybride.

L’environnement des affaires est de nos jours fluide et ce en raison des changements auxquels nous faisons face au quotidien.

Pat Gelsinger a aussi énuméré les principaux objectifs de VMware pour 2015 :

  • Positionner VMware vCloud Air en tant que plateforme de Cloud hybride.
  • Gagner la bataille de l’architecture réseau NSX.
  • Devenir un leader en matière de mobilité professionnelle.

PEX2015_Bridge

What’s New at Partner Exchange 2015 ?

vSphere 6

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMware EVO RAIL Hyper Convergence by VMware

Par défaut

VMware EVO RAIL

C’est annoncé, lors du VMworld 2014 à SF (US) VMware vient de lancer son offre Hyper-Convergée VMware EVO RAIL , suite du projet Marvin, puis du projet Mystic et enfin EVO RAIL. Cette appliance d’infrastructure hyper-convergée repose sur du VSAN, vSphere, et bien entendu pour la partie hardware avec des partenaires comme Dell, EMC, Fujitsu, Inspur, Net One Systems Co. et Supermicro, elle s’inscrit dans la stratégie du SDDC (Software-Defined Data Center).

LOGO-EVO-Rail

L’appliance fera 2 U pour 4 nœuds, chaque nœud aura une configuration minimum de type :

  • Two Intel E5-2620 v2 six-core CPUs
  • 192GB of memory
  • One SLC SATADOM or SAS HDD as the ESXi™ boot device
  • Three SAS 10K RPM 1.2TB HDD for the VMware Virtual SAN™ datastore
  • One 400GB MLC enterprise-grade SSD for read/write cache
  • One Virtual SAN-certified pass-through disk controller
  • Two 10GbE NIC ports (configured for either 10GBase-T or SFP+ connections)
  • One 1GbE IPMI port for remote (out-of-band) management

En attendant de se rendre au VMworld à Barcelone et de gratter quelques informations supplémentaires, je vous invite à lire l’excellent blog de Duncan Epping Yellow-Bricks.

 

To be continued….

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMware : dessine moi un stockage distribué ! VSAN

Par défaut

VIRTUAL SAN ou VSAN

Le buzz autour du VIRTUAL SAN de VMware ( VSAN ) est chaud bouillant. Selon VMware, plus de 12.000 bêta testeurs se sont penchés sur la solution VSAN dans des environnements de pré-production ou en lab afin de mieux comprendre les performances du test ou voir comment la solution peut (ou non) être introduite dans leur stratégie de Datacenter.
 
Petite remarque, durant la phase de test (bêta) on parlait de vSAN, depuis sa date de sortie officielle le 12 mars, on parle de Virtual SAN (VSAN).
 
VMware Virtual SAN ™est un nouveau niveau de stockage défini par logiciel pour les environnements VMware vSphere. Cette solution s’inscrit dans la stratégie de VMware du SDDC, le SDS Software-defined Storage composant logique du SDDC.
 
Une nouvelle approche de stockage voit le jour en raison de l’augmentation des besoins de stockage mais aussi de sa complexité. Aujourd’hui, nous cherchons à simplifier, améliorer l’efficacité, ou encore délivrer des applications utilisant des ressources de stockage dont nous avons besoin sur le plan de la performance et de l’évolution.
Le stockage définit par logiciel est la prochaine génération de stockage qui alimentera les applications et les Datacenters pour les générations à venir. A suivre donc…
 

Et l'histoire continue...
Il y a un peu plus de 20 ans, nous disposions d’architectures de serveur / de stockage traditionnelle, c’est à dire que chaque serveur disposait de son propre stockage local. Résultat : une mauvaise utilisation des ressources, certains serveurs disposaient d’une trop grande volumétrie de stockage et d’autres pas assez.
 

A la fin des années 90, le stockage a été déporté via le réseau sur des unité dédié, le SAN et le NAS se sont démocratisés dans les entreprises (Grands comptes, PME, etc.). Ceci a permis d’améliorer le TCO, mais on a  aussi remarqué que l’acquisition de ressources de stockage faisait parti des principaux budgets d’investissement des DSI avec la croissance exponentielle des données.
 
Depuis 3 ans, nous avons vu se dessiner sur le marché du stockage, l’apparition de nouveau type de baie de stockage basé sur la technologie Flash.
 

Virtual SAN est une solution logicielle de stockage distribuée qui est implémentée directement dans l’hyperviseur. Et Non, ce n’est pas une appliance virtuelle comme la plupart des autres solutions (par exemple: VSA). 
 
Le Software-Defined Storage consiste à glisser une couche d’abstraction des ressources de stockage physique hétérogènes pour créer des pools logiques de stockage dans un environnement de données virtualisées. Le SDS via VSAN automatise le provisioning et la gestion de stockage avec une approche auto-apprentissage par VM-centric.
Software-Defined Stockage fournit un stockage qui est efficace, agile et souple.

Les cas d’usage du VSAN:

  • Virtual desktops (VDI) : modèle scale out, réduction des coûts et simplification des opérations. VSAN est compatible avec Horizon View 5.3.
  • Développement & test : cela permet d’éviter de faire l’acquisition d’un stockage. 
  • Big Data : modèle scale out avec des capacités de bande passante élevées.
  • Objectif DR: solution de Disaster recovery à moindre coût, grâce aux fonctionnalités de réplication comme vSphere Replication.
Virtual SAN a été introduit avec la version de vSphere 5.5 U1, VSAN est en version 1.0
 

Virtual SAN est disponible en 2 éditions

  • VMware Virtual SAN, coût au CPU de l’hyperviseur, tous les processeurs doivent être licenciés.
  • VMware Virtual SAN For Desktop, licencié par utilisateur concurrent (CCU), avec des packages 10/100 licences, l’offre est alignée avec celle d’Horizon View.
source : VMware Virtual SAN Customer Presentation EN.pptx
Le VSAN est composé obligatoirement de 2 types de disque pour chaque hyperviseur, les disques SSD contribueront à la performance et les disques magnétiques (HDD) seront dédiés à la capacité.  On ne peut pas utiliser uniquement des SSD ou des HDD, on doit mixer les 2 types de disques. Minimum : chaque host doit disposer d’un disque SDD et un disque HDD.
Pour la validation des disques et des contrôleurs disques, consultez la HCL VMware vsanhcl.
 
Un cluster VSAN doit contenir un minimum de 3 noeuds ESXi. VSAN ne requière pas la construction d’un RAID local.
VSAN supporte à la fois les commutateurs de type vSphere Standard Switch vSphere Distributed Switch avec des liaisons de 1GbE ou 10GbE. VMware recommande l’utilisation de vSphere Distributed Switch avec 10GbE de liaison montante afin de supporter les activités de réplication et de synchronisation.
 
Taille du Flash Cache : dans VSAN 30% de chaque dispositif flash est utilisé comme write-back buffer. VSAN utilise 70% de chaque dispositif flash comme read cache.
 
Chaque host supporte au maximum 5 groupes de disque, les groupes de disques peuvent être considérés comme un conteneur dans lequel les périphériques flash SSD / PCIe et disques magnétiques sont reliés entre eux.
 
Chaque groupe de disque peut disposer au maximum d’1 disque SSD et de 7 disques HDD. Donc par host, on peut avoir au maximum 5 disques SSD et 35 disques HDD.
VMware recommande d’utiliser au moins un ratio 1:10 de SSD:HDD.
Pour calculer et dimensionner votre infrastructure VSAN, je vous invite à consulter le blog VMware écrit par Cormac Hogan.

Comment VSAN gère une défaillance disque ou d’un hôte :

A partir de Virtual SAN, on peut définir plusieurs politique de protection au niveau des VMs. La gestion du stockage est basée sur des règles ou profils (SPBM, Storage Policy Based Management), ces règles vont répondre aux besoins de chaque VM, en terme de performance, capacité et disponibilité.  Vous l’aurez donc compris : le Stockage Policy Based Management (SPBM) joue un rôle majeur dans les politiques et l’automatisation de la stratégie de stockage. 
 

VSAN  supporte actuellement cinq règles de capacité de stockage:

SPBM

  • Number of Failures to Tolerate
  • Number of Disk Stripes per Object
  • Flash Read Cache Reservation
  • Object Space Reservation
  • Force Provisioning

 

A partir de la version 6.0 d’Horizon View, la gestion des profils de stockage (SPBM, Storage Policy Based Management) sera entièrement intégrée.
 
VSAN assure la réplication pour chaque objet créé au sein du datastore.
Une VM est un ensemble de fichier, et chaque fichier est vu comme un objet dans VSAN, par exemple le fichier .vmdk (disque virtuel de la VM). 
 VSAN va créer deux objets identiques via un replica et un témoin. Un réplica est une copie des objets de la machine virtuelle à la création de celle-ci. La capacité de la disponibilité dicte le nombre de répliques qui sera créé, ce qui permet à la VM de rester en cours d’exécution si un hôte est défaillant.
Le témoin est là, juste au cas où quelque chose arrive à votre cluster et pour vous aider à décider qui va prendre le contrôle en cas de défaillance (tie-breaker), le témoin n’est pas une copie de votre objet, le témoin contient uniquement les métadonnées. Donc chaque objet créé possède son double (un miroir) et un témoin (witness), les témoins n’occupent pas beaucoup de place ,environ 2 Mo.
 
Lors d’une panne d’un hôte, soit une défaillance hardware ou une perte de connectivité VSAN, le cluster VSAN attendra 60 minutes avant de commencer la copie des objets et des composants sur un groupe de disques d’un hôte opérationnel.
Il existe deux méthodes principales pour créer un nœud  VSAN, vous pouvez soit acheter un serveur pré-configuré qui utilise des composants architecturés pour VSAN ou construire votre propre nœud à partir de la liste des composants qui sont inclus sur la VSAN HCL de VMware.

Les chiffres clés du Cluster VSAN

source : VMware Virtual SAN Customer Presentation EN.pptx

Group Disk

source : VMware Virtual SAN Customer Presentation EN.pptx

Interopérabilité VSAN et vSphere 5.5

source : VMware Virtual SAN Customer Presentation EN.pptx

Capacité de stockage les recommandations 

source : VMware Virtual SAN Customer Presentation EN.pptx

Performance & Capacité

source : VMware Virtual SAN Customer Presentation EN.pptx

Configuring a 16 Node VMware Virtual SAN cluster with Distributed Switch

How to Supercharge your Virtual SAN Cluster (2 Million IOPS!!!)

Sizing VSAN

Depuis début août 2014, vous pouvez trouver un outil en ligne qui vous permettra de dimensionner votre environnement VSAN, il vous suffira de renseigner quelques inputs, comme par exemple : nombre de VM, nombre de de VMDK par VM, quantité de mémoire par VM, taille des HDD, nombre de VM par core,…
VSAN Sizing

VSAN Sizing

 
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

vSphere 5.5 update 1 | 11 mars 2014| Version 1623101

Par défaut

VMware VSAN est attendu depuis longtemps, fonction de stockage qui est incluse dans l’hyperviseur et qui permet d’utiliser des disques connectés localement (disques SSD et disques mécaniques), pour créer un pool de stockage sur l’ensemble du cluster. Sans la nécessité d’un SAN externe ou NAS.  Pour savoir d’avantage sur le contenu des mises à jour ici.

 

What’s New

  • VMware a publié le 11 mars sa dernière mise à jour de vSphere 5.5 Update 1. Cette mise à jour inclut la plupart des produits VMware et surtout pour nous livrer la première version officielle de VMware Virtual SAN (VSAN).

  • Le plug-in vCloud Hybrid Service vSphere Client est disponible pour le vSphere Web Client.
  • vCenter Server supporte totalement le système d’exploitation Windows Server 2012 R2 pour les la personnalisation des machines virtuelles.
  • De nombreux bugs corrigés (par exemple: SSO)

Quels produits ont été mis à jour?

 

  • ESXi 5.5 U1
  • VMware vCenter Server 5.5 U1
  • vSphere Replication 5.5.1
  • vSphere Data Protection 5.5.6
  • VMware vCenter Orchestrator appliance 5.5.1
  • VMware vCloud Director 5.5.1
  • VMware vCenter Operations Manager Advanced 5.8.1
  • VMware vCenter Hyperic 5.8.1 Server (and agent)
  • VMware vCenter Site recovery manager 5.5.1
  • VMware vCloud Application Director 6.0.1
  • VMware Horizon View 5.3.1 (Quick Start Guide – kb.vmware.com/kb/2073795)
  • VMware Horizon Workspace 1.8 (release notes)

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

What’s Up VMware?

Par défaut
Le VMworld 2013 s’est achevé à San Francisco le 29 Août dernier, et non il faudra attendre le VMworld 2014 pour la version 6 de vSphere. Donc en attendant, VMware nous propose une sorte de Teaser avec la sortie de vSphere 5.5. 

Parmi les nouvelles fonctionnalités que je détaillerai prochainement et après avoir maquetté la version 5.5, je vous propose de consulter la synthèse des nouveautés 5.5, ici:
 
Avec son lot de nouveauté, on y trouvera le Virtual SAN: dorénavant « vSAN » qui est la solu­tion SDS (Soft­ware Defined Stor­age) de VMware, qui permet de mettre à dis­po­si­tion un système de stock­age partagé à l’aide de pool de dis­ques SSD et traditionnels, vous apportez les disques durs VMware s’occupe d’apporter l’intelligence, What Else! 
Cette solution n’est pas une appliance virtuelle mais bel et bien une fonctionnalité intégrante de l’hyperviseur.
VSAN provient de l’acquisition de VIRSTO par VMware l’année dernière.
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook