Acheter la convergence aujourd’hui pour respirer le futur

Par défaut

Par Emmanuel Forgues

Voir le profil d'Emmanuel sur LinkedIn

Acheter la convergence (VCE, VMware, EMC) ou l’Hyper-convergence (VCE, Nutanix, Simplivity, Atlantis) aujourd’hui pour respirer le futur

 

Délivrer l’IaaS comme fondation de l’ITaaS

it_myvmworldPour reprendre et donner une prolongation à l’article de Noham « Pourquoi conduire la transformation de l’IT est aujourd’hui un incontourable ? » : Il y a quelques temps les fournisseurs externes arrivaient à être plus précurseurs que les départements informatiques des entreprises, poussant les utilisateurs à expérimenter eux-mêmes les nouvelles options qui s’offraient à eux comme le Cloud Public. Avec un usage de plus en plus large des technologies et services externes à l’entreprise, les utilisateurs on fait apparaitre des risques considérables pour l’entreprise, créant par la même occasion un nouveau marché : le shadow IT (l’IT cachée). La convergence de ces nouvelles tendances et le sursaut des DSI pousse à voir apparaitre une nouvelle tendance : l’ITaaS (IT As A Service) ou l’ensemble des services de l’IT peuvent être proposés comme un service externe rétribué à l’usage et prenant en charge les besoins des utilisateurs ‘hors-control’ par le DSI. Dans cette course au besoin et aux réponses, les DSI peuvent prendre une longueur d’avance considérable et innovante.

Avant d’en arriver à choisir l’ITaaS (IT as a Service) il faut commencer par la base et choisir son infrastructure pour répondre aux besoins des développeurs (Dev) et de l’opérationnel (Ops). Les logiciels et le matériel doivent offrir :

  • la mise à disposition d’environnement rapidement en mode self-service
  • tous les mécanismes d’automatisations associés
  • l’identification des couts (refacturation transparente des coûts)
  • sécurisation : encryption, authentification, contrôle des accès
  • évolutivité possible (d’autres Hyperviseurs par exemple)

La partie logicielle a déjà été abordée dans l’article sur l’association de l’hyper-convergence et des entreprises pour répondre au besoin du DevOps, nous abordons dans celle-ci le choix de l’infrastructure et ses critères. Néanmoins, il ne faut pas perdre de vue que l’infrastructure se verra totalement masquée par tous les services additionnels pour faire bénéficier à l’entreprise l’expérience du SDDC. Par extrapolation, l’importance du type de matériel est très faible à partir du moment où il délivre le service demandé. Il saura se rappeler à votre mémoire lorsqu’il ne sera pas possible d’en augmenter les ressources, en cas de panne, pour des migrations impossibles ou compliquées et autres actions classiques sur une infrastructure.

silos_myvmworld

Choix du socle de l’infrastructure

Nous avons assisté il y a de cela quelques années à une grande phase d’optimisation des infrastructures avec la virtualisation. En virtualisant les serveurs physiques nous avons assistés à un gain conséquent de toutes les ressources dans les entreprises (humains, financiers, énergétiques, etc…). Dans un premier temps avec la virtualisation des services puis la virtualisation du stockage avant d’aborder la virtualisation des réseaux (dernière étape peu démocratisé).

serveur-tradi hyperviseur

Mais il fallait aller encore plus loin dans la densification des infrastructures. Les éditeurs faisaient échos aux besoins toujours aussi nombreux et de plus en plus complexe en apportant des réponses qui ne simplifiaient pas pour autant les infrastructures.

pay_infra_myvmworld

Nous en sommes à une nouvelle étape de simplification et d’optimisation des infrastructures en réduisant l’hétérogénéité : des éditeurs, des équipements et des contrats de maintenance. C’est à ce moment que sort du bois la technologie de convergence (Flexpod de Netapp, VCE, VMware,…) et l’Hyper-convergence HCI (Nutanix, VCE vXRail, Simplivity, Atlantis, …). Cette optimisation permet d’avoir dans un seul et unique boitier (Baie ou Appliance) aussi bien les serveurs, le stockage que les infrastructures réseaux nécessaires (IP ou stockage).

Construire son propre DataCenter sur des équipements traditionnels

architecture_hci_myvmworld

Source : http://www.lemagit.fr/definition/Hyperconvergence-ou-Infrastructure-Hyperconvergee

L’infrastructure classique continue de répondre aux besoins des entreprises et ça va continuer ainsi encore pendant un moment. Avec l’approche classique (Legacy) ou en convergé ou Hyper convergé l’édifice doit être construite sur de bonnes bases. Pour disposer de l’expérience du SDDC au service du DevOps, vient s’empiler des couches successives de services. Ce qui confère à l’infrastructure toute son importance dans l’édifice. L’approche Hyper-Convergée offre cette simplification technique recherchée.

 

Continuer sur son infrastructure classique ou basculer vers le convergé ou l’Hyper-convergé est une étape lourde et compliqué. Dans l’équation il ne faut pas oublier les aspects financiers : coûts d’acquisition mais aussi les couts indirects et cachés : prix de la maintenance, consommation électrique, refroidissement, etc …

criteres_hci_myvmworldLe choix de la technologie pour le socle de toute la solution doit se faire selon plusieurs critères :

 

Modélisons une situation financière dite idéale ou ; après un investissement initial faible, la courbe d’investissements des évolutions vient exactement se superposer à la courbe des besoins comme ci-dessous :

capex_myvmworld

capex02_myvmworldEn faisant figurer les investissements initiaux d’acquisition de matériel (incluant maintenant, etc) et la courbe des besoins dans une situation idéale nous avons le diagramme suivant. Les investissements suivent alors parfaitement les besoins. Ce cas de figure est possible aujourd’hui mais uniquement dans une approche en cloud ou il est possible de consommer en fonction des besoins et de payer à l’usage.

 

Appliquons la même méthode de modélisation pour comprendre les investissements dans une infrastructure traditionnelle.

Nous retrouvons l’investissement initial qui est incontournable et souvent relativement important. La croissance va pousser l’entreprise à continuer ses acquisitions en fonction des besoins et créer ainsi un impact relativement conséquent sur ses budgets. Par souci de simplification, je fais figurer les investissements matériels, le support, les renouvellements et les autres coûts adjacents comme un seul et même investissement.

capex_03_myvmworld

Pour donner une représentation concrète des couts liés à une infrastructure j’applique la méthode suivante :

  1. faire figurer la courbe des besoins (réguliers et constants pour simplifier)
  2. l’investissement initial
  3. L’ajout par couches successives des acquisitions qui accompagne les besoins.

Partant de cette représentation le coût en excèdent (ressource acheté et non utilisée) figure au-dessus de la courbe des besoins : I1 + S1+…S4+S4′

I1 = représente la surface des besoins non utilisés mais achetés.

S1+…S4+S4′ = représente le surinvestissement pour l’évolution de l’infrastructure.

S4′ = représente le surcoût lorsque la scalabilité de l’offre est arrivée à son extrême et que le coût de l’incrément est constant, incompressible et supérieur au besoin. Ce coût excédentaire est le plus notable car oblige l’entreprise à une acquisition excessive par rapport à un besoin pouvant être faible.

Les moments dans cette phase d’investissement successif qui sont les plus intéressants à observer sont :

– lorsque l’acquisition utile (sous la courbe) devient moins important ou égale que l’acquisition non-utilisée (au-dessus de la courbe)

– Pendant combien de temps le non-utilisé acheté est supérieur à l’utilisé acheté.

C’est à ce moment dans la vie de l’infrastructure qu’il faut financièrement anticiper la pertinence de la technologie sélectionnée. Une offre qui permet d’optimiser une infrastructure existante avec un impact minimum sur les budgets doit se trouver entre ces deux cas tout en restant le plus proche possible de la solution dite « idéale ». Dans le cas où le choix est de remplacer une infrastructure existante par une solution entièrement Hyper-convergée cela revient à racheter l’infrastructure initiale. Cette démarche sur un gros Datacenter risque donc d’être financièrement rédhibitoire.

La solution la plus réaliste modélisé dans l’exemple ci-dessous consiste à avoir un investissement initial faible (ou sinon plus faible qu’une infrastructure standard L1<I1) et ou l’augmentation des ressources se passe avec la granularité la plus fine en ajoutant ce qui est au plus proche de ce qui est nécessaire.

capex04_myvmworld

Le marché propose des solutions qui techniquement tienne vraiment la route mais ou l’investissement initial est aussi élevé que l’infrastructure traditionnelle. Si en plus la solution n’offre pas de modularité il devient compliqué de justifier l’acquisition d’un bloc complet pour répondre à un manque d’espace disque (par exemple).

Sans une « granularité fine » nous aurions le diagramme ci-dessous.

capex05_myvmworld

Au moindre besoin supplémentaire l’achat d’un serveur complet est nécessaire avec une surface d’investissement non utilisé très important. Même si c’est moins souvent que les autres solutions cela revient à racheter une maison quand j’ai besoin d’agrandir un peu ma cuisine.

Cet article vient à la suite des 2 articles suivant :

 

emmanuelforguesEmmanuel Forgues

Pour suivre Emmanuel et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Emmanuel Forgues Voir le profil de Emmanuel Forgues

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMworld 2016 : the place to be !

Par défaut

vmworld2016_myvmworld

J-4 : VMworld 2016

Si vous suivez les flux des réseaux sociaux (Twitter, Linkedln,…) ou lisez les prévisions des analystes, le Cloud public semble sans aucun doute être la tendance du moment et prendre le pas sur le DataCenter.

cloud-computing-trends-2016-public-yoy

A nouveau, on pourrait se questionner sur le pourquoi de ma participation au VMworld pour la 6ème année consécutive ?

Ma première réponse est limpide : le Cloud public ne prend pas l’ascendant sur le DataCenter classique, du moins pas sur tous les DataCenters. Mes diverses expériences m’ont permis d’interviewer un bon nombre de clients (CAC 40 et service public) et de constater que tous n’avaient pas la maturité suffisante pour migrer vers le Cloud Public.

Notons ensuite que le VMworld reste indiscutablement le point central de ralliement de l’écosystème de l’infrastructure informatique. vSphere étant toujours le moteur du Datacenter pour de nombreux clients.

En complément des informations diffusées par les sociétés traditionnelles de matériel et de logiciels, VMworld demeure le lieu ou il faut être pour entendre parler concrètement d’infrastructure hybride. Je suis en effet convaincu que le Cloud public et l’infrastructure privée coexisteront pour la majorité des grandes entreprises. En effet, même les entreprises qui se dirigent vers le Cloud public exigent aujourd’hui une méthode de transition et une mise à disposition d’une infrastructure hybride.

Dans l’offre du Cloud public, de nombreux architectes et responsables informatique se questionnent sur la mise en oeuvre du réseau et des règles de sécurité. Google Compute, AWS et Azure utilisent tous des abstractions de réseau et des approches de sécurité différentes. Alors comment opérer son choix ?

  • NSX semble offrir une solution à ce défi où la gestion parait très complexe. En effet, NSX va permettre de transporter les conceptions de réseau existantes dans le Cloud public.

Les 10 bonnes raisons de venir au VMworld 2016 à Barcelone :

vmworld-2016-europe-top-10-reasons-to-attend

Le VMworld c’est plus de :

  • 300 sessions techniques et discussions
  • Hands-On Lab en compagnie d’Experts VMware
  • + de 130 sponsors
  • + de 50 groupes de discussion
  • des offres spéciales pour passer les certifications
  • du networking, …

VMworld est donc « The place to be » !

Pas seulement pour entendre les messages de VMware, mais aussi pour appréhender la façon de démarrer et de gérer des infrastructures hybrides provenant d’autres fournisseurs. C’est aussi l’occasion de découvrir de nouveaux acteurs au Solution Exchange, de retrouver des partenaires, des clients, des amis et de vieilles connaissances…

VMworld2015_myvmworld03 Eschenbach_Noham_Myvmworld vmworld2014_1Day2

VMworld 2016 Europe Mobile App

Depuis le 11 octobre, il est possible de télécharger l’application mobile (iOS & Android) « VMworld EUROPE 2016 », vous pourrez suivre en direct le VMworld et retrouver votre agenda personnel, évaluer la qualité des sesions, des informations sur les sessions…

mobile vmworld2016 moble vmworld

Remerciement au programme vExpert

vexpert

Par le biais de ce post, je souhaite également remercier le programme vExpert qui m’a donné cette année, une possibilité supplémentaire de pouvoir assister au VMworld et ainsi de relayer avec toujours autant d’enthousiasme cette 9ème édition européenne pour la communauté francophone.

:  Thanks for your support Corey


Retrouvez ci-dessous la liste des bloggers officiels du VMworld 2016, dont 3 frenchies : Cédric pour vblog.io  Vladan pour vladan.fr  et myvmworld.fr

Abdullah Abdullah http://notes.doodzzz.net
Alastair Cooke http://demitasse.co.nz/
Amit Panchal http://apanchal.com
Andrea Mauro http://vinfrastructure.it
Ather Beg http://atherbeg.com
Benjamin Torch http://virtualb.eu
Cedric Quillévéré http://vblog.io
Chris Bradshaw http://isjw.uk
Daniel Romero Sanchez http://dbigcloud.com
Ivo Beerens http://ivobeerens.nl
Jorge DelaCruz http://jorgedelacruz.es
Jose Manuel Hernandez http://josemhernandez.com
Jose Maria Gonzalez http://josemariagonzalez.es
Karel Novak http://rsts11.com
Kim Bottu http://virtual-kim.com
Kim Bottu http://vmusketeers.com
Leandro Ariel Leonhardt http://blogvmware.com
Lino Telera http://blog.linoproject.net/
Magnus Andersson http://vcdx56.com
Manfred Hofer http://vbrain.info
Manlio Frizzi http://virtualaleph.blogspot.com
Manny Sidhu http://virtual10.com
Marco Broeken http://vclouds.nl
Mark Brookfield http://virtualhobbit.com
Massimiliano Mortillaro http://kamshin.com
Mohamed Roushdy http://arabitnetwork.wordpress.com
Noham Medyouni http://myvmworld.fr
Ranjit Singh Thakurratan http://rjapproves.com
Robert Verde http://cloudfix.nl
Roy Mikes http://mikes.eu
Russell O’Connor http://virtualizationgains.com
Vladan Seget http://vladan.fr
Xavier Caballé Noguera http://pantallazos.es
Xavier Genestós http://sysadmit.com

Retrouvez les Breakout Sessions des éditions précédentes disponibles sans inscription :

vmworld-breakout-sessions_myvmworld

 


 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Hyperconverged technologies and companies facing the DevOps paradigm

Par défaut

By Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

Hyperconverged technologies (Nutanix, Simplivity, VCE) and companies facing the DevOps paradigm

To survive today, a company faces a challenge: the balance between development time and market demand. It is not possible to wait 6 months to come up with an application. The release of a new OS (Android, IOS, Windows, …) requires immediate reactivity or the company might face a potentially heavy financial penalty or just miss a new market. However, we must not confuse speed with haste when marketing cannot wait, especially in an economic context crippling budgets. Just look at the sad example of the mobile application deployed urgently, at the request of the French authorities to inform on terrorist actions. This application (SAIP), developed in 2 months by a team of 15 engineers functioned for a few hours only after the attack in Nice.

The new convergence and hyper-convergence solutions provide companies with the  rationality of an infrastructure to face the challenges of DevOps. The major publishers have different approaches but should eventually be able to integrate a broader range of technologies into a single offer.

The non-named problems encountered in business:

Two technical entities participate in the development of all the companies relying on IT.

On one hand, the development team (DEV) which produces IT solutions both for internal or external use, and, on the other hand, the operation team (OPS) which provides DEV with the necessary tools and maintains them. We see that their goals are often contradictory within the same company, in fact their alignment is a strategic and economic challenge for IT departments.

For convenience we will speak of DEV for Development and OPS teams for Operational teams.

Where is the brake between market demands and technical services? Why is DEV not reactive enough? First answers: because they are hamstrung by overly rigid infrastructure, inadequate service catalog and physical or virtual infrastructure without  « programmability » capacity. Why are OPS not reactive enough? It is likely that they are not sufficiently involved with the DEV teams to meet their expectations.

Obviously the physical and virtual infrastructure has to change to become more programmable. At the same time the DEV must be able to program infrastructure and OPS must be able to understand and control the interactions of DEV with the infrastructure. In short, the difficulties between DEV and OPS are as follows:

We will call « DevOps » the necessary confrontation between these two teams. DevOps is the concatenation of English words Development and Operation

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

L’hyper-convergence et les entreprises ensemble face au paradigme du DevOps

Par défaut

Par Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

L’hyper-convergence (Nutanix, Simplivity, VCE) et les entreprises ensemble face au paradigme du DevOps

Pour survivre aujourd’hui, l’entreprise est face à un challenge : l’adéquation entre le temps de développement et la demande du marché. Il n’est, en effet plus possible d’attendre 6 mois pour sortir une application. La parution d’un nouvel OS (Android, IOS, Windows, …) nécessite une réactivité immédiate sous peine d’une sanction financière pouvant être lourde ou simplement de louper un nouveau marché. Cependant, il ne faut pas confondre vitesse et précipitation lorsque le marketing ne peut pas attendre et dans un contexte économique grevant les budgets. Il suffit de regarder le triste exemple de l’application mobile déployée, en urgence, à la demande des pouvoirs publics français pour informer sur les actions terroristes. Cette application (SAIP) développée en 2 mois par une équipe de 15 ingénieurs n’a fonctionnée que plusieurs heures après l’attentat de Nice.

                  Les nouvelles solutions de convergence et d’hyper-convergence fournissent aux entreprises la rationalité de l’infrastructure face aux challenges du DevOps. Les principaux éditeurs ont des approches différentes mais doivent à terme être capables d’intégrer un ensemble plus large de technologies dans une seule et même offre.

La problématique non-nommée rencontrée dans les entreprises :

Deux entités techniques participent aux développements de l’ensemble des entreprises s’appuyant sur l’Informatique. D’un côté les équipes de développement (DEV) qui vont produire une solution informatique (usage interne ou usage externe) et de l’autre côté les équipes des Opérations qui sont là pour mettre à disposition de la première équipe des outils nécessaires et en assurer la maintenance. Nous verrons que leurs objectifs sont trop souvent contradictoires au sein de la même entreprise et l’alignement de ceux-ci est un challenge stratégico-économique pour les DSI.

Par commodité nous parlerons de DEV pour les équipes de Développement et de OPS pour les équipes Opérationnelles.

Où se trouve le frein entre les demandes du marché et les services techniques ? Pourquoi le DEV n’est pas suffisamment réactif ? De premiers éléments de réponse : car ils sont bridés par des infrastructures trop rigides, un catalogue de services inapproprié et infrastructure physique ou virtuelle sans capacité de « programmabilité ». Pourquoi les OPS ne sont-ils pas assez réactifs ? Il est fort probable qu’ils ne soient pas suffisamment impliqués par les équipes DEV pour répondre à leurs attentes.

A l’évidence l’infrastructure physique et virtuelle doit changer pour devenir plus programmable. Dans le même temps les DEV doivent pouvoir programmer l’infrastructure et les OPS doivent pouvoir comprendre et contrôler les interactions des DEV avec l’infrastructure. En résumé, les difficultés entre DEV et OPS :

Nous nommerons « DevOps » cette confrontation nécessaire de ces deux équipes. DevOps est la concaténation des mots anglais : « development » (développement) et « Operation » (exploitation).

La grande majorité des analyses mettent en avant que les années 2016-2017 seraient le début d’une adoption massive du PaaS (Plate-Forme as a Service), du DevOps et du container Docker.

  • IDC : 72 % des sociétés vont adopter le PAAS
  • DZone : 45 % des interrogés répondent qu’ils évaluent ou utilisent déjà les Docker Containers
  • Right Scale : 71 % des entreprises annoncent une stratégie basée sur plusieurs clouds.

PAAS :

paas_myvmworldUne « Plateform as a Service » (PAAS) est un service de « Cloud computing » fournissant une plateforme et un environnement nécessaire aux développeurs avec les avantages du « cloud ».

Ce service offre :

  • Une capacité de montée en charge importante et rapide sans les coûts associés d’investissement et de maintenance.
  • L’usage via une interface WEB sans les compétences d’infrastructure complexe
  • Flexibilité des services à utiliser et des circonstances d’utilisation
  • Environnement collaboratif poussé à l’extrême
  • Sécurité assurée par le fournisseur de PAAS pour les accès et les données

Container Docker :

docker_container_engine_logo

                  Aujourd’hui se pose toujours la question du déploiement des applications actuelles. Mais très vite il va falloir se poser la question du déploiement des applications du futur (container/Dockers). La technologie Docker va permettre l’exécution des services sur n’importe quel serveur quel que soit l’infrastructure cloud ou non.

 Contrairement à une VM (Machine virtuelle de plusieurs Go), le container (quelques Mo) n’embarque pas d’OS. Le container/Docker est donc plus léger et plus rapide à démarrer, déplacer, dupliquer (ainsi que toutes les autres actions de maintenance courante).

Considérons une entreprise qui doit augmenter brutalement les ressources pour un développement stratégique urgent (secteur bancaire, sociétés de développement, …). Avec une solution traditionnelle de VM, il faut avoir provisionné un grand nombre de VM en attente et les démarrer pour les mettre à disposition. Il est donc nécessaire de disposer au même instant de l’infrastructure nécessaire pour supporter le démarrage de tous ces environnements : CPU, RAM, Stockage, I/O disque et I/O réseau, …).

En éliminant l’OS, les containers consomment de 4 à 30 fois moins de RAM et de disques. Dans ce cas quelques secondes suffisent pour démarrer les applications. Les containers/Dockers sont aux applications ce que la virtualisation était aux serveurs dans les années 90.

Aujourd’hui leurs usages facilitent les développements en automatisant l’intégration. Cette intégration est continue et automatise les passages successifs des mises jour du code source provenant des environnements du dev, QA, pre-prod jusqu’à la production.

 Nous mettons en exergue le problème de la mise en production de ces containers qui ne peut se faire par les équipes IT tant que le contrôle du réseau, sécurité, stockage, sauvegarde, supervision… ne sont pas correctement intégrés à la programmation et à la configuration du Container. Dès lors, les containers seront la réponse logicielle au DevOps car utilisés par les DEV qui consomment de l’infrastructure tout en étant maîtrisé par les OPS. Pour une bonne intégration les éditeurs proposent déjà des solutions d’orchestration pour gérer l’équilibrage de charge, la gestion de la résilience, chiffrement, etc.

Selon Datadog, l’adoption des dockers a augmenté de 30% en 1 an :

source Datadog

Les Container Docker apporteront rapidement tous leurs bénéfices comme solution au DevOps !

Le problème nommé est donc le DevOps :

                  devops_03_myvmworldSelon le Gartner, le DevOps dépassera le stade de la niche en 2016 avec 25 % des très grandes entreprises mondiales qui l’auront adopté représentant un marché de 2,3 milliards de $. Selon IDC, En France 53 % des entreprises ont engagé une démarche DevOps généralisée à tous leurs développements.

Face aux difficultés des entreprises à transformer leurs infrastructures classiques en une solution suffisamment agile, les fournisseurs de cloud peuvent proposer la mise en œuvre du DevOps avec leurs approches Scale-Out et leurs propositions d’économies d’échelles.

La mise en œuvre de DevOps oblige à regarder plusieurs problèmes : structurels, organisationnels, de ressources, etc. Pour le DSI, en charge de la réponse technique il est cauchemardesque de mettre en place une infrastructure agile avec des équipements actuels traditionnels. Il lui faut gérer aussi bien des environnements complexes, de multiples serveurs (stockages, computing, réseaux, sécurité) que des services de développements (Bases de données multiples, les portails WEB, les logiciels de développements comme python, C++, les libs et autres APIs, les applications de supervision et d’analyse de performance…). Les technologies de containers et les réseaux overlays apportent des réponses pertinentes aux problèmes de réseaux, à condition que les administrateurs de ces services anticipent leur arrivée. L’ensemble devant se réaliser dans un temps record en supportant la pression externe du marché, la pression interne du marketing et avec des budgets restreints. Une fois l’ensemble en place, il faut enfin en tirer profit au maximum pour que toutes les applications interagissent entre elles correctement tout en étant capable de gérer les besoins de migration rapides. Le tout sans impacts pour l’ensemble de l’infrastructure.

  1. Nombre de serveurs physiques ou virtuels
  2. Nombre de services de développement
  3. Garantir la stabilité et les interactions face à une complexité grandissante en fonction du nombre de serveurs et de services
  4. Temps de mise en œuvre qui soit être de plus en plus court
  5. Contrainte des budgets
  6. S’assurer de la capacité des migrations d’un environnement vers un autre en s’assurant de maintenir les 3 points précédents
  7. Pression du marché (marketing dans l’entreprise) grandissante
  8. Garantir l’évolution des acquisitions sur quelques années

En excluant les solutions traditionnelles, il y a sur le marché deux grandes tendances répondant à ces besoins :

  1. Construire/assembler pour un « Workload » Spécifique : les principaux acteurs étant Oracle Exadata DataBase Machine (les Hyper-Appliances).
  2. Intégrer l’ensemble du stockage, la puissance de calcul (computing), le réseau… dans une solution capable de démarrer plusieurs workloads (les solutions de convergences et d’Hyper-convergences comme Nutanix (http://www.nutanix.com)Simplivity (https://www.simplivity.com/), VCE (http://www.vce.com/), …) Aujourd’hui ces technologies peuvent faire fonctionner les workloads actuels mais devront aussi anticiper les prochains.

Les infrastructures (Hyper-)convergées et les systèmes intégrés présentent le plus fort potentiel pour s’intégrer dans une solution de DevOps. Elles offrent toutes les avantages d’être extensible, standardisation de l’IT, programmable…

Certains acteurs proposent dans leurs offres toute ou partie de l’ensemble des briques intéressantes pour un DevOps :

  • Flexibilité de la mise à disposition des ressources (stockage, CPU, RAM,…) avec des solutions de (hyper-)convergence.
  • Mise à disposition des applications nécessaires avec des solutions dockers ou de containers et les applications pour le provisionnement rapide.
  • Provisionnement rapide des environnements de travail via un portail Web : 1-Click.
  • Réduction des compétences complexes et couteuse dans les équipes d’infrastructure
  • Externalisation totale de l’infrastructure pour ne plus en supporter les couts.

Aujourd’hui les sociétés VMware, CISCO et Nutanix peuvent provisionner aussi bien des VMs que des containers, Simplivity à ce jour est capable de le faire rapidement pour les VMs uniquement, (mais je ne vois pas cette société être en reste longtemps). VMware est capable d’avoir un seul OS pour supporter plusieurs containers simplifiant déjà la gestion de cet OS. Nutanix est capable de provisionner les Containers avec leurs stockages. La société Nutanix à acquis Calm.io mais va devoir faire évoluer le produit pour être capable de déployer les applications actuelles comme elle est déjà capable de le faire pour les applications futures. Toutes ces sociétés montrent une étonnante capacité à ne pas se créer des points de blocage pour aborder le futur sereinement.

devops_02_myvmworld

Ces acteurs peuvent dès aujourd’hui répondre aux besoins des entreprises pour simplifier l’infrastructure en supprimant des serveurs comme le SAN ou de faire disparaître le Fiber-Channel, simplifier les backups et profiter des PRA dans des conditions plus acceptable. Dans un deuxième temps il sera important de pouvoir mieux tirer profit de ces infrastructures pour déployer, déplacer… des environnements. Enfin, ces mêmes acteurs seront alors capables de répondre entièrement aux besoins du DevOps.

Aujourd’hui ces acteurs se battent sur le marché de l’infrastructure mais le nerf de la guerre s’est déjà déplacé sur le « provisionnement » des applications avec l’infrastructure associée et nécessaire (SDDC). Déjà certains d’entre eux se positionnent sur l’infrastructure et dans le même temps montent vers les couches logicielles.  Un œil comptable sur leurs marges pour constater qu’elles se rapprochent de celles des éditeurs de logiciels (85%). Tous ces acteurs sont d’ores et déjà capables de proposer la simplification mais certains anticipent l’optimisation de ces mêmes infrastructures (VCE, Nutanix par exemple). Le gagnant sera certainement celui qui arrivera à proposer une solution intégrée unique et capable de déployer aussi bien les applications d’aujourd’hui (Exchange, etc.) que celle de demain (Containers/Dockers). Quand et qui sera le premier à proposer la première solution « SDDC all in a box » capable de répondre à tous ces besoins ?

Article sur la problématique de l’évolution de l’infrastructure et dans la continuité de l’article ci-dessus : « Transition entre les infrastructures traditionnelles et le cloud natif avec l’hyper-convergence (VCE, Nutanix, Simplivity)« 

emmanuelforguesEmmanuel Forgues est diplômé de l’EPITA (promo 97) en spécialité système et Réseaux et récemment diplômé de Sciences Politique Paris en stratégie Internationale et accompagnement du changement. Emmanuel possède une vue globale en s’appuyant sur plus de 20 années d’expérience dans les start-ups, grandes entreprises et les éditeurs. Ces années sur différents domaines (avant-vente, product manager, stockage, sécurité ou réseaux) lui confère de fortes connaissances techniques. Spécialisé aujourd’hui dans la création, l’accompagnement et la montée en puissance des réseaux de distribution en Europe du sud.

Pour suivre Emmanuel et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Emmanuel Forgues Voir le profil de Emmanuel Forgues

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMworld 2014 Day 3

Par défaut

General session : Keynote introduite par Carl Eschenback et Ben Fathi (CTO)

 Day 3 – 15 octobre 2014

 Mercredi 15 octobre à Barcelone, la keynote d’ouverture est introduite par Carl Eschenbach (Président & Chief Operating Office). A travers son discours, Carl a principalement rappelé les impacts positifs d’une architecture basée sur du Software-Defined et a notamment insisté sur l’importance de la transformation des entreprises (un discours concordant avec mon article publié récemment Pourquoi conduire la transformation de l’IT est aujourd’hui un incontournable ?. A travers leurs discours, les dirigeants VMware en ont aussi profité pour nous faire partager l’expérience de certains de leurs clients, tels que SAP et Vodafone et leur architecture de Cloud Hybride.

Depuis notre arrivée au VMworld, le message clé distillé ou plutôt martelé au fil des keynotes, des interventions et des sessions a toujours été le suivant :  » pourquoi est-il aujourd’hui inéluctable de changer l’IT et comment le SDDC peut aider les entreprises à adopter ce modèle « . Ben Fathi nous a aussi et à nouveau présenté les produits phares de cette édition 2014 :   vSphere 6.0 (avec la possibilité d’effectuer du vMotion entre vCenter), vRealize, Suite, EVO:RAIL, Workspace Suite, vCloud Air…

SDSSur cette troisième journée, j’ai aussi souhaité accompagner quelques uns de nos clients sur des stands orientés SDS  (Software-Defined Storage). Ce sujet suscite un réel intérêt et nous avons pu constater un nombre croissant de stands et de visiteurs intéressés par ce thème (Atlantis, Nutanix, Simplivity, Nimble Storage, Nexenta, PernixData, Tintri). Nous avons ainsi pu faire un état de l’art du marché entre les solutions hypercongées et les solutions pures Software-defined Storage.

SD_ATLANTIS

Pour finir cette journée sur une note cordiale et festive, nous avons dîné au Mandarin Hôtel en compagnie de nos clients SCC et de notre partenaire Veeam. A cette occasion, j’ai pu rencontrer les auteurs du blog http://vroomblog.com/ avec lesquels nous avons pu échanger sur le VMworld 2014.

Pour compléter votre curiosité sur le VMworld, je vous invite à consulter le blog de Julien Cohen: Coté Utilisateur .

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMworld 2014 Day 2

Par défaut

Day 2 – 14 octobre 2014

Session plénière – Keynote

En ce mardi 14 octobre, le VMworld a démarré par le très attendu discours de Pat Gelsinger (CEO VMware), puis par ceux de Bill Fathers et Sanjay Poonen.

vmworld2014_4Day2

Si le thème de la conférence de cette année était  «No Limits», le discours d’ouverture de ce matin a mis en évidence trois grands thèmes :
• Le SDDC (Software Defined Data Center)
• Le Cloud hybride (Migration / Adoption)
• La mobilité

Pat Gelsinger a évoqué deux thèmes plutôt originaux « fluid » et « brave » , il a ainsi voulu suggérer que l’IT doit être emprunt de courage et implique une réelle fluidité dans ses différents choix. Pat a également souligné l’importante du SDDC (Software-Defined DataCenter), en opposant « Rigid Structure to Liquid Business »

« Go Bravely »

En complément de ces thèmes traités, l’annonce des grandes nouveautés produits :

  • vCloud Suite 5.8
  • VMware NSX 6.1
  • vSphere 6.0 bêta
  • Virtual Volumes (VVols) et Virtual SAN 2.0 beta
  • l’offre management suite a été remarketée en vRealize Suite (Cloud Automation, Cloud Operation, Cloud Business)

Pat Gelsinger nous a aussi présenté le portefeuille d’infrastructure hyper-convergé, VMware EVO, EVO:RAIL et EVO:RACK. Des offres centrées sur la fourniture de solutions clés en main pour adopter plus facilement le SDDC afin de proposer aux entreprises d’acquérir une plateforme « ready to Cloud » plus rapidement. Pour la partie matériel, VMware s’appuie sur son réseau de partenaire hardware : Dell, EMC, Fujitsu, Inspur, Net One, Supermicro et HP le dernier à rejoindre la liste.

vmworld2014_3Day2

vmworld2014_2Day2Le deuxième membre de la famille EVO est EVO:RACK, qui est annoncé en tant que « tech preview ». EVO:RACK s’appuie sur EVO:RAIL. EVO:RACK est prévu pour déployer des plateformes Cloud hyper-convergées très rapidement avec la possibilité de faire évoluer son environnement très simplement.

EVO:RACK pourra fonctionner sur une gamme de configurations matérielles pré-intégrées, c’est pourquoi VMware a rejoint le projet OpenCompute (OCP) afin de certifier des configurations matérielles.

 

 

Il a aussi été question du vCloud Air (anciennement connu sous le nom de VMware vCloud Hybrid Service). VMware relance son offre de Cloud public « vCloud Air » dans le but de gagner des parts de marché dans le Cloud public, actuellement dominées par AWS, Azure, et d’autres.

Concernant la partie EUC, End User Computing, je vous invite à consulter l’article de mon collègue Julien sur son blog : Coté utilisateur

Un autre sujet majeur de cette keynote a été le SDN : Software-Defined Network. VMware a annoncé officiellement la possibilité de commercialiser son offre NSX par le biais de ses partenaires sous condition de disposer des nouvelles certifications orientées NSX (VCP-NV). De ce fait, lors de cette journée VMware a introduit un nouveau programme de compétence axé exclusivement sur NSX pour ses partenaires.

Lors de cette deuxième journée au VMworld, j’ai aussi l’occasion de faire de multiples rencontres gravitant autour de l’écosystème de la virtualisation (plus de 115 exposants). J’ai aussi profité de ces temps d’échanges pour aller rendre visite à quelques partenaires : Nutanix, Veeam, Nexenta, Pernixdata et VCE.

vmworld2014_1Day2

Julien – Noham – James

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Pourquoi conduire la transformation de l’IT est aujourd’hui un incontourable ?

Par défaut

Si le changement a toujours été le seul fait perdurable du secteur informatique depuis des années, le rythme de celui-ci s’est aujourd’hui accéléré. Savoir accompagner la transformation de l’IT est ainsi devenu un enjeu stratégique pour la performance de l’entreprise. men-in-black-neurolyzer

Souvenez-vous, le neuralyzer est ce petit appareil utilisé par les agents J et Q de Men in Black (MIB) pour effacer la mémoire du public mis en relation avec des extraterrestres ou témoins d’un phénomène prouvant leur existence. Partons de ce postulat, oublions tous les concepts actuels et débutons une feuille blanche.

Il est aujourd’hui révolu le temps ou les utilisateurs se contentaient d’exploiter des applications et des ressources fournies par le département informatique. Les dynamiques de marché et les récentes avancées technologiques ont en effet fondamentalement changé leurs attentes. Ils étaient auparavant de simples consommateurs et deviennent aujourd’hui de véritables consommacteurs. Les utilisateurs privés maîtrisent parfaitement les réponses qui satisferont avec justesse leurs besoins. Ils sont connectés au quotidien avec l’informatique (consultation de leurs emails, de leurs comptes bancaires, de l’actualité ou encore tweets,…).

Si à titre personnel le myvmworld_01niveau de service qui leur est proposé est de haut niveau, en entreprise, ce niveau est loin d’être à la hauteur de ce qu’ils attendent (interfaces conviviales, possibilité d’accéder à leurs applications et données partout et à tout moment, proposition de solutions innovantes pour résoudre des problématiques actuelles et ou de longues dates.).

Le Cloud est le facteur clé de croissancecroissance_cloud

De plus, grâce à leur facilité d’accès, ces technologies sont accessibles à tous. Rien de plus simple que de télécharger une application mobile ou d’ouvrir un compte utilisateur gratuit (ou à faible coût) auprès d’un fournisseur de services de Cloud Computing pour travailler plus efficacement. L’utilisateur se procure ses propres technologies, pour un usage professionnel ou privé, et devient alors consommateur de Cloud pour répondre à ses propres désirs et consomme seulement ce qu’il utilise.

silo_myvmworldLes fournisseurs externes sont ainsi devenus de véritables précurseurs et concurrents en apportant aux utilisateurs un niveau de service que les départements informatiques ne sont jamais parvenus à atteindre pour cause de leur fonctionnement en silos. Quel utilisateur serait assez patient pour attendre des jours de la part de son département informatique l’obtention d’une ou plusieurs applications de gestion de projets ? Il préfèrera les tester lui-même directement en ligne sans perdre de temps, et exploitera ainsi le Cloud public au détriment de sa DSI.

Cloud_Etude_Forrester_2011

Source: Forrester 2011

Le marché de l’informatique traditionnel décroit, on peut soit simplement regarder ce marché mourir à petit feu, soit être pro-actif par l’accompagnement de la transformation de l’IT.

Ces analyses et réflexions démontrent que l’IT doit fondamentalement être transformé en profondeur pour devenir un fournisseur de services auprès de ses différents métiers.

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMware EVO RAIL Hyper Convergence by VMware

Par défaut

VMware EVO RAIL

C’est annoncé, lors du VMworld 2014 à SF (US) VMware vient de lancer son offre Hyper-Convergée VMware EVO RAIL , suite du projet Marvin, puis du projet Mystic et enfin EVO RAIL. Cette appliance d’infrastructure hyper-convergée repose sur du VSAN, vSphere, et bien entendu pour la partie hardware avec des partenaires comme Dell, EMC, Fujitsu, Inspur, Net One Systems Co. et Supermicro, elle s’inscrit dans la stratégie du SDDC (Software-Defined Data Center).

LOGO-EVO-Rail

L’appliance fera 2 U pour 4 nœuds, chaque nœud aura une configuration minimum de type :

  • Two Intel E5-2620 v2 six-core CPUs
  • 192GB of memory
  • One SLC SATADOM or SAS HDD as the ESXi™ boot device
  • Three SAS 10K RPM 1.2TB HDD for the VMware Virtual SAN™ datastore
  • One 400GB MLC enterprise-grade SSD for read/write cache
  • One Virtual SAN-certified pass-through disk controller
  • Two 10GbE NIC ports (configured for either 10GBase-T or SFP+ connections)
  • One 1GbE IPMI port for remote (out-of-band) management

En attendant de se rendre au VMworld à Barcelone et de gratter quelques informations supplémentaires, je vous invite à lire l’excellent blog de Duncan Epping Yellow-Bricks.

 

To be continued….

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

SDDC: Une nouvelle approche de l’IT

Par défaut

Pour conclure cette fin d’année 2013, je souhaite partager avec vous ma vision propective de la transformation de l’IT au travers du SDDC.

SDDC : Software Definied DataCenter

Depuis 2008, les DSI sont soumises à de fortes pressions économiques. Les budgets alloués à l’informatique régressent de manière significative et les exigences en terme de retour sur investissement marquent un tournant pour le secteur. La nécessité de réduire les coûts est devenue une préoccupation majeure pour les DSI.
Nous sommes aujourd’hui très loin du temps ou de nombreux DSI disposaient d’une forte latitude pour investir massivement. L’heure est à la centralisation des données ; non seulement pour faire des économies de serveur ou de stockage mais également pour avoir comme objectif d’accroître la performance du système d’information.

Si l’avènement de la virtualisation couplée à une baisse significative des coûts des composants informatiques a contribué à une réduction notoire des dépenses, le retour sur investissement demeure aux yeux de beaucoup insuffisant face aux résultats escomptés.

Force est de constater que ce ne sera ni sur le matériel, ni sur la géolocalisation du Datacenter et encore moins sur le modèle en silos de l’informatique que des économies de budget pourront être réalisées ; mais bien sur une nouvelle approche architecturale pour l’infrastructure informatique.

Aujourd’hui, les DSI ne savent pas suffisamment tirer profit des équipes d’exploitation ou d’administration. Notamment parce que le temps alloué à des opérations de support ou de maintenance, la validation des infrastructures déployées ou encore le fait d’allouer du stockage, des ressources de calcul, de mémoire en fonction des pré-requis de la MOA lors d’un nouveau projet n’apportent aucune valeur ajoutée à l’entreprise.

Il en résulte une sous exploitation et un gâchis des ressources humaines disponibles. De nombreux administrateurs, architectes ou consultants qui officient dans ces entreprises possèdent de vraies compétences et sont souvent reconnus par le biais de travaux transverses et notamment via des blogs qu’ils animent.

Il apparaît aussi très clairement que de nombreuses équipes d’infrastructure ne maîtrisent pas suffisamment les ressources que leurs confèrent leurs DataCenter. Il ne s’agit là bien évidemment que d’un constat et nullement d’un jugement ou d’une critique. Cet état de fait se vérifie par la virtualisation à outrance (VM Sprawling). Nous assistons aujourd’hui à un phénomène de prolifération de machines virtuelles, que nous associons systématiquement à du stockage. Il y a quelques années, nous faisions la même remarque concernant les serveurs physiques : 1 serveur sur 6 serait inutilisé dans le monde.
À partir de ce postulat, des solutions de capacity management fleurissent et semblent de plus en plus séduire les DSI.

 
Maîtriser ce que nous possédons permet de réagir avec efficacité à chaque nouvelle demande et confère une bonne performance sur les applicatifs métiers.

Autres constats :

Certaines équipes se sont implémentées d’outils d’ordonnancement, ont conçu des scripts, des process, dans le but d’optimiser et d’industrialiser la livraison d’infrastructures. Cette méthode a cependant ses limites. Si elle a permis aux équipes d’infrastructure de les soulager de certaines tâches, elle les oblige alors à maintenir en conditions opérationnelles ces solutions.

Ces différents points révèlent en conclusion que pour livrer ces infrastructures ou un service à ses clients, la DSI se doit de suivre un bon nombre de process et de validation souvent instruites par les équipes de gouvernance qui s’appuient sur des normes informatiques comme ITIL ou TOGAF . L’IT devient alors peu réactif face aux demandes croissantes des métiers.

L’émergence des fournisseurs « Cloud » et la réactivité dont ils font preuve ont aussi attiré de nombreux utilisateurs sur le principe « pay as you use« , leur permettant par la même occasion de s’affranchir de nombreuses contraintes. Un nouveau terme vient d’apparaître pour caractériser ce phénomène : « Shadow IT ».  Il ne faut pas perdre de vue que c’est essentiellement le métier qui amène des projets informatiques. Si l’informatique interne ne propose pas de service réactif et adapté face aux demandes croissantes des utilisateurs, ces mêmes utilisateurs se tourneront très facilement vers des Cloud Providers ou Cloud Public.

Afin d’éviter cette fuite en avant, un nouveau concept est apparu. Si hier ce concept n’était que marketing (introduit par Steve Herrod CTO VMware lors du VMworld 2012), aujourd’hui il s’avère incontournable aux DSI : le Software Definied DataCenter ou le SDDC.

Afin d’accompagner la métamorphose de l’informatique traditionnelle, les DSI doivent revoir leur stratégie d’infrastructure globale et effectuer la transition depuis un modèle de fourniture de services manuels orienté informatique vers un nouveau modèle ITaaS (IT-as-a-Service) davantage orienté utilisateur.

 
Il me semble indispensable que cet informatique acquière dans un premier temps des outils de Capacity Management (Know & Decide ou SanSentinel), sache identifier les ressources allouées et par qui et dans un second temps, inclut dans ce process une notion de re-facturation pour sensibiliser et éduquer les métiers aux coûts inhérents à leur demande.

Le SDDC n’est finalement que l’évolution de l’informatique qui s’est opérée avec l’avènement de la virtualisation.

Avec l’évolution de la virtualisation depuis 15 ans, trois grandes phases se sont succédées :

2005 : virtualisation des serveurs des équipes de développement, serveur de test.

2008 : virtualisation des serveurs dits critiques (messagerie, base de données, etc.), adoption en masse de la virtualisation.

2013 : apparition d’une nouvelle terminologie : le SDDC. Ce sont toutes les ressources du DataCenter qui sont mises en œuvre via des logiciels et sont regroupés en pool pour une allocation centralisée et optimisée des ressources.

La virtualisation des serveurs continue d’évoluer

Le SDDC :

Le développement de protocoles ouverts facilite le déploiement du modèle SDDC. En effet, le SDDC est défini à partir de standards ouverts qui permettent de contrôler des infrastructures virtualisées en faisant appel à divers fournisseurs respectant tous les mêmes API’s.
Exemples : dans ce modèle SDDC on retrouvera les API‘s. OpenStack, un projet open source spécialisé dans le contrôle des pools de ressources (processeurs, connectivité, stockage), les API de connectivité de type OpenFlow. OpenFlow propose un modèle pour le contrôle à distance des commutateurs et des routeurs.
L’architecture SDDC virtualise tous les domaines du Datacenter: calcul, stockage, réseau, sécurité et fournit une gestion automatisée par logiciel.

L’architecture du SDDC permet la transformation de l’informatique et rend cet environnement réactif, efficace et automatisé. Ceci permet de rendre les services applicatifs opérationnels en quelques minutes. Ainsi le SDDC facilite le travail des équipes IT internes qui souhaitent préparer des catalogues de services propres à leurs activités. 
La DSI peut ainsi se positionner en tant que fournisseur de service d’où le terme « IT as a service« . Elle est aussi légitime par rapport aux demandes métiers et peut repositionner l’IT au cœur de la demande des utilisateurs.

L’Automatisation et l’Orchestration sont les composants clés du SDDC.
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMworld 2013 – Day 1

Par défaut

VMworld 2013 – Day 1 – 15 octobre 2013

vmworld2013Levés aux aurores pour ne manquer aucune intervention, Robert Cunillerra (Directeur Professional Services chez SCC France), Julien Cohen (Solutions Architect Specialist VDI chez SCC France) et moi-même arrivons au salon VMworld quelques minutes avant que l’accès aux portes ne nous soit autorisé.

L’ouverture du VMworld 2013 débute alors par l’allocution de Pat Gelsinger, CEO VMware, qui, entouré de ses principaux collaborateurs, nous tient son habituelle keynote avec pour principal message, l’avènement du Software Defined Data Center (SDDC). 

Après de nombreux remerciements aux partenaires, sponsors et clients, Pat Gelsinger nous retrace l’histoire de VMware en quelques dates majeures et célèbre ainsi les 15 années d’existence de VMware. 

Pour rappel :

  • 1999 : lancement du produit VMware Workstation 1.0
  • 2003 : vMotion 
  • 2004 : rachat par EMC² 
  • 2011 : DRS Storage
Pat Gelsinger, annonce ensuite l’émergence d’une nouvelle ère : le « Mobile-Cloud», en évoquant les différentes transitions : 



Il nous dresse également le constat suivant : 70% des dépenses informatique actuelles sont consacrées à la maintenance des environnements en silos. L’IT As a Service a ainsi pour objectif d’équilibrer les dépenses. Il devient aujourd’hui un véritable fournisseur de service et afin d’évoluer  au sein de cette dynamique, VMware annonce l’acquisition de DeskTone (DaaS) (Destop as A service, poste de travail à la demande),  liant entre la plateforme Cloud et le VDI.
Pat Gelsinger  donne ensuite la parole à Thierry Breton (Chairman & CEO AtoS) qui témoigne autour et en faveur du concept SDDC by AtoS, le SDDC a permis à AtoS de réduire les coûts d’exploitation et de gestion de leur Datacenter.
 

Martin Casado (CTO Networking VMware) intervient enfin sur le sujet de la virtualisation du réseau avec SDN Software Defined Network et met en avant le constat suivant : en 2012, le nombre de port réseau virtuel a dépassé le nombre de port physique. 

L’ESX virtualise le serveur, NSX virtualise le réseau.

NSX est donc la plate-forme de virtualisation de réseau qui fournit l’ensemble du réseau et le modèle de sécurité dans le logiciel, on désolidarise le matériel réseau traditionnel.

 





Soulignons que l’offre vCloud Hybride Service sera prochainement lancée en Europe et plus précisément en Angleterre avec un premier Datacenter. Cette nouvelle offre proposera des services tels que : 

 

  • Disaster Recovery as a service. 
  • Cloud Foundry. Desktop as a Service DaaS. 
  • Hybrid Cloud Management Integrations. 
  • Application MarketPlace.

 

Cette offre permettra de répondre aux demandes des clients européens qui souhaitent conserver la localisation de leurs données (Patriot Act), disposer d’une juridiction légale ou encore être en conformité avec la protection des données.

 

Quelques éléments concrets?

Monster VMSi nous étions impatiens de connaître les nouveautés sur vSphere 5.5, nous sommes quelque peu déçu de constater qu’aucun changement majeur n’est venu faire évoluer l’outil. Cependant, de nouvelles fonctionnalités et quelques améliorations en terme de performance sont à souligner:



  • Puissance des VMs x 2, plus de frein pour virtualiser des applications critiques.
  • Application Aware High Avaibility. Application HA améliore la disponibilité des applications à travers, la surveillance basée sur des règles au niveau des applications, par exemple: redémarrer le service d’application ou redémarrez la machine virtuelle.
  • Big Data Extension : grâce aux efforts fournis autour du projet Serengeti, VMware a créé un outil de gestion qui s’intègre avec vSphere afin d’aider les clients à déployer, exécuter et gérer des clusters Hadoop exécutées sur vSphere. Cela apporte ainsi tous les avantages de la virtualisation pour Hadoop, notamment l’agilité, la mutualisation et la fiabilité et la sécurité.

Autre élément important, le SDS (Software Definied Storage) qui propose des pools de ressources stockage pour augmenter l’efficacité, en incluant les fonctionnalités suivantes :

1- vSAN : Virtual SAN
2- VDP Advanced 5.5 : Deduple, prise en charge des snaps, replication, Caching, Backup, Encryption et restauration en mode Sandbox. Serait-ce la fin de Veeam B&R ?
3- External storage, Virtual Volumes ou VVOLS.
4- vFRC vSphere Flash Read Cache
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook