Le blog myvmworld.fr évolue et devient collaboratif !

Par défaut

Myvmworld

La rentrée de Myvmworld affiche un nouveau tournant… Mon blog personnel devient désormais une plateforme collaborative plus riche où vous aurez la possibilité de découvrir plus de contributions avec des articles sur des thèmes élargis.

Myvmworld prend en effet une nouvelle dimension. Nous serons désormais trois contributeurs et plus encore dans quelques semaines à vous décortiquer l’actualité, animer et enrichir l’écosystème des infrastructures virtuelles, Cloud, automatisation, vous parler technique, process, vision, … 
 
Sur ce blog, nous partagerons avec vous sur nos spécialités respectives afin de mieux répondre à vos besoins croissants d’informations.
 

Nous sommes donc trois blogueurs avec chacun notre univers ! Retrouvez désormais Damien, Erwan, et Eric, spécialistes virtualisation, stockage, automatisation, et network.

Retrouvez-nous aussi dans quelques jours pour des feedback en direct du vmworld.

Bonne découverte !
Présentation des auteurs du blog Myvmworld sur la page About Us

Eric MAILLE, Eric est Consultant avant-vente chez DELL EMC. Il intervient en phase amont des projets d’infrastructure et conseille les entreprises sur les choix et les orientations technologiques.
Eric travaille en collaboration étroite avec les équipes service/consulting chez DELL EMC pour aider les entreprises à accélérer leur transformation Digitale. Eric Maillé a co-écrit 2 livre sur VMware vSphere 4 et vSphere 5 , il est certifié VMware VCP, EMC Cloud Architect et a été récompensé du titre de vExpert 2011 et 2012.

Pour suivre Eric et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Eric Maille Voir le profil d’Eric Maille

Erwan Quélin est depuis 6 ans Ingénieur Systèmes chez Cheops Technology. Ses interventions sont multiples et auprès de clients très diversifiés dans la région Ouest. Spécialisé dans la virtualisation autour des produits VMware et dans le stockage autour des gammes VNX, Unity et VPLEX de Dell EMC, Erwan est certifié VMware Certified Professional – Datacenter virtualization 4, 5 et 6 ainsi que EMC Implementation Engineer – VNX et Unity et vient d’intégrer les programmes VMware vExpert et Dell EMC Elect pour l’année 2017.

Lorsqu’il lui reste un peu de temps libre, Erwan développe des projets open sources ayant pour sujet principal l’automatisation d’infrastructures.

Pour suivre Erwan et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Erwan Quelin Voir le profil Linkedin d’Erwan

Voir mon profil GitHub Erwan Quelin Voir le profil GitHub d’Erwan

Damien Rivière est depuis près de 9 ans consultant chez Axians Cloud Builder. Spécialisé dans la virtualisation autour des produits VMware et dans le stockage autour des solutions Dell EMC, Damien est certifié VMware Certified Professional – Datacenter virtualization 4, 5 et 6 ainsi que EMC Implementation Engineer – VNX et Unity. Damien est également certifié VCP6-NV (Network Virtualization), DCIE Datacore, AWS Technical Professional, CCNA Cisco, Netapp, Simplivity…

Pour suivre Damien et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Damien Rivière Voir le profil de Damien

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMTurbo Assurer les performances applicatives au sein du Datacenter

Par défaut

Par Fabien Azra 

Voir le profil de FAbien sur LinkedIn

Garantir la performance des applications en environnement virtuel avec VMTurbo

L’adage dit « Un bon informaticien est un informaticien fainéant » car ce dernier s’attachera toujours à automatiser autant que possible l’ensemble de ses tâches quotidiennes pour ne plus rien avoir à faire.

Les environnements virtuels, même si ils ont significativement simplifié la gestion quotidienne des infrastructures, restent de véritables challenges pour ces informaticiens. Comment alors s’assurer que les ressources mises à disposition des machines virtuelles seront toujours suffisantes pour garantir la bonne performance des applications qu’elles contiennent tout en minimisant l’interaction humaine ?

Un état instable permanent

Si à un instant T, l’environnement virtuel peut paraitre dans un état stable, la moindre demande de ressources de la part d’une application peut entrainer un déséquilibre. La machine virtuelle qui l’héberge, a t-elle besoin de davantage de mémoire, de puissance de calcul, de bande passante ou de performance du stockage ? Le serveur physique ou la baie de stockage hébergeant cette VM disposent-ils de ces ressources ?

Bien sûr, l’humain peut trancher et prendre la décision de faire les modifications qui s’imposent. Mais cette décision est-elle si simple à prendre ? Doit-on déplacer cette VM sur un autre host disposant de la capacité de RAM ou de CPU souhaité ? Doit-on déplacer son vdisk sur un autre datastore ? Doit-on juste augmenter le nombre de vCPU ou la vMem alloués à cette VM ? N’est-ce pas juste un encombrement d’un port réseau du host ? Et quel sera l’impact de ce déplacement sur le host de destination ? Ne faut-il mieux pas déplacer les autres VMs environnantes plutôt que celle-ci ?

Décision plus ardue qu’il n’y parait finalement ! Multiplions ce questionnement pour des dizaines, voir des centaines de VMs et donc d’applications, sur des serveurs physiques, des switches réseau et des baies de stockage multiples et variés et nous voilà devant un véritable casse-tête pour notre informaticien fainéant.

vmturbo_logo

L’infrastructure virtuelle : un modèle économique

VMTurbo permet de résoudre ce casse-tête permanent en partant d’un constat simple : l’infrastructure virtuelle est une place de marché répondant au principe de l’offre et de la demande.

Les applications, les machines virtuelles, les hyperviseurs, les switches réseaux et autres baies de stockages sont des acheteurs et vendeurs s’échangeant des biens : les ressources (CPU, Mémoire, IOPS, bande-passante, etc…). Le prix de chaque ressource fluctue en permanence en fonction du temps, de la rareté et de la demande plus ou moins forte.

Moins une ressource est utilisée, moins elle est chère. Plus elle est utilisée, plus le prix grimpe. Ainsi, une baie de stockage subissant un pic d’accès vendra chèrement ses IOPS à un hyperviseur et ce dernier les facturera tout aussi cher à la VM, la poussant à aller chercher ailleurs un tarif plus intéressant.

Par ce moyen, VMTurbo va tendre vers un « Etat idéal » : celui où l’ensemble des VMs dispose des ressources dont il a besoin au bon moment.

VMTurbo_myvmworld

Surveiller vs. Contrôler

Dans une infrastructure virtuelle, en dessous de 70% d’utilisation, on gaspille les ressources (on peut donc densifier le nombre de VMs), mais dès que l’on passe au dessus, on augmente le risque.

Pour surveiller ce risque, on a le réflexe naturel de mettre en place un des nombreux outils de monitoring disponibles sur le marché. Malheureusement, ces solutions, tout comme les schedulers natifs aux hyperviseurs, ne font que réagir au dépassement d’un seuil. Cela signifie qu’on attend que le risque se produise et qu’on accepte que l’environnement soit dégradé, impactant ainsi le business de l’entreprise. Elles obligent l’administrateur à agir en mode « pompier », à prendre des actions manuelles pour résoudre les problèmes et sont consommatrices de temps face à la priorité de projets plus critiques.

VMTurbo comprend les demandes des applications et les fait correspondre avec l’offre de l’infrastructure, prenant les décisions à la place de l’humain en temps réel. Ces actions automatisées, centrées sur le besoin plutôt que sur l’infrastructure maintiennent l’environnement virtuel dans un état de santé optimal, de façon 100% logicielle.

Proposé sous la forme d’une simple VM à déployer en quelques minutes, sans agent (fonctionne via appels API), VMTurbo cartographie instantanément l’ensemble de l’infrastructure. Les premières recommandations peuvent être actionnées dans les 30 minutes (comme la relocalisation des VMs). Il sera plus sage d’attendre une trentaine de jours pour les opérations de resize up ou down (nécessitant souvent un redémarrage) afin d’avoir une visibilité plus précise de l’activité d’une application particulière (comme un serveur de paie, par exemple).

VMTurbo? collecte et conserve les metrics les plus pertinents, permettant d’affiner ses décisions en se basant sur l’historique. Mais il peut également faire des projections via sa fonction « Plan » et anticiper l’ajout ou le retrait d’un host, ou encore de lots de VMs et leur impact sur l’environnement virtuel actuel. Il peut également réserver les ressources pour un futur déploiement et l’automatiser en se basant sur des templates de VMs. Par ailleurs, ses dashboards personnalisables et les nombreux rapports permettent à l’administrateur de suivre l’ensemble des actions prises, tout comme leurs résultats.

VMTurbo_opsman-laptop_myvmworld

Il supporte un très grand nombre d’environnements virtuels : VMware, Hyper-V, Acropolis HV (KVM), XenServer, RHEV-M, IBM PowerVM.

Et il collecte également, pour corréler l’ensemble des informations :

  • Cloud et Orchestration : vCloudDirector, CloudStack, OpenStack, VMM, AWS, Azure, SoftLayer, CloudFoundry
  • Load Balancer : NetScaler
  • Stockage : NetApp, EMC, PureStorage, Nutanix, HP, Dell
  • Fabric : Cisco UCS
  • Network : Arista
  • Applications : Exchange, Oracle, SQL, MySQL, WebSphere, WebLogic, JBoss, Tomcat

VMTurbo_Supply_myvmworld

Un jeu de Tetris

En relocalisant et en réajustant l’ensemble des applications, VMTurbo joue à Tetris dans le Datacenter et permet de récupérer de l’espace, de densifier les VMs sur l’infrastructure existante et de repousser les investissements matériels.

VMTurbo_Tetris_myvmworld

Pour ne citer qu’un des nombreux exemples de ROI constaté en moins de 90 jours sur plus de 90% de leurs clients, prenons celui de la banque Barclays. Leur environnement virtuel, qui fait tourner plus de 60.000 VMs, les obligeait à 15% de croissance d’investissement par mois. VMTurbo, une fois mis en place, va faire près de 3.000 recommandations par jour, permettant à Barclays en les suivant de ne pas faire de nouvel investissement sur les 12 mois suivants, représentant 7,5M$ d’économie.

VMTurbo_realTime

Téléchargez la version d’évaluation 30 jours :  operations-manager-30-day-trial

Pour conclure, revenons à notre informaticien fainéant ! Sa crainte était de voir le logiciel mieux travailler que lui et que l’on puisse même se passer de ses services. Mais l’automatisation et le contrôle de VMTurbo sur l’infrastructure virtuelle permettront à notre informaticien de se rendre indispensable sur d’autres projets plus gratifiants. Pour le démontrer, voici une petite analogie : aujourd’hui, un avion est totalement gouverné par le logiciel. Ce dernier peut le faire décoller, le faire voler et le faire atterrir sans nécessiter aucune interaction humaine.

Pour autant, accepteriez-vous de monter dans cet avion sans pilote ?

Fabien AzraFabien est en charge de l’équipe avant-vente de BigTec, distributeur à valeur ajouté accompagnant la transformation des datacenters. Il travaille en étroite collaboration avec les constructeurs et les revendeurs pour assurer la réussite des implémentations des solutions. Avec plus de 15 ans d’expérience technique, c’est un spécialiste des solutions de stockage et de virtualisation.

Pour suivre Fabien et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Fabien Voir le profil de Fabien Azra

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Episode I : Le logiciel englouti le monde du stockage !

Par défaut

Dossier SDS Software-Defined Storage

Retrouvez dans l’édition N°50° de l’E.D.I , un dossier complet sur le Software-Defined Storage, cette nouvelle approche du stockage qui offre une flexibilité autour du stockage et met l’accent sur celle-ci plus que sur la partie hardware.

L’objectif est bien de fournir aux équipes d’exploitation et d’administration des fonctionnalités souples de gestion par le biais de programmation, notamment les API Restful et les webservices. De ce fait, on élimine les contraintes du système physique et ainsi, optimiser l’utilisation de ce stockage grâce à une gestion basée par des règles automatisées SPBM.

3 Questions, interview EDI N°50 autour du SDS

http://www.RestApiTutorial.com – Todd Fredrich from Pearson eCollege goes over the basic principles behind REST. Learn about REST practices by visiting the six RESTful constraints and how they apply to Web services. This short presentation introduces the REST architecture constraints and provides some detail on them. http://youtu.be/llpr5924N7E

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

SDDC: Une nouvelle approche de l’IT

Par défaut

Pour conclure cette fin d’année 2013, je souhaite partager avec vous ma vision propective de la transformation de l’IT au travers du SDDC.

SDDC : Software Definied DataCenter

Depuis 2008, les DSI sont soumises à de fortes pressions économiques. Les budgets alloués à l’informatique régressent de manière significative et les exigences en terme de retour sur investissement marquent un tournant pour le secteur. La nécessité de réduire les coûts est devenue une préoccupation majeure pour les DSI.
Nous sommes aujourd’hui très loin du temps ou de nombreux DSI disposaient d’une forte latitude pour investir massivement. L’heure est à la centralisation des données ; non seulement pour faire des économies de serveur ou de stockage mais également pour avoir comme objectif d’accroître la performance du système d’information.

Si l’avènement de la virtualisation couplée à une baisse significative des coûts des composants informatiques a contribué à une réduction notoire des dépenses, le retour sur investissement demeure aux yeux de beaucoup insuffisant face aux résultats escomptés.

Force est de constater que ce ne sera ni sur le matériel, ni sur la géolocalisation du Datacenter et encore moins sur le modèle en silos de l’informatique que des économies de budget pourront être réalisées ; mais bien sur une nouvelle approche architecturale pour l’infrastructure informatique.

Aujourd’hui, les DSI ne savent pas suffisamment tirer profit des équipes d’exploitation ou d’administration. Notamment parce que le temps alloué à des opérations de support ou de maintenance, la validation des infrastructures déployées ou encore le fait d’allouer du stockage, des ressources de calcul, de mémoire en fonction des pré-requis de la MOA lors d’un nouveau projet n’apportent aucune valeur ajoutée à l’entreprise.

Il en résulte une sous exploitation et un gâchis des ressources humaines disponibles. De nombreux administrateurs, architectes ou consultants qui officient dans ces entreprises possèdent de vraies compétences et sont souvent reconnus par le biais de travaux transverses et notamment via des blogs qu’ils animent.

Il apparaît aussi très clairement que de nombreuses équipes d’infrastructure ne maîtrisent pas suffisamment les ressources que leurs confèrent leurs DataCenter. Il ne s’agit là bien évidemment que d’un constat et nullement d’un jugement ou d’une critique. Cet état de fait se vérifie par la virtualisation à outrance (VM Sprawling). Nous assistons aujourd’hui à un phénomène de prolifération de machines virtuelles, que nous associons systématiquement à du stockage. Il y a quelques années, nous faisions la même remarque concernant les serveurs physiques : 1 serveur sur 6 serait inutilisé dans le monde.
À partir de ce postulat, des solutions de capacity management fleurissent et semblent de plus en plus séduire les DSI.

 
Maîtriser ce que nous possédons permet de réagir avec efficacité à chaque nouvelle demande et confère une bonne performance sur les applicatifs métiers.

Autres constats :

Certaines équipes se sont implémentées d’outils d’ordonnancement, ont conçu des scripts, des process, dans le but d’optimiser et d’industrialiser la livraison d’infrastructures. Cette méthode a cependant ses limites. Si elle a permis aux équipes d’infrastructure de les soulager de certaines tâches, elle les oblige alors à maintenir en conditions opérationnelles ces solutions.

Ces différents points révèlent en conclusion que pour livrer ces infrastructures ou un service à ses clients, la DSI se doit de suivre un bon nombre de process et de validation souvent instruites par les équipes de gouvernance qui s’appuient sur des normes informatiques comme ITIL ou TOGAF . L’IT devient alors peu réactif face aux demandes croissantes des métiers.

L’émergence des fournisseurs « Cloud » et la réactivité dont ils font preuve ont aussi attiré de nombreux utilisateurs sur le principe « pay as you use« , leur permettant par la même occasion de s’affranchir de nombreuses contraintes. Un nouveau terme vient d’apparaître pour caractériser ce phénomène : « Shadow IT ».  Il ne faut pas perdre de vue que c’est essentiellement le métier qui amène des projets informatiques. Si l’informatique interne ne propose pas de service réactif et adapté face aux demandes croissantes des utilisateurs, ces mêmes utilisateurs se tourneront très facilement vers des Cloud Providers ou Cloud Public.

Afin d’éviter cette fuite en avant, un nouveau concept est apparu. Si hier ce concept n’était que marketing (introduit par Steve Herrod CTO VMware lors du VMworld 2012), aujourd’hui il s’avère incontournable aux DSI : le Software Definied DataCenter ou le SDDC.

Afin d’accompagner la métamorphose de l’informatique traditionnelle, les DSI doivent revoir leur stratégie d’infrastructure globale et effectuer la transition depuis un modèle de fourniture de services manuels orienté informatique vers un nouveau modèle ITaaS (IT-as-a-Service) davantage orienté utilisateur.

 
Il me semble indispensable que cet informatique acquière dans un premier temps des outils de Capacity Management (Know & Decide ou SanSentinel), sache identifier les ressources allouées et par qui et dans un second temps, inclut dans ce process une notion de re-facturation pour sensibiliser et éduquer les métiers aux coûts inhérents à leur demande.

Le SDDC n’est finalement que l’évolution de l’informatique qui s’est opérée avec l’avènement de la virtualisation.

Avec l’évolution de la virtualisation depuis 15 ans, trois grandes phases se sont succédées :

2005 : virtualisation des serveurs des équipes de développement, serveur de test.

2008 : virtualisation des serveurs dits critiques (messagerie, base de données, etc.), adoption en masse de la virtualisation.

2013 : apparition d’une nouvelle terminologie : le SDDC. Ce sont toutes les ressources du DataCenter qui sont mises en œuvre via des logiciels et sont regroupés en pool pour une allocation centralisée et optimisée des ressources.

La virtualisation des serveurs continue d’évoluer

Le SDDC :

Le développement de protocoles ouverts facilite le déploiement du modèle SDDC. En effet, le SDDC est défini à partir de standards ouverts qui permettent de contrôler des infrastructures virtualisées en faisant appel à divers fournisseurs respectant tous les mêmes API’s.
Exemples : dans ce modèle SDDC on retrouvera les API‘s. OpenStack, un projet open source spécialisé dans le contrôle des pools de ressources (processeurs, connectivité, stockage), les API de connectivité de type OpenFlow. OpenFlow propose un modèle pour le contrôle à distance des commutateurs et des routeurs.
L’architecture SDDC virtualise tous les domaines du Datacenter: calcul, stockage, réseau, sécurité et fournit une gestion automatisée par logiciel.

L’architecture du SDDC permet la transformation de l’informatique et rend cet environnement réactif, efficace et automatisé. Ceci permet de rendre les services applicatifs opérationnels en quelques minutes. Ainsi le SDDC facilite le travail des équipes IT internes qui souhaitent préparer des catalogues de services propres à leurs activités. 
La DSI peut ainsi se positionner en tant que fournisseur de service d’où le terme « IT as a service« . Elle est aussi légitime par rapport aux demandes métiers et peut repositionner l’IT au cœur de la demande des utilisateurs.

L’Automatisation et l’Orchestration sont les composants clés du SDDC.
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Etat de l’art de la Virtualisation

Par défaut

Introduction

Virtualisation = latin « virtus », sans effet actuel, ce qui est seulement en puissance.

Par conséquent, le virtuel ne s’oppose pas au réel mais à l’actuel (ce qui existe dans le concret), le réel s’oppose au possible.
« est virtuel ce qui, sans être réel a, avec force et de manière pleinement actuelle (c’est-à-dire non potentielle) les qualités (propriétés, qualia) du réel »

Source wikipedia

Cette définition ne rend pas complètement compte de ce que nous appelons la virtualisation en informatique.
 


Apparu sur les systèmes x86 il y a une dizaine d’années, la virtualisation de serveurs est aujourd’hui une solution incontournable, et il ne se passe pas un salon informatique ou dans la presse spécialisés sans que l’on parle de virtualisation.

C’est devenu un mot à la mode, la virtualisation est dans toutes les bouches
Cette technologie s’adresse aussi bien aux PME qu’aux grands comptes (CAC40, Services Publics, multinationales). C’est devenu une brique indispensable de l’évolution du Système d’Information.

La virtualisation s’impose comme la pierre angulaire du système d’information.

Au fil du temps le système d’information a gagné en complexité et perdu en efficacité, la virtualisation renverse cette tendance en simplifiant un bon nombre de process et de technologie.

Historique:

Contrairement à ce que pensent de nombreuses personnes, la virtualisation n’est pas apparue à la fin des années 90, mais ses débuts remontent aux années 60 sur les plates-formes de superordinateurs (Mainframe) d’IBM, à cette époque les machines virtuelles étaient appelées des pseudo-machines.
Le Mainframe utilisait le programme de contrôle pour allouer les ressources et isoler les différentes instances des partitions les unes des autres.

La version contemporaine du programme de contrôle s’appelle un hyperviseur, sa fonction est de superviser les machines virtuelles qui s’exécutent sur le matériel.


Pour mieux comprendre le concept de la virtualisation, prenons cette analogie à un couple client / Fournisseur. Le fournisseur rend un service que le client consomme.

Ici, dans la virtualisation cela consiste à intercaler une couche d’abstraction entre un client et un fournisseur, en ce sens notre fournisseur va proposer des ressources à notre client.

ARCHITECTURE TRADITIONNELLE

Sans virtualisation, un seul système d’exploitation peut tourner sur une machine physique alors qu’avec la virtualisation il est possible d’en faire tourner plusieurs.

L’hyperviseur rend indépendant un système d’exploitation du matériel sur lequel il est installé et ceci ouvre de grandes possibilités.

Cette technologie permet de consolider et de rationaliser les infrastructures serveurs et stockages, elle marque la fin du: 1 Système d’exploitation = 1 machine physique et stockage dédié, avec la virtualisation chaque application et système d’exploitation se trouvent dans une enveloppe générique appelée Machine Virtuelle (VM).

ARCHITECTURE VIRTUELLE

Les VM sont isolées, les ressources de calcul, les processeurs, le stockage et la mise en réseau sont mis en commun et allouer dynamiquement à chaque VM.

 

Les différents types d’hyperviseur:

Il existe de 2 types d’hyperviseur en milieu x86:

Hyperviseur de type 2:

Source Wikipédia

c’est un logiciel installé au dessus du système d’exploitation et permet de faire fonctionner plusieurs machines virtuelles. La machine hôte émule la couche matériel pour les OS invités.

Exemples :

•Microsoft VirtualPC ou Virtual Server
•Parallels Desktop
•Oracle VM VirtualBox
•QEMU
•VMware Fusion

 

A mon avis, l’appellation d’hyperviseur n’est pas adaptée aux solutions de virtualisation s’exécutant au dessus d’un système d’exploitation invité. Je pense que l’appellation « application de virtualisation » est plus appropriée.

 
Source Wikipédia
 
Hyperviseur de type 1: par défaut c’est un noyau très léger pour gérer les accès des OS invités à l’architecture matérielle. L’hyperviseur présente directement les ressources matérielles aux invités. Cette solution est souvent appelée « bare-metal ».

Exemples:

  • Xen
  • VMware vSphere
  • KVM
  • Microsoft Hyper-V Server

Les tendances du marché: 

Ci-dessous, vous trouverez les 3 dernières études du Magic Quadrant de Gartner des solutions de virtualisation de serveur x86.

Source Gartner Publication 2011
Bien que les offres de Citrix Xen Server et Oracle VM ou Red Hat KVM soient très performantes, le marché s’oriente vers une bataille entre Microsoft et VMware.
VMware domine le marché de la virtualisation et est en avance sur le point technologique par rapport à Microsoft Hyper-V. 
Source Gartner Publication 2012

VMware est aujourd’hui très implanté dans les grandes entreprises avec une dominiation quasi-totale.
Microsoft propose hyper-V qui est en 2012 une solution plutôt adaptée pour les PME.
 
 

Sur la dernière étude, nous remarquons que le fossé se réduit entre Microsoft et VMware, Citrix fait un pas en arrière dans le Magic Quadrant.

Citrix « laisse » la couche socle de virtualisation pour se concentrer sur les couches hautes à valeur ajoutée (cloud, Mobilité, Desktop…).

La virtualisation reste la grande priorité en matière de dépenses informatiques.

Source : rapport IDC State of the Market: IT Spending Review & 2013 Outlook, novembre 2012

La croissance de la virtualisation, depuis 2008, où nous avons vu les premiers gros projets de virtualisation fleurirent sur le territoire français, le taux de virtualisation ne cesse d’augmenter. On estime selon une étude menée par VMware qu’en 2015 nous atteindrons entre 75 et 80% des charges de travail virtualisées.

Source : étude réalisée en janvier 2010, juin 2011 et mars 2012 auprès des clients VMware

Pourquoi adopter la virtualisation?

cascadeeffect

D’après de nombreuses études, il apparaît que 1 serveur sur 6 serait inutilisé dans le monde, et que dans certains Datacenters, l’utilisation des serveurs atteint à peine 5 à 15 %. On peut en déduire que 85 à 95 % des ressources système ne servent à rien et que les salles des serveurs sont encombrées de machines sous-exploitées.


Ecologiquement, le ratio de l’énergie utilisée pour faire fonctionner ces serveurs (et souvent les refroidir) par rapport à l’énergie informatique produite est catastrophique.
1 Watt économisé au niveau d’un serveur se traduit par 2,84 Watts économisés à l’échelle du Datacenter. C’est ce que l’on appelle l’effet de cascade.
Au final, un datacenter est utilisé à 56% de son potentiel selon une étude McKinsey et Uptime.
Tout projet de construction de Cloud doit intégrer un volet DCIM (DataCenter Infrastructure Management) car la mutualisation et l’allocation des ressources réclament un contrôle sans faille de l’énergie nécessaire afin de répondre aux demandes pas toujours prévisibles des utilisateurs des applications en mode Cloud.

Avec cette technologie, les bénéfices directs sont indéniables :
la virtualisation fait partie des leviers pour réduire les investissements CAPEX et OPEX, moins de serveurs dans les datacenters = moins d’investissement et donc moins de coût de maintenance, un espace réduit au sol, et une consommation électrique et de climatisation réduite. 
 
Autre exemple, c’est l’amélioration des niveaux de service (SLA), les fonctionnalités de la virtualisation permettent de mettre en place très simplement des solutions de Haute disponibilité, les opérations des sauvegardes sont grandement simplifiées.

Le temps consacré par les administrateurs à des opérations de support ou maintenance qui n’apportent aucune valeur ajouté à l’entreprise est estimé à environ 70%.
Les coûts indirects tels que les coûts de gestion, d’administration et de consommation électrique deviennent astronomique comparés au coût d’acquisition des serveurs et peuvent représenter jusqu’à 4 fois le coût initial du serveur.
La virtualisation apporte l’agilité, une meilleure réactivité et permet de mettre en place des infrastructures dédiées pour un projet sans devoir investir. De plus, les équipes en charge de l’infrastructure se trouvent soulagées par rapport à des tâches récurrentes grâce à l’automatisation et la standardisation, la virtualisation augment l’efficacité opérationnelle.
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook