Spectre et Meltdown, dommages collateraux pour VMware Update Manager…

Baselines
Par défaut

Comme disait ma Grand-Mère, quand ça ne veut pas, ça ne veut pas… Les failles Spectre et Meltdown ont déja fait couler beaucoup d’encre et ce n’est pas prêt de s’arrêter ! Vous le savez surement déjà (si ce n’est pas le cas, allez lire l’article de Cédric), Intel a sorti dans l’urgence un correctif pour corriger les problèmes rencontrés sur ces processeurs. Manque de chance (ou autre…) l’application du patch peut engendrer des reboots intempestifs ! Les constructeurs / éditeurs, qui avaient suivi le mouvement et commencé à distribuer le patch, ont dû rétropédaler de toute urgence… Et c’est là qu’entre en scène VMware Update Manager

Si vous avez configuré le vénérable VUM pour qu’il télécharge automatiquement la définition des patchs (configuration par défaut), vous devez voir que les correctifs en question sont prêts à être installés alors même qu’ils ne sont plus disponibles au téléchargement.

Liste des patchs

Apparement, VUM ne sait pas correctement gérer cette situation car si vous essayez d’appliquer les patchs sur vos serveurs ESXi via une baseline dynamique, la tâche va se terminer en générant l’erreur Impossible de télécharger des progiciels depuis la source du correctif

 

Erreur VUM

La solution ? Créer une nouvelle baseline dynamique en excluant explicitement les patchs concernés (à ma connaissance, il n’est pas possible de modifier celles par défaut).

Exclusion patchs

Après cela vous n’aurez plus qu’à détacher la baseline d’origine – Correctifs d’hôtes non critiques (prédéfinie) – et attacher la nouvelle, et tout devrait rentrer dans l’ordre !

Ajout baseline

Erwan Quélin est depuis 6 ans Ingénieur Systèmes chez Cheops Technology. Ses interventions sont multiples et auprès de clients très diversifiés dans la région Ouest. Spécialisé dans la virtualisation autour des produits VMware et dans le stockage autour des gammes VNX, Unity et VPLEX de Dell EMC, Erwan est certifié VMware Certified Professional – Datacenter virtualization 4, 5 et 6 ainsi que EMC Implementation Engineer – VNX et Unity et vient d’intégrer les programmes VMware vExpert et Dell EMC Elect pour l’année 2017.

Lorsqu’il lui reste un peu de temps libre, Erwan développe des projets open sources ayant pour sujet principal l’automatisation d’infrastructures.

Pour suivre Erwan et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Erwan Quelin Voir le profil Linkedin d’Erwan

Voir mon profil GitHub Erwan Quelin Voir le profil GitHub d’Erwan

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

« Dump Collector » – Configuration dans un environnement vSphere 6.5 & VSAN

Par défaut

Nous avons l’habitude de configurer régulièrement le « persistent scratch location » de nos serveurs ESXi qui boot sur une carte SD/USB sur un datastore mais il n’est pas supporté de le configurer sur un volume vSAN.

Si votre espace est limité sur le volume SD/USB (Conseillé dans tous les cas d’avoir un management centralisé), il est plus que nécessaire d’effectuer les actions suivantes :

  • Désactiver l’espace de Swap (Manage > Settings > System Swap) (Supporté mais non conseillé)
  • Configurer le Dump Collector du votre VCSA (récupération des Dumps lors d’un PSOD)
  • Configurer l’envoi des logs vers un serveur Syslog

Si vous en êtes à lire cet article, c’est que vous avez certainement un problème de RAM Disk space sur votre serveur ESXi. Je vous conseille la commande « vdf -h » qui peut être utilisée pour examiner les RAMdisks sur un hôte ESXi.

Cet article traite de la configuration du Dump Collector. Vous trouverez ci-dessous la procédure de configuration en ligne de commande mais je vous conseille d’effectuer les paramétrages avec PowerCli. C’est une très bon « Use Case » pour débuter dans l’automatisation de la configuration d’une infrastructure VMware vSphere (si vous n’utilisez pas Auto Deploy).

Voir KB1033696 : Chapitre – Configuring a persistent scratch location using PowerCLI 5.1 or later

La configuration s’effectue en deux étapes. Tout d’abord le service sur le VCSA et ensuite la configuration des esxi.

Configurer le service Dump Collector Service de l’appliance VCSA :

Dans le vCenter, démarrer le service :

  • Administration, System ConfigurationServices, et  VMware vSphere ESXi Dump Collector.
  • “Start” service
  • Edit Startup Type : “Automatique”
  • Faire un refresh pour vérifier si le service est bien démarré.

Configurer un host ESXi

Tout d’abord se connecter en SSH sur le host et executer la commande suivante :

esxcli system coredump network get

 

Puis configurer la cible:

esxcli system coredump network set -v vmk0 -i 192.168.X.X -o 6500

 

Attention : Bien vérifier que la patte de management de votre serveur ESXi est bien « vmk0 »

Faire un “Enable” de la config:

esxcli system coredump network set -e true

Verifier les parametres :

esxcli system coredump network get

 

 Vérifier la configuration sur le serveur ESXi et le VCSA

 esxcli system coredump network check

Enfin, connectez-vous en SSH sur l’appliance VCSA et vérifier que l’adresse ip du host est bien là lors du check reply :

cat /var/log/vmware/netdumper/netdumper.log

Vous devez voir l’adresse ip de votre serveur esxi dans le « check status ».

Sources & Plus : 

Creating a persistent scratch location for ESXi 4.x/5.x/6.x : https://kb.vmware.com/s/article/1033696
Besoin de débuter l’automatisation : https://myvmworld.fr/ladmin-de-demain-introduction/
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Sauvegarde et restauration d’un vCenter 6.5

Par défaut

Je voudrais vous présenter une « nouvelle » fonctionnalité disponible dans les appliances VMware vCenter VCSA 6.5. Il est maintenant possible de sauvegarder votre vCenter ou PSC et d’exporter ces données vers un stockage externe, et tout ça directement depuis l’interface de management (VAMI).

Alors, sauvegarder c’est bien, mais pouvoir restaurer, c’est encore mieux ! La procédure de restauration nécessitera de déployer un nouveau vCenter « vide » puis de restaurer les données. Rassurez-vous, VMware a fait l’effort de simplifier cette opération en l’intégrant directement dans l’interface de déploiement d’un vCenter.

Prérequis

Les prérequis sont plutôt réduits. Vous devez disposer de :

  • Un compte utilisateur pour accéder à l’interface VAMI
  • Un stockage externe accessible via les protocoles FTP, FTPS, HTTP, HTTPS ou bien SCP
  • Un compte utilisateur ayant des droits en lecture / écriture sur ce stockage
  • L’image ISO qui a servi à installer le vCenter / PSC (nécessaire pour restaurer)

Sauvegarde manuelle

  1. Connectez-vous à l’interface de management de votre vCenter ou PSC

Cette interface est accessible avec un navigateur web en précisant l’IP ou le FQDN et le port 5480 (ex: https//monvcenter.example.com:5480)

  1. Sur la page d’accueil, cliquez sur Backup
  2. Sélectionnez un protocol de transfert et renseignez les informations nécessaires (user, mot de passe etc…), puis cliquez sur Next

 

Vous pouvez si vous le souhaitez chiffrer vos sauvegardes. Dans ce cas, pensez à conserver le mot de passe sans quoi la restauration sera impossible…

  1. Choisissez si vous voulez sauvegarder en plus des données de base, les statistiques, événements, alarmes et tâches. Cliquez sur Next

5. Vérifiez que les informations sont correctes puis cliquez sur Next

Si tout se passe normalement, la sauvegarde va se terminer au bout de quelque temps, et les fichiers de sauvegarde seront disponibles à l’emplacement spécifié.

Sauvegarde automatisée

Vous aurez peut-être remarqué que l’interface web ne propose pas de moyen de planifier les sauvegardes, c’est regrettable mais comme moyen de contournement on peut utiliser les API qui permettent avec quelques lignes de code de compenser ce manque. Brian Graf (@vBrianGraf) nous a mâché le travail en développant un module Powershell et en rédigeant un article détaillant son fonctionnement. Il ne vous reste plus qu’à configurer une tache planifié pour exécuter ce script et le tour est joué !

Restauration

Maintenant que nous avons réussi à sauvegarder notre vCenter, voyant comment le restaurer. Rien de bien compliqué… Comme indiqué dans l’introduction, nous allons utiliser l’outil de déploiement d’un vCenter (présent sur l’image ISO d’installation) et suivre pas à pas les instructions. Il est à noter que certains paramètres peuvent-êtres modifiés lors de la restauration, vous pouvez par exemple sélectionner une taille d’appliance plus grande (mais pas plus petite), vous pouvez aussi changer l’IP (n’oubliez pas de mettre à jour votre DNS dans ce cas).

  1. Exécutez l’outil d’installation et sélectionner Restore

2. Dans la fenêtre Enter Backup Details, fournissez les informations nécessaires pour accéder aux données sauvegardées

3. Dans les fenêtres suivantes, fournir les informations nécessaires à la création d’un nouveau vCenter

4. Allez prendre un café le temps que dure la restauration…

A la fin de la procédure, vous pourrez de nouveau accéder à votre vCenter / PSC.

L’outil parfait pour sauvegarder mon vCenter ?

Est-ce que cette nouvelle fonctionnalité va remplacer les outils classiques pour sauvegarder votre vCenter ? Clairement non, l’impossibilité de planifier simplement les jobs et le fait de devoir posséder une image ISO d’installation d’un vCenter pour restaurer sont des limitations qui peuvent rebuter.

Par contre je me souviens d’un temps pas si lointain ou des bugs CBT faisaient que la restauration des VM n’était pas garantie, dans ce contexte, posséder un deuxième moyen de sauvegarde prend plus de sens… A vous de voir !

Erwan Quélin est depuis 6 ans Ingénieur Systèmes chez Cheops Technology. Ses interventions sont multiples et auprès de clients très diversifiés dans la région Ouest. Spécialisé dans la virtualisation autour des produits VMware et dans le stockage autour des gammes VNX, Unity et VPLEX de Dell EMC, Erwan est certifié VMware Certified Professional – Datacenter virtualization 4, 5 et 6 ainsi que EMC Implementation Engineer – VNX et Unity et vient d’intégrer les programmes VMware vExpert et Dell EMC Elect pour l’année 2017.

Lorsqu’il lui reste un peu de temps libre, Erwan développe des projets open sources ayant pour sujet principal l’automatisation d’infrastructures.

Pour suivre Erwan et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Erwan Quelin Voir le profil Linkedin d’Erwan

Voir mon profil GitHub Erwan Quelin Voir le profil GitHub d’Erwan

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VxRail 4.0 la première brique du DataCenter moderne

Par défaut

Le changement est la seule constante du secteur informatique depuis des années.

La transformation de nos entreprises passera par la modernisation des Data Centers

Le marché de l’infrastructure informatique connaît une transformation sans précédent. La transformation la plus significative se traduit par deux grandes tendances : une tendance de déploiement vers une infrastructure convergée et Hyper-convergée,  et une tendance de conception vers le nouveau Data Center définis par logiciel (SDDC). Les deux sont des réponses aux réalités informatiques :

  • Encombrement des infrastructures
  • Complexité
  • Coûts élevés
  • Réduction du Time-To-Market

Platform 3.0

Les applications sont généralement identifiées par les plates-formes de charge applicatives définies par l’industrie : Plate-forme 1.0 qui se réfère aux charges applicatives de type mainframe; Platform 2.0 qui fait référence aux workloads client-serveur et virtualisés x86 traditionnels, et Platform 3.0, qui se réfère aux applications Big Data avec de nouvelles applications conçues pour les environnements Cloud, application Cloud native, social et mobile.3rd Platform

Il est essentiel que les systèmes qui composent l’infrastructure des SI reposent sur des technologies compatibles avec la troisième plate-forme, notamment les technologies Flash, scale-out, software-defined et Cloud.

Le document d’IDC intitulé « Worldwide Hyperconverged Systems 2015–2019 Forecast » montre notamment que les systèmes hyperconvergés devraient être le segment à la croissance le plus rapide de l’infrastructure convergée avec un CAGR de 60% d’ici 2019.

VxRail

Dell EMC VxRail est une appliance Hyper-Convergée (HCI) développée conjointement entre Dell EMC et VMware. Le lancement de la solution VxRail 4.0 a été annoncée lors du dernier Dell EMC World en octobre 2016.

Les appliances Dell EMC VxRail sont construites à partir de la technologie VMware Virtual SAN (VSAN).

VxRail est construit sur une architecture clustering modulaire de type Scale-Out. L’architecture est un système distribué constitué de blocs (Base Building Block), le form-factor de ces blocs ou appliances varient en fonction du modèle 1U1N, 2U1N et 2U4N (U: comme abréviation pour l’espace dans le rack et N pour le nombre de nœuds dans chaque appliance). VxRail offre la possibilité d’étendre jusqu’à 64 noeuds au sein d’un même cluster VxRail.

Les appliances reposent sur du matériel x86 basé sur des serveurs Dell EMC ( sauf pour le modèle 2U4N Quanta) avec des processeurs Intel (Broadwell Gen5). Les séries V et P reposent quant à eux sur des serveurs PowerEdges R730, quant à la serie E, elle respose sur des serveurs PowerEdge R630. La serie S repose enfin sur la gamme PowerEdge R730xd.

Les appliances se déclinent en deux versions, hybride ou version full flash, à l’exception de la série S (uniquement en hybride).

La gamme des appliances Dell EMC VxRail se décline en 5 séries pour répondre aux différents cas d’usage:

  • G series – « General Purpose » –  modèles G410 et G410F
  • E series – « Entry Level » – modèles E460 et E460F
  • P series – « Performance optimized » – modèles P470 et P470F
  • V series – « VDI optimized » – modèles V470 et V470F
  • S series – « Storage Dense » – modèle S470

Chaque noeud inclus le matériel suivant :

  • 1 ou 2 CPU Intel Xeon E5-2600 v4
  • Possibilité d’étendre de 64GB à 1536GB en capacité mémoire DDR4 DIMMs
  • Contrôleur disque PCIe SAS 12GB SAS
  • Carte SATADOM de 64GB pour le boot de l’ESXi
  • En fonction des modèles, une carte Dual-port 10GbE et 2 ports 1GbE, avec la possibilité de rajouter une carte supplémentaire 10GbE et 1GbE.

Le modèle V supporte les cartes graphiques de type NVIDIA Tesla M60, AMD FirePro S7150 (S7150 x2).

L’architecture de l’appliance VxRail est un système distribué pouvant évoluer de façon linéaire de 3 à 64 nœuds.

L’approche modulaire du VxRail permet de faire évoluer la structure au fur et à mesure des besoins métiers, c’est un des nombreux avantages de l’hyper Convergence : la Scalabilté.

Une de mes préconisations pour adopter l’hyper convergence est de débuter par un petit périmètre et le faire évoluer. Faite cohabiter votre plateforme VxRail avec votre solution legacy et migrer (via Storage vMotion) vos VMs sur la nouvelle plateforme, c’est une transition tout en douceur !

La configuration minimale initiale de VxRail est de 3 noeuds. Il est possible de faire évoluer son cluster en rajoutant un noeud ou en rajoutant des disques aux DG (Disks Group), l’incrément ici est, soit le disque, soit le noeud.

Remarque : la configuration du 4ème noeud doit correspondre aux trois premiers. Il est possible de mixer les différentes gammes de VxRail à partir du 4ème noeud.

La version 4.0 : What Else !

Finalement, VxRail est une suite de logiciels pré-configurée et pré-chargée sur les appliances, la plus-value de l’offre repose essentiellement sur 3 arguments : la performance, le support unique de la plate-forme et la sécurisation des données et des VMs.

L’offre software :

VxRail intègre VMware vSphere, vCenter Server et VSAN pour créer une solution accélérée et prête à l’emploi. VxRail inclut également VMware Log Insight (Root Cause Analysis), pour la maintenance automatisée et les mises à jour logicielles VxRail s’appuie sur VxRail Manager.

L’offre Bundle de VxRail comprend la suite logiciel suivante :

  • VxRail Manager 4.0 pour le déploiement, le management et configuration
  • VSAN Enterprise en 6.2
  • vCenter Server en 6.0 U2 (la licence du vCenter Server est exclusivement réservée pour le management du Cluster VxRail)
  • vRealize Log Insight 3.3.1
  • ESRS/VE Secure Remote Services 3.16

Donc, seules les licences des hyperviseurs vSphere ne sont pas comprises. Concernant les licences vSphere, VxRail supporte :

  • vSphere Enterprise +
  • vSphere Enterprise
  • vSphere Standard
  • vSphere ROBO Advanced
  • vSphere ROBO Standard
  • vSphere Desktop

Sécurisation & Protection

VxRail inclut une suite de services autour de la sécurisation et de la protection de la donnée, notamment la réplication et la sauvegarde :

  • VDP 6.1.3 : VMware Data Protection
  • VSR : vSphere Replication
  • RP4VM 4.3.1.4 : RecoverPoint for Virtual Machines
  • CloudArray 7.0.7 : passerelle Cloud public & privée

RecoverPoint est une solution permettant de restaurer instantanément les applications en cas d’incident sur l’environnement de production. Cette solution appelée également CDP (Continuous Data Protection) réalise une journalisation d’écriture et permet de restaurer à partir de n’importe quelle date dans le temps, en réalisant une réplication synchrone ou asynchrone.

VxRail fournit également une passerelle aux Clouds publics et privés, CloudArray est intégrée à VxRail en fournissant 1To de cache pour 10To supplémentaires de stockage Cloud à la demande par appliance.

La licence VSAN Enterprise fournit également un service de continuité d’activité grâce à la fonctionnalité VSAN Stretched Cluster ( à lire dans le prochain article VxRail).

Support Unique

Une des plus value de l’appliance VxRail se trouve également dans le support proposé.
Le support est pris en charge par les équipes Dell EMC 24×7 concernant le matériel et logiciels, y compris le support logiciel VMware & VSAN. C’est toute l’appliance qui est supportée, de bout en bout.

De plus, grâce à SRS Secure Remote Services, l’appliance dispose d’une connexion à distance bidirectionnelle proactive entre l’appliance VxRail et le support Dell EMC, une connexion sécurisée, et fonctionnant 24x7x365. Un mécanisme de Heartbeat assure une surveillance continue et permet d’envoyer des notifications et des logs au support. La solution permet de proposer un diagnostic et une résolution à distance et de recevoir des mises à jour de façon transparente et automatique.

Je vous invite à consulter le post de Cédric vBlog.io sur ce sujet, un bon retour d’expérience, en live!

  • Le résultat du sondage ci-dessous, réalisé par « Enterprise Strategy Group » soulignent quelques principaux vecteurs d’adoption sur le marché des solutions hyper-Converged HCI:

Améliorer l’efficacité du service et du support du fournisseur de solution HCI est également une initiative clé pour plus de 41%.

Source: Enterprise Strategy Group, 2017

 

 

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMworld 2016 – Day 2

Par défaut

DIGITAL WORKSPACE, END USER MOBILITY, CLOUD AND INTERNET OF THINGS (IOT)

General Session VMworld 2016 – Day 2

Suite à la Keynote de Pat Gelsinger lors de ma 1ère journée au Vmworld, les échanges se sont orientés autour de la transformation numérique et la manière dont la stratégie Cloud de VMware permettra aux clients de l’entreprise de répondre à ce nouveau challenge. Sanjay Poonen, vice-président exécutif et directeur général, End-User Computing, a quant à lui développé plus en détail ce thème lors de cette 2ème General Session, avec VMware le « Tout Cloud » :

Any Cloud, Any App, Any Device

VMware Workspace ONE

VMware veut donner à ses utilisateurs de la simplicité et de la qualité à travers tous ses produits et ce pour offrir un espace de travail numérique de nouvelle génération.

VMware a ainsi annoncé la mise en œuvre d’une nouvelle approche de gestion unifiée des terminaux pour gérer Windows 10, ainsi que des améliorations pour VMware Horizon et VMware Workspace ONE avec VMware Identity Manager.

VMware Workspace ONE combine l’identité et la gestion de la mobilité pour fournir un accès sans compromis et sécurisé à toutes les applications et les données de l’utilisateur, afin de pouvoir travailler, de n’importe où, à tout moment et quel que soit le terminal choisi. Workspace ONE est le pont reliant les applications traditionnelles et les premières applications mobiles de type Cloud, en offrant aux utilisateurs finaux un moyen simple d’accéder aux outils de productivité des entreprises.

AirWatch® Container Management offre une séparation complète des données personnelles et professionnelles sur les appareils, sécurise les ressources de l’entreprise et préserve la vie privée des employés. AirWatch permet aux entreprises de standardiser les stratégies de sécurité des entreprises et de prévenir d’éventuelles pertes de données à travers les appareils mobiles et ce grâce à son approche flexible de la conteneurisation.

 Solutions Exchange

Sur le site du VMworld se trouve cet immense espace dédié aux fournisseurs de l’écosystème. Plus d’une centaine s’y sont réunis. La taille des stands varie selon le niveau de sponsoring (Diamond, Platinium, Gold, Silver, Exhibitor…).

L’occasion ici de rencontrer et de découvrir de nouvelles solutions. Retrouvez ainsi ci-dessous quelques courtes interviews que j’ai pu réaliser lors de mon passage au Solutions Exchange.

  • Le premier témoignage : Emmanuel Bernard – vSpecialist chez Dell EMC nous détaille les principaux avantages de la solution HyperConvergente VxRail Dell EMC VMware.

  • Oliver Bernard nous dévoile ici toute la plus value de la solution Turbonomic au sein de nos systèmes informatique :

  • Première présence de Kaminario sur le salon, Mike Uzan présente la première solution Software-Defined Architecture :

  • Pour terminer, le témoignage de Lionel Meoni et la présentation de Rubrik ,une solution Cloud Data Management :

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Acheter la convergence aujourd’hui pour respirer le futur

Par défaut

Par Emmanuel Forgues

Voir le profil d'Emmanuel sur LinkedIn

Acheter la convergence (VCE, VMware, EMC) ou l’Hyper-convergence (VCE, Nutanix, Simplivity, Atlantis) aujourd’hui pour respirer le futur

 

Délivrer l’IaaS comme fondation de l’ITaaS

it_myvmworldPour reprendre et donner une prolongation à l’article de Noham « Pourquoi conduire la transformation de l’IT est aujourd’hui un incontourable ? » : Il y a quelques temps les fournisseurs externes arrivaient à être plus précurseurs que les départements informatiques des entreprises, poussant les utilisateurs à expérimenter eux-mêmes les nouvelles options qui s’offraient à eux comme le Cloud Public. Avec un usage de plus en plus large des technologies et services externes à l’entreprise, les utilisateurs on fait apparaitre des risques considérables pour l’entreprise, créant par la même occasion un nouveau marché : le shadow IT (l’IT cachée). La convergence de ces nouvelles tendances et le sursaut des DSI pousse à voir apparaitre une nouvelle tendance : l’ITaaS (IT As A Service) ou l’ensemble des services de l’IT peuvent être proposés comme un service externe rétribué à l’usage et prenant en charge les besoins des utilisateurs ‘hors-control’ par le DSI. Dans cette course au besoin et aux réponses, les DSI peuvent prendre une longueur d’avance considérable et innovante.

Avant d’en arriver à choisir l’ITaaS (IT as a Service) il faut commencer par la base et choisir son infrastructure pour répondre aux besoins des développeurs (Dev) et de l’opérationnel (Ops). Les logiciels et le matériel doivent offrir :

  • la mise à disposition d’environnement rapidement en mode self-service
  • tous les mécanismes d’automatisations associés
  • l’identification des couts (refacturation transparente des coûts)
  • sécurisation : encryption, authentification, contrôle des accès
  • évolutivité possible (d’autres Hyperviseurs par exemple)

La partie logicielle a déjà été abordée dans l’article sur l’association de l’hyper-convergence et des entreprises pour répondre au besoin du DevOps, nous abordons dans celle-ci le choix de l’infrastructure et ses critères. Néanmoins, il ne faut pas perdre de vue que l’infrastructure se verra totalement masquée par tous les services additionnels pour faire bénéficier à l’entreprise l’expérience du SDDC. Par extrapolation, l’importance du type de matériel est très faible à partir du moment où il délivre le service demandé. Il saura se rappeler à votre mémoire lorsqu’il ne sera pas possible d’en augmenter les ressources, en cas de panne, pour des migrations impossibles ou compliquées et autres actions classiques sur une infrastructure.

silos_myvmworld

Choix du socle de l’infrastructure

Nous avons assisté il y a de cela quelques années à une grande phase d’optimisation des infrastructures avec la virtualisation. En virtualisant les serveurs physiques nous avons assistés à un gain conséquent de toutes les ressources dans les entreprises (humains, financiers, énergétiques, etc…). Dans un premier temps avec la virtualisation des services puis la virtualisation du stockage avant d’aborder la virtualisation des réseaux (dernière étape peu démocratisé).

serveur-tradi hyperviseur

Mais il fallait aller encore plus loin dans la densification des infrastructures. Les éditeurs faisaient échos aux besoins toujours aussi nombreux et de plus en plus complexe en apportant des réponses qui ne simplifiaient pas pour autant les infrastructures.

pay_infra_myvmworld

Nous en sommes à une nouvelle étape de simplification et d’optimisation des infrastructures en réduisant l’hétérogénéité : des éditeurs, des équipements et des contrats de maintenance. C’est à ce moment que sort du bois la technologie de convergence (Flexpod de Netapp, VCE, VMware,…) et l’Hyper-convergence HCI (Nutanix, VCE vXRail, Simplivity, Atlantis, …). Cette optimisation permet d’avoir dans un seul et unique boitier (Baie ou Appliance) aussi bien les serveurs, le stockage que les infrastructures réseaux nécessaires (IP ou stockage).

Construire son propre DataCenter sur des équipements traditionnels

architecture_hci_myvmworld

Source : http://www.lemagit.fr/definition/Hyperconvergence-ou-Infrastructure-Hyperconvergee

L’infrastructure classique continue de répondre aux besoins des entreprises et ça va continuer ainsi encore pendant un moment. Avec l’approche classique (Legacy) ou en convergé ou Hyper convergé l’édifice doit être construite sur de bonnes bases. Pour disposer de l’expérience du SDDC au service du DevOps, vient s’empiler des couches successives de services. Ce qui confère à l’infrastructure toute son importance dans l’édifice. L’approche Hyper-Convergée offre cette simplification technique recherchée.

 

Continuer sur son infrastructure classique ou basculer vers le convergé ou l’Hyper-convergé est une étape lourde et compliqué. Dans l’équation il ne faut pas oublier les aspects financiers : coûts d’acquisition mais aussi les couts indirects et cachés : prix de la maintenance, consommation électrique, refroidissement, etc …

criteres_hci_myvmworldLe choix de la technologie pour le socle de toute la solution doit se faire selon plusieurs critères :

 

Modélisons une situation financière dite idéale ou ; après un investissement initial faible, la courbe d’investissements des évolutions vient exactement se superposer à la courbe des besoins comme ci-dessous :

capex_myvmworld

capex02_myvmworldEn faisant figurer les investissements initiaux d’acquisition de matériel (incluant maintenant, etc) et la courbe des besoins dans une situation idéale nous avons le diagramme suivant. Les investissements suivent alors parfaitement les besoins. Ce cas de figure est possible aujourd’hui mais uniquement dans une approche en cloud ou il est possible de consommer en fonction des besoins et de payer à l’usage.

 

Appliquons la même méthode de modélisation pour comprendre les investissements dans une infrastructure traditionnelle.

Nous retrouvons l’investissement initial qui est incontournable et souvent relativement important. La croissance va pousser l’entreprise à continuer ses acquisitions en fonction des besoins et créer ainsi un impact relativement conséquent sur ses budgets. Par souci de simplification, je fais figurer les investissements matériels, le support, les renouvellements et les autres coûts adjacents comme un seul et même investissement.

capex_03_myvmworld

Pour donner une représentation concrète des couts liés à une infrastructure j’applique la méthode suivante :

  1. faire figurer la courbe des besoins (réguliers et constants pour simplifier)
  2. l’investissement initial
  3. L’ajout par couches successives des acquisitions qui accompagne les besoins.

Partant de cette représentation le coût en excèdent (ressource acheté et non utilisée) figure au-dessus de la courbe des besoins : I1 + S1+…S4+S4′

I1 = représente la surface des besoins non utilisés mais achetés.

S1+…S4+S4′ = représente le surinvestissement pour l’évolution de l’infrastructure.

S4′ = représente le surcoût lorsque la scalabilité de l’offre est arrivée à son extrême et que le coût de l’incrément est constant, incompressible et supérieur au besoin. Ce coût excédentaire est le plus notable car oblige l’entreprise à une acquisition excessive par rapport à un besoin pouvant être faible.

Les moments dans cette phase d’investissement successif qui sont les plus intéressants à observer sont :

– lorsque l’acquisition utile (sous la courbe) devient moins important ou égale que l’acquisition non-utilisée (au-dessus de la courbe)

– Pendant combien de temps le non-utilisé acheté est supérieur à l’utilisé acheté.

C’est à ce moment dans la vie de l’infrastructure qu’il faut financièrement anticiper la pertinence de la technologie sélectionnée. Une offre qui permet d’optimiser une infrastructure existante avec un impact minimum sur les budgets doit se trouver entre ces deux cas tout en restant le plus proche possible de la solution dite « idéale ». Dans le cas où le choix est de remplacer une infrastructure existante par une solution entièrement Hyper-convergée cela revient à racheter l’infrastructure initiale. Cette démarche sur un gros Datacenter risque donc d’être financièrement rédhibitoire.

La solution la plus réaliste modélisé dans l’exemple ci-dessous consiste à avoir un investissement initial faible (ou sinon plus faible qu’une infrastructure standard L1<I1) et ou l’augmentation des ressources se passe avec la granularité la plus fine en ajoutant ce qui est au plus proche de ce qui est nécessaire.

capex04_myvmworld

Le marché propose des solutions qui techniquement tienne vraiment la route mais ou l’investissement initial est aussi élevé que l’infrastructure traditionnelle. Si en plus la solution n’offre pas de modularité il devient compliqué de justifier l’acquisition d’un bloc complet pour répondre à un manque d’espace disque (par exemple).

Sans une « granularité fine » nous aurions le diagramme ci-dessous.

capex05_myvmworld

Au moindre besoin supplémentaire l’achat d’un serveur complet est nécessaire avec une surface d’investissement non utilisé très important. Même si c’est moins souvent que les autres solutions cela revient à racheter une maison quand j’ai besoin d’agrandir un peu ma cuisine.

Cet article vient à la suite des 2 articles suivant :

 

emmanuelforguesEmmanuel Forgues

Pour suivre Emmanuel et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Emmanuel Forgues Voir le profil de Emmanuel Forgues

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMworld 2016 : the place to be !

Par défaut

vmworld2016_myvmworld

J-4 : VMworld 2016

Si vous suivez les flux des réseaux sociaux (Twitter, Linkedln,…) ou lisez les prévisions des analystes, le Cloud public semble sans aucun doute être la tendance du moment et prendre le pas sur le DataCenter.

cloud-computing-trends-2016-public-yoy

A nouveau, on pourrait se questionner sur le pourquoi de ma participation au VMworld pour la 6ème année consécutive ?

Ma première réponse est limpide : le Cloud public ne prend pas l’ascendant sur le DataCenter classique, du moins pas sur tous les DataCenters. Mes diverses expériences m’ont permis d’interviewer un bon nombre de clients (CAC 40 et service public) et de constater que tous n’avaient pas la maturité suffisante pour migrer vers le Cloud Public.

Notons ensuite que le VMworld reste indiscutablement le point central de ralliement de l’écosystème de l’infrastructure informatique. vSphere étant toujours le moteur du Datacenter pour de nombreux clients.

En complément des informations diffusées par les sociétés traditionnelles de matériel et de logiciels, VMworld demeure le lieu ou il faut être pour entendre parler concrètement d’infrastructure hybride. Je suis en effet convaincu que le Cloud public et l’infrastructure privée coexisteront pour la majorité des grandes entreprises. En effet, même les entreprises qui se dirigent vers le Cloud public exigent aujourd’hui une méthode de transition et une mise à disposition d’une infrastructure hybride.

Dans l’offre du Cloud public, de nombreux architectes et responsables informatique se questionnent sur la mise en oeuvre du réseau et des règles de sécurité. Google Compute, AWS et Azure utilisent tous des abstractions de réseau et des approches de sécurité différentes. Alors comment opérer son choix ?

  • NSX semble offrir une solution à ce défi où la gestion parait très complexe. En effet, NSX va permettre de transporter les conceptions de réseau existantes dans le Cloud public.

Les 10 bonnes raisons de venir au VMworld 2016 à Barcelone :

vmworld-2016-europe-top-10-reasons-to-attend

Le VMworld c’est plus de :

  • 300 sessions techniques et discussions
  • Hands-On Lab en compagnie d’Experts VMware
  • + de 130 sponsors
  • + de 50 groupes de discussion
  • des offres spéciales pour passer les certifications
  • du networking, …

VMworld est donc « The place to be » !

Pas seulement pour entendre les messages de VMware, mais aussi pour appréhender la façon de démarrer et de gérer des infrastructures hybrides provenant d’autres fournisseurs. C’est aussi l’occasion de découvrir de nouveaux acteurs au Solution Exchange, de retrouver des partenaires, des clients, des amis et de vieilles connaissances…

VMworld2015_myvmworld03 Eschenbach_Noham_Myvmworld vmworld2014_1Day2

VMworld 2016 Europe Mobile App

Depuis le 11 octobre, il est possible de télécharger l’application mobile (iOS & Android) « VMworld EUROPE 2016 », vous pourrez suivre en direct le VMworld et retrouver votre agenda personnel, évaluer la qualité des sesions, des informations sur les sessions…

mobile vmworld2016 moble vmworld

Remerciement au programme vExpert

vexpert

Par le biais de ce post, je souhaite également remercier le programme vExpert qui m’a donné cette année, une possibilité supplémentaire de pouvoir assister au VMworld et ainsi de relayer avec toujours autant d’enthousiasme cette 9ème édition européenne pour la communauté francophone.

:  Thanks for your support Corey


Retrouvez ci-dessous la liste des bloggers officiels du VMworld 2016, dont 3 frenchies : Cédric pour vblog.io  Vladan pour vladan.fr  et myvmworld.fr

Abdullah Abdullah http://notes.doodzzz.net
Alastair Cooke http://demitasse.co.nz/
Amit Panchal http://apanchal.com
Andrea Mauro http://vinfrastructure.it
Ather Beg http://atherbeg.com
Benjamin Torch http://virtualb.eu
Cedric Quillévéré http://vblog.io
Chris Bradshaw http://isjw.uk
Daniel Romero Sanchez http://dbigcloud.com
Ivo Beerens http://ivobeerens.nl
Jorge DelaCruz http://jorgedelacruz.es
Jose Manuel Hernandez http://josemhernandez.com
Jose Maria Gonzalez http://josemariagonzalez.es
Karel Novak http://rsts11.com
Kim Bottu http://virtual-kim.com
Kim Bottu http://vmusketeers.com
Leandro Ariel Leonhardt http://blogvmware.com
Lino Telera http://blog.linoproject.net/
Magnus Andersson http://vcdx56.com
Manfred Hofer http://vbrain.info
Manlio Frizzi http://virtualaleph.blogspot.com
Manny Sidhu http://virtual10.com
Marco Broeken http://vclouds.nl
Mark Brookfield http://virtualhobbit.com
Massimiliano Mortillaro http://kamshin.com
Mohamed Roushdy http://arabitnetwork.wordpress.com
Noham Medyouni http://myvmworld.fr
Ranjit Singh Thakurratan http://rjapproves.com
Robert Verde http://cloudfix.nl
Roy Mikes http://mikes.eu
Russell O’Connor http://virtualizationgains.com
Vladan Seget http://vladan.fr
Xavier Caballé Noguera http://pantallazos.es
Xavier Genestós http://sysadmit.com

Retrouvez les Breakout Sessions des éditions précédentes disponibles sans inscription :

vmworld-breakout-sessions_myvmworld

 


 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Hyperconverged technologies and companies facing the DevOps paradigm

Par défaut

By Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

Hyperconverged technologies (Nutanix, Simplivity, VCE) and companies facing the DevOps paradigm

To survive today, a company faces a challenge: the balance between development time and market demand. It is not possible to wait 6 months to come up with an application. The release of a new OS (Android, IOS, Windows, …) requires immediate reactivity or the company might face a potentially heavy financial penalty or just miss a new market. However, we must not confuse speed with haste when marketing cannot wait, especially in an economic context crippling budgets. Just look at the sad example of the mobile application deployed urgently, at the request of the French authorities to inform on terrorist actions. This application (SAIP), developed in 2 months by a team of 15 engineers functioned for a few hours only after the attack in Nice.

The new convergence and hyper-convergence solutions provide companies with the  rationality of an infrastructure to face the challenges of DevOps. The major publishers have different approaches but should eventually be able to integrate a broader range of technologies into a single offer.

The non-named problems encountered in business:

Two technical entities participate in the development of all the companies relying on IT.

On one hand, the development team (DEV) which produces IT solutions both for internal or external use, and, on the other hand, the operation team (OPS) which provides DEV with the necessary tools and maintains them. We see that their goals are often contradictory within the same company, in fact their alignment is a strategic and economic challenge for IT departments.

For convenience we will speak of DEV for Development and OPS teams for Operational teams.

Where is the brake between market demands and technical services? Why is DEV not reactive enough? First answers: because they are hamstrung by overly rigid infrastructure, inadequate service catalog and physical or virtual infrastructure without  « programmability » capacity. Why are OPS not reactive enough? It is likely that they are not sufficiently involved with the DEV teams to meet their expectations.

Obviously the physical and virtual infrastructure has to change to become more programmable. At the same time the DEV must be able to program infrastructure and OPS must be able to understand and control the interactions of DEV with the infrastructure. In short, the difficulties between DEV and OPS are as follows:

We will call « DevOps » the necessary confrontation between these two teams. DevOps is the concatenation of English words Development and Operation

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

L’hyper-convergence et les entreprises ensemble face au paradigme du DevOps

Par défaut

Par Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

L’hyper-convergence (Nutanix, Simplivity, VCE) et les entreprises ensemble face au paradigme du DevOps

Pour survivre aujourd’hui, l’entreprise est face à un challenge : l’adéquation entre le temps de développement et la demande du marché. Il n’est, en effet plus possible d’attendre 6 mois pour sortir une application. La parution d’un nouvel OS (Android, IOS, Windows, …) nécessite une réactivité immédiate sous peine d’une sanction financière pouvant être lourde ou simplement de louper un nouveau marché. Cependant, il ne faut pas confondre vitesse et précipitation lorsque le marketing ne peut pas attendre et dans un contexte économique grevant les budgets. Il suffit de regarder le triste exemple de l’application mobile déployée, en urgence, à la demande des pouvoirs publics français pour informer sur les actions terroristes. Cette application (SAIP) développée en 2 mois par une équipe de 15 ingénieurs n’a fonctionnée que plusieurs heures après l’attentat de Nice.

                  Les nouvelles solutions de convergence et d’hyper-convergence fournissent aux entreprises la rationalité de l’infrastructure face aux challenges du DevOps. Les principaux éditeurs ont des approches différentes mais doivent à terme être capables d’intégrer un ensemble plus large de technologies dans une seule et même offre.

La problématique non-nommée rencontrée dans les entreprises :

Deux entités techniques participent aux développements de l’ensemble des entreprises s’appuyant sur l’Informatique. D’un côté les équipes de développement (DEV) qui vont produire une solution informatique (usage interne ou usage externe) et de l’autre côté les équipes des Opérations qui sont là pour mettre à disposition de la première équipe des outils nécessaires et en assurer la maintenance. Nous verrons que leurs objectifs sont trop souvent contradictoires au sein de la même entreprise et l’alignement de ceux-ci est un challenge stratégico-économique pour les DSI.

Par commodité nous parlerons de DEV pour les équipes de Développement et de OPS pour les équipes Opérationnelles.

Où se trouve le frein entre les demandes du marché et les services techniques ? Pourquoi le DEV n’est pas suffisamment réactif ? De premiers éléments de réponse : car ils sont bridés par des infrastructures trop rigides, un catalogue de services inapproprié et infrastructure physique ou virtuelle sans capacité de « programmabilité ». Pourquoi les OPS ne sont-ils pas assez réactifs ? Il est fort probable qu’ils ne soient pas suffisamment impliqués par les équipes DEV pour répondre à leurs attentes.

A l’évidence l’infrastructure physique et virtuelle doit changer pour devenir plus programmable. Dans le même temps les DEV doivent pouvoir programmer l’infrastructure et les OPS doivent pouvoir comprendre et contrôler les interactions des DEV avec l’infrastructure. En résumé, les difficultés entre DEV et OPS :

Nous nommerons « DevOps » cette confrontation nécessaire de ces deux équipes. DevOps est la concaténation des mots anglais : « development » (développement) et « Operation » (exploitation).

La grande majorité des analyses mettent en avant que les années 2016-2017 seraient le début d’une adoption massive du PaaS (Plate-Forme as a Service), du DevOps et du container Docker.

  • IDC : 72 % des sociétés vont adopter le PAAS
  • DZone : 45 % des interrogés répondent qu’ils évaluent ou utilisent déjà les Docker Containers
  • Right Scale : 71 % des entreprises annoncent une stratégie basée sur plusieurs clouds.

PAAS :

paas_myvmworldUne « Plateform as a Service » (PAAS) est un service de « Cloud computing » fournissant une plateforme et un environnement nécessaire aux développeurs avec les avantages du « cloud ».

Ce service offre :

  • Une capacité de montée en charge importante et rapide sans les coûts associés d’investissement et de maintenance.
  • L’usage via une interface WEB sans les compétences d’infrastructure complexe
  • Flexibilité des services à utiliser et des circonstances d’utilisation
  • Environnement collaboratif poussé à l’extrême
  • Sécurité assurée par le fournisseur de PAAS pour les accès et les données

Container Docker :

docker_container_engine_logo

                  Aujourd’hui se pose toujours la question du déploiement des applications actuelles. Mais très vite il va falloir se poser la question du déploiement des applications du futur (container/Dockers). La technologie Docker va permettre l’exécution des services sur n’importe quel serveur quel que soit l’infrastructure cloud ou non.

 Contrairement à une VM (Machine virtuelle de plusieurs Go), le container (quelques Mo) n’embarque pas d’OS. Le container/Docker est donc plus léger et plus rapide à démarrer, déplacer, dupliquer (ainsi que toutes les autres actions de maintenance courante).

Considérons une entreprise qui doit augmenter brutalement les ressources pour un développement stratégique urgent (secteur bancaire, sociétés de développement, …). Avec une solution traditionnelle de VM, il faut avoir provisionné un grand nombre de VM en attente et les démarrer pour les mettre à disposition. Il est donc nécessaire de disposer au même instant de l’infrastructure nécessaire pour supporter le démarrage de tous ces environnements : CPU, RAM, Stockage, I/O disque et I/O réseau, …).

En éliminant l’OS, les containers consomment de 4 à 30 fois moins de RAM et de disques. Dans ce cas quelques secondes suffisent pour démarrer les applications. Les containers/Dockers sont aux applications ce que la virtualisation était aux serveurs dans les années 90.

Aujourd’hui leurs usages facilitent les développements en automatisant l’intégration. Cette intégration est continue et automatise les passages successifs des mises jour du code source provenant des environnements du dev, QA, pre-prod jusqu’à la production.

 Nous mettons en exergue le problème de la mise en production de ces containers qui ne peut se faire par les équipes IT tant que le contrôle du réseau, sécurité, stockage, sauvegarde, supervision… ne sont pas correctement intégrés à la programmation et à la configuration du Container. Dès lors, les containers seront la réponse logicielle au DevOps car utilisés par les DEV qui consomment de l’infrastructure tout en étant maîtrisé par les OPS. Pour une bonne intégration les éditeurs proposent déjà des solutions d’orchestration pour gérer l’équilibrage de charge, la gestion de la résilience, chiffrement, etc.

Selon Datadog, l’adoption des dockers a augmenté de 30% en 1 an :

source Datadog

Les Container Docker apporteront rapidement tous leurs bénéfices comme solution au DevOps !

Le problème nommé est donc le DevOps :

                  devops_03_myvmworldSelon le Gartner, le DevOps dépassera le stade de la niche en 2016 avec 25 % des très grandes entreprises mondiales qui l’auront adopté représentant un marché de 2,3 milliards de $. Selon IDC, En France 53 % des entreprises ont engagé une démarche DevOps généralisée à tous leurs développements.

Face aux difficultés des entreprises à transformer leurs infrastructures classiques en une solution suffisamment agile, les fournisseurs de cloud peuvent proposer la mise en œuvre du DevOps avec leurs approches Scale-Out et leurs propositions d’économies d’échelles.

La mise en œuvre de DevOps oblige à regarder plusieurs problèmes : structurels, organisationnels, de ressources, etc. Pour le DSI, en charge de la réponse technique il est cauchemardesque de mettre en place une infrastructure agile avec des équipements actuels traditionnels. Il lui faut gérer aussi bien des environnements complexes, de multiples serveurs (stockages, computing, réseaux, sécurité) que des services de développements (Bases de données multiples, les portails WEB, les logiciels de développements comme python, C++, les libs et autres APIs, les applications de supervision et d’analyse de performance…). Les technologies de containers et les réseaux overlays apportent des réponses pertinentes aux problèmes de réseaux, à condition que les administrateurs de ces services anticipent leur arrivée. L’ensemble devant se réaliser dans un temps record en supportant la pression externe du marché, la pression interne du marketing et avec des budgets restreints. Une fois l’ensemble en place, il faut enfin en tirer profit au maximum pour que toutes les applications interagissent entre elles correctement tout en étant capable de gérer les besoins de migration rapides. Le tout sans impacts pour l’ensemble de l’infrastructure.

  1. Nombre de serveurs physiques ou virtuels
  2. Nombre de services de développement
  3. Garantir la stabilité et les interactions face à une complexité grandissante en fonction du nombre de serveurs et de services
  4. Temps de mise en œuvre qui soit être de plus en plus court
  5. Contrainte des budgets
  6. S’assurer de la capacité des migrations d’un environnement vers un autre en s’assurant de maintenir les 3 points précédents
  7. Pression du marché (marketing dans l’entreprise) grandissante
  8. Garantir l’évolution des acquisitions sur quelques années

En excluant les solutions traditionnelles, il y a sur le marché deux grandes tendances répondant à ces besoins :

  1. Construire/assembler pour un « Workload » Spécifique : les principaux acteurs étant Oracle Exadata DataBase Machine (les Hyper-Appliances).
  2. Intégrer l’ensemble du stockage, la puissance de calcul (computing), le réseau… dans une solution capable de démarrer plusieurs workloads (les solutions de convergences et d’Hyper-convergences comme Nutanix (http://www.nutanix.com)Simplivity (https://www.simplivity.com/), VCE (http://www.vce.com/), …) Aujourd’hui ces technologies peuvent faire fonctionner les workloads actuels mais devront aussi anticiper les prochains.

Les infrastructures (Hyper-)convergées et les systèmes intégrés présentent le plus fort potentiel pour s’intégrer dans une solution de DevOps. Elles offrent toutes les avantages d’être extensible, standardisation de l’IT, programmable…

Certains acteurs proposent dans leurs offres toute ou partie de l’ensemble des briques intéressantes pour un DevOps :

  • Flexibilité de la mise à disposition des ressources (stockage, CPU, RAM,…) avec des solutions de (hyper-)convergence.
  • Mise à disposition des applications nécessaires avec des solutions dockers ou de containers et les applications pour le provisionnement rapide.
  • Provisionnement rapide des environnements de travail via un portail Web : 1-Click.
  • Réduction des compétences complexes et couteuse dans les équipes d’infrastructure
  • Externalisation totale de l’infrastructure pour ne plus en supporter les couts.

Aujourd’hui les sociétés VMware, CISCO et Nutanix peuvent provisionner aussi bien des VMs que des containers, Simplivity à ce jour est capable de le faire rapidement pour les VMs uniquement, (mais je ne vois pas cette société être en reste longtemps). VMware est capable d’avoir un seul OS pour supporter plusieurs containers simplifiant déjà la gestion de cet OS. Nutanix est capable de provisionner les Containers avec leurs stockages. La société Nutanix à acquis Calm.io mais va devoir faire évoluer le produit pour être capable de déployer les applications actuelles comme elle est déjà capable de le faire pour les applications futures. Toutes ces sociétés montrent une étonnante capacité à ne pas se créer des points de blocage pour aborder le futur sereinement.

devops_02_myvmworld

Ces acteurs peuvent dès aujourd’hui répondre aux besoins des entreprises pour simplifier l’infrastructure en supprimant des serveurs comme le SAN ou de faire disparaître le Fiber-Channel, simplifier les backups et profiter des PRA dans des conditions plus acceptable. Dans un deuxième temps il sera important de pouvoir mieux tirer profit de ces infrastructures pour déployer, déplacer… des environnements. Enfin, ces mêmes acteurs seront alors capables de répondre entièrement aux besoins du DevOps.

Aujourd’hui ces acteurs se battent sur le marché de l’infrastructure mais le nerf de la guerre s’est déjà déplacé sur le « provisionnement » des applications avec l’infrastructure associée et nécessaire (SDDC). Déjà certains d’entre eux se positionnent sur l’infrastructure et dans le même temps montent vers les couches logicielles.  Un œil comptable sur leurs marges pour constater qu’elles se rapprochent de celles des éditeurs de logiciels (85%). Tous ces acteurs sont d’ores et déjà capables de proposer la simplification mais certains anticipent l’optimisation de ces mêmes infrastructures (VCE, Nutanix par exemple). Le gagnant sera certainement celui qui arrivera à proposer une solution intégrée unique et capable de déployer aussi bien les applications d’aujourd’hui (Exchange, etc.) que celle de demain (Containers/Dockers). Quand et qui sera le premier à proposer la première solution « SDDC all in a box » capable de répondre à tous ces besoins ?

Article sur la problématique de l’évolution de l’infrastructure et dans la continuité de l’article ci-dessus : « Transition entre les infrastructures traditionnelles et le cloud natif avec l’hyper-convergence (VCE, Nutanix, Simplivity)« 

emmanuelforguesEmmanuel Forgues est diplômé de l’EPITA (promo 97) en spécialité système et Réseaux et récemment diplômé de Sciences Politique Paris en stratégie Internationale et accompagnement du changement. Emmanuel possède une vue globale en s’appuyant sur plus de 20 années d’expérience dans les start-ups, grandes entreprises et les éditeurs. Ces années sur différents domaines (avant-vente, product manager, stockage, sécurité ou réseaux) lui confère de fortes connaissances techniques. Spécialisé aujourd’hui dans la création, l’accompagnement et la montée en puissance des réseaux de distribution en Europe du sud.

Pour suivre Emmanuel et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Emmanuel Forgues Voir le profil de Emmanuel Forgues

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Oracle et VMware, toujours aussi incompatibles ?

Par défaut

Par Sofian BENALI 

Voir le profil de Sofian sur LinkedIn

Oracle_logo.svg

Vmware.svg

Oracle et VMware, c’est une vieille histoire, mais les deux «coopétiteurs» continuent de faire couler beaucoup d’encre.

On se souvient des échanges à coup de Livres Blancs  pour savoir si, oui ou non, il était possible de virtualiser une base de données Oracle, avec quel hyperviseur et si l’opération avait un impact sur les performances.

Virtualizing Oracle with VMware

La question n’est plus là car non seulement techniquement c’est tout à fait possible mais certaines entreprises l’ont fait sans accroc depuis longtemps.

L’éternel frein du licencing

Le problème majeur reste au niveau du Licencing. La question n’est pas nouvelle, bien au contraire, et les clients y sont confrontés tous les jours. De ce côté, rien -ou presque- n’a changé.

Pour résumer la problématique, Oracle a toujours maintenu sa politique de licences qui peut, dans certains cas, coûter très cher à l’entreprise en cas de virtualisation intensive. Car si la VM qui héberge Oracle n’utilise qu’une partie des processeurs physiques disponibles dans la machine ou le cluster, Oracle facture l’ensemble de la configuration et demande à ce que la totalité des processeurs du serveur ou de la ferme de serveurs soient mis sous licences.

vmotion_myvmworld

Avec les dernières versions des consoles d’administration vCenter Server, Oracle va jusqu’à demander la mise sous licence de tous les clusters administrés par une même console et partageant un même espace de stockage. Il devient donc difficile pour les entreprises de faire usage de vMotion, qui permet le déplacement de VMs, sans enfreindre les règles.

L’entreprise a ainsi tout intérêt à se faire accompagner autour des sujets Licensing car il existe néanmoins des solutions alternatives qui permettent, d’une part, de contourner le problème, d’autre part, d’optimiser et valoriser les investissements logiciels et matériels autour des actifs Oracle.

Etudier les règles

Certes, le licencing peut s’avérer compliqué. D’autant que les licences Oracle ne sont pas liées à une clé d’activation. On peut télécharger le logiciel assez facilement et le déployer sans faire appel à Oracle. Les clients qui ne connaissent pas les règles se mettent toutefois en position de non-conformité.
La première étape post conseil préliminaire doit donc être de réaliser un audit de son parc et aller au plus près des besoins réels de l’entreprise. Bien souvent, les fonctionnalités des différentes Editions de la base Oracle sont méconnues ainsi que leurs implications au niveau du Licensing.

Faire du hard-partitionning

Sur certains serveurs, des mécanismes permettent de segmenter et de créer des partitions physiques isolées. On parle de Hard Partitioning.
Oracle est bien clair sur le fait que le soft partitionning (notamment le partitionning proposé par des éditeurs tiers) n’est pas accepté pour limiter la mise sous licences des processeurs.

Hard_Partionning

Les technologies de hard partitionning approuvées (souvent proposées par les constructeurs) sont Dynamic System Domains (DSD), grâce à Dynamic Reconfiguration (DR), Solaris 10 Containers, LPAR (et DLPAR avec AIX 5.2), les Micro-Partitions, vPar, nPar, Integrity Virtual Machine, Secure Resource Partitions, Static Hard Partitioning, Fujitsu’s PPAR…

Passer aux technologies Oracle

Bien entendu, Oracle a travaillé à rendre ses propres technologies de virtualisation compatibles avec ses bases de données.
Son hyperviseur, Oracle VM, basé sur Xen, atteint d’ailleurs un très bon niveau de maturité sur le marché et on commence à en voir de plus en plus, justement dans le cas de virtualisation en environnement Oracle.

OracleVMCette solution est donc préconisée dans la mise en place de nouvelles infrastructures où la limitation du nombre de processeurs à couvrir s’avère nécessaire.

Isoler les applications Oracle

Pour ceux qui ont déjà une infrastructure virtualisée VMware, ce qui représente en fait une grande majorité du marché, difficile de tout transformer et de remettre en cause de tels investissements. Il est clair qu’ils ont tout intérêt à conserver leur socle.
Ils leur est toutefois possible d’isoler les applications Oracle et de les virtualiser sur une infrastructure dédiée, ce qui permet de limiter et de contrôler le nombre de processeurs utilisés.
Un document VMware l’explique bien.
Understanding Oracle Certification, Support and Licensing for VMware Environments

Consolider sur les technologies Oracle

c82-exadata-x4-8-2245321Isoler ses applicatifs Oracle est un premier pas ; les consolider sur des serveurs dédiés et optimisés permet d’aller plus loin.

Les solutions de bases de données Exadata et Oracle Database Appliance prennent encore plus de sens : étudiées pour optimiser les actifs Oracle, ces solutions qui comprennent Software, Serveurs, Stockage et Réseau, en plus de simplifier l’administration des bases de données, mettent en avant des mécanismes de licensing qui réduisent considérablement la facture logicielle et maintenance.

En plus de bénéficier de core factors avantageux (ratios applicables dans le calcul du nombre de licences nécessaires pour couvrir une infrastructure), une politique de licensing progressive On Demand (pour ODA, qui permet de n’activer qu’une partie des cœurs et donc de ne payer les licences Oracle qu’en fonction des cœurs activés) et des possibilités d’upgrader vos machines sans modification matérielle (Exadata) en font des solutions idéales autour cette problématique de virtualisation et d’optimisation des coûts de licences.
Les dernières versions d’Oracle Database Appliance apportent encore plus de possibilités techniques en offrant la capacité, couplée à Oracle VM, de partitionner chaque serveur et héberger différents types de services, base de données et serveurs d’applications par exemple.

Ces nouvelles alternatives ouvrent finalement le champ des possibilités pour les entreprises et leur donne le choix pour appréhender la consolidation de leurs actifs Oracles au mieux.

Quelle que soit la configuration d’origine ou le projet, virtualiser ses actifs Oracle n’est plus un problème.

sofian benaliSofian Benali – South EMEA Partner Manager chez VMware depuis octobre 2015. Chez SCC de octobre 2011 à octobre 2015, Sofian a exercé les fonctions de BDM (business Developer Manager) Oracle sur l’ensemble de l’offre, Applications / Technology / Hardware…

Pour suivre Sofian et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Sofian BENALI Voir le profil de Sofian BENALI

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook