VMTurbo Assurer les performances applicatives au sein du Datacenter

VMTurbo_Head_myvmworld
Par défaut

Par Fabien Azra 

Voir le profil de FAbien sur LinkedIn

Garantir la performance des applications en environnement virtuel avec VMTurbo

L’adage dit « Un bon informaticien est un informaticien fainéant » car ce dernier s’attachera toujours à automatiser autant que possible l’ensemble de ses tâches quotidiennes pour ne plus rien avoir à faire.

Les environnements virtuels, même si ils ont significativement simplifié la gestion quotidienne des infrastructures, restent de véritables challenges pour ces informaticiens. Comment alors s’assurer que les ressources mises à disposition des machines virtuelles seront toujours suffisantes pour garantir la bonne performance des applications qu’elles contiennent tout en minimisant l’interaction humaine ?

Un état instable permanent

Si à un instant T, l’environnement virtuel peut paraitre dans un état stable, la moindre demande de ressources de la part d’une application peut entrainer un déséquilibre. La machine virtuelle qui l’héberge, a t-elle besoin de davantage de mémoire, de puissance de calcul, de bande passante ou de performance du stockage ? Le serveur physique ou la baie de stockage hébergeant cette VM disposent-ils de ces ressources ?

Bien sûr, l’humain peut trancher et prendre la décision de faire les modifications qui s’imposent. Mais cette décision est-elle si simple à prendre ? Doit-on déplacer cette VM sur un autre host disposant de la capacité de RAM ou de CPU souhaité ? Doit-on déplacer son vdisk sur un autre datastore ? Doit-on juste augmenter le nombre de vCPU ou la vMem alloués à cette VM ? N’est-ce pas juste un encombrement d’un port réseau du host ? Et quel sera l’impact de ce déplacement sur le host de destination ? Ne faut-il mieux pas déplacer les autres VMs environnantes plutôt que celle-ci ?

Décision plus ardue qu’il n’y parait finalement ! Multiplions ce questionnement pour des dizaines, voir des centaines de VMs et donc d’applications, sur des serveurs physiques, des switches réseau et des baies de stockage multiples et variés et nous voilà devant un véritable casse-tête pour notre informaticien fainéant.

vmturbo_logo

L’infrastructure virtuelle : un modèle économique

VMTurbo permet de résoudre ce casse-tête permanent en partant d’un constat simple : l’infrastructure virtuelle est une place de marché répondant au principe de l’offre et de la demande.

Les applications, les machines virtuelles, les hyperviseurs, les switches réseaux et autres baies de stockages sont des acheteurs et vendeurs s’échangeant des biens : les ressources (CPU, Mémoire, IOPS, bande-passante, etc…). Le prix de chaque ressource fluctue en permanence en fonction du temps, de la rareté et de la demande plus ou moins forte.

Moins une ressource est utilisée, moins elle est chère. Plus elle est utilisée, plus le prix grimpe. Ainsi, une baie de stockage subissant un pic d’accès vendra chèrement ses IOPS à un hyperviseur et ce dernier les facturera tout aussi cher à la VM, la poussant à aller chercher ailleurs un tarif plus intéressant.

Par ce moyen, VMTurbo va tendre vers un « Etat idéal » : celui où l’ensemble des VMs dispose des ressources dont il a besoin au bon moment.

VMTurbo_myvmworld

Surveiller vs. Contrôler

Dans une infrastructure virtuelle, en dessous de 70% d’utilisation, on gaspille les ressources (on peut donc densifier le nombre de VMs), mais dès que l’on passe au dessus, on augmente le risque.

Pour surveiller ce risque, on a le réflexe naturel de mettre en place un des nombreux outils de monitoring disponibles sur le marché. Malheureusement, ces solutions, tout comme les schedulers natifs aux hyperviseurs, ne font que réagir au dépassement d’un seuil. Cela signifie qu’on attend que le risque se produise et qu’on accepte que l’environnement soit dégradé, impactant ainsi le business de l’entreprise. Elles obligent l’administrateur à agir en mode « pompier », à prendre des actions manuelles pour résoudre les problèmes et sont consommatrices de temps face à la priorité de projets plus critiques.

VMTurbo comprend les demandes des applications et les fait correspondre avec l’offre de l’infrastructure, prenant les décisions à la place de l’humain en temps réel. Ces actions automatisées, centrées sur le besoin plutôt que sur l’infrastructure maintiennent l’environnement virtuel dans un état de santé optimal, de façon 100% logicielle.

Proposé sous la forme d’une simple VM à déployer en quelques minutes, sans agent (fonctionne via appels API), VMTurbo cartographie instantanément l’ensemble de l’infrastructure. Les premières recommandations peuvent être actionnées dans les 30 minutes (comme la relocalisation des VMs). Il sera plus sage d’attendre une trentaine de jours pour les opérations de resize up ou down (nécessitant souvent un redémarrage) afin d’avoir une visibilité plus précise de l’activité d’une application particulière (comme un serveur de paie, par exemple).

VMTurbo? collecte et conserve les metrics les plus pertinents, permettant d’affiner ses décisions en se basant sur l’historique. Mais il peut également faire des projections via sa fonction « Plan » et anticiper l’ajout ou le retrait d’un host, ou encore de lots de VMs et leur impact sur l’environnement virtuel actuel. Il peut également réserver les ressources pour un futur déploiement et l’automatiser en se basant sur des templates de VMs. Par ailleurs, ses dashboards personnalisables et les nombreux rapports permettent à l’administrateur de suivre l’ensemble des actions prises, tout comme leurs résultats.

VMTurbo_opsman-laptop_myvmworld

Il supporte un très grand nombre d’environnements virtuels : VMware, Hyper-V, Acropolis HV (KVM), XenServer, RHEV-M, IBM PowerVM.

Et il collecte également, pour corréler l’ensemble des informations :

  • Cloud et Orchestration : vCloudDirector, CloudStack, OpenStack, VMM, AWS, Azure, SoftLayer, CloudFoundry
  • Load Balancer : NetScaler
  • Stockage : NetApp, EMC, PureStorage, Nutanix, HP, Dell
  • Fabric : Cisco UCS
  • Network : Arista
  • Applications : Exchange, Oracle, SQL, MySQL, WebSphere, WebLogic, JBoss, Tomcat

VMTurbo_Supply_myvmworld

Un jeu de Tetris

En relocalisant et en réajustant l’ensemble des applications, VMTurbo joue à Tetris dans le Datacenter et permet de récupérer de l’espace, de densifier les VMs sur l’infrastructure existante et de repousser les investissements matériels.

VMTurbo_Tetris_myvmworld

Pour ne citer qu’un des nombreux exemples de ROI constaté en moins de 90 jours sur plus de 90% de leurs clients, prenons celui de la banque Barclays. Leur environnement virtuel, qui fait tourner plus de 60.000 VMs, les obligeait à 15% de croissance d’investissement par mois. VMTurbo, une fois mis en place, va faire près de 3.000 recommandations par jour, permettant à Barclays en les suivant de ne pas faire de nouvel investissement sur les 12 mois suivants, représentant 7,5M$ d’économie.

VMTurbo_realTime

Téléchargez la version d’évaluation 30 jours :  operations-manager-30-day-trial

Pour conclure, revenons à notre informaticien fainéant ! Sa crainte était de voir le logiciel mieux travailler que lui et que l’on puisse même se passer de ses services. Mais l’automatisation et le contrôle de VMTurbo sur l’infrastructure virtuelle permettront à notre informaticien de se rendre indispensable sur d’autres projets plus gratifiants. Pour le démontrer, voici une petite analogie : aujourd’hui, un avion est totalement gouverné par le logiciel. Ce dernier peut le faire décoller, le faire voler et le faire atterrir sans nécessiter aucune interaction humaine.

Pour autant, accepteriez-vous de monter dans cet avion sans pilote ?

Fabien AzraFabien est en charge de l’équipe avant-vente de BigTec, distributeur à valeur ajouté accompagnant la transformation des datacenters. Il travaille en étroite collaboration avec les constructeurs et les revendeurs pour assurer la réussite des implémentations des solutions. Avec plus de 15 ans d’expérience technique, c’est un spécialiste des solutions de stockage et de virtualisation.

Pour suivre Fabien et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Fabien Voir le profil de Fabien Azra

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Hébergement mutualisé ou hébergement serveur dédié

hebergement_dedie
Par défaut

Hébergement mutualisé ou hébergement serveur dédié ?

On peut choisir d’héberger son site sur un serveur dédié ou mutualisé. L’hébergement serveur dédié sera réservé uniquement à votre site tandis que l’hébergement mutualisé sera partagé entre plusieurs clients et donc de facto entre plusieurs sites. Chaque type d’hébergement a ses propres caractéristiques, comment choisir le meilleur hébergement pour son site ?

Faire le bilan de ses besoins en hébergement

Pour savoir quelle offre et quel type d’hébergement vous avez le plus besoin ou celui qui est le plus adapté à votre site vous devez connaître :

  • La place qu’occupe votre site : quels sont ses besoins en mémoire et en bande passante ? Quel est le volume de trafic ? Y a-t-il des pics de trafic ? Une saisonnalité ?
  • La puissance qu’il lui faut : est-ce un grand site avec énormément de pages ou au contraire un petit site qui ne nécessite pas beaucoup de puissance ?
  • Les besoins en sécurité : est-ce un site qui contient beaucoup de données sensibles, un intranet avec une base de données d’identifiants et de mots de passe ou un site gouvernemental ?

Si vous répondez à toutes ces questions par l’affirmatif et que vous pensez que votre serveur sera sollicité de manière fréquente, alors un hébergement serveur dédié est ce qu’il vous faut !

Hébergement mutualisé ou hébergement serveur dédié

Faire son choix d’hébergement : serveur dédié ou mutualisé

Par ailleurs, si votre site contient beaucoup de photos, vidéos et a besoin d’un espace disque dur important, il vaut mieux opter pour un hébergement serveur dédié. L’offre est plus avantageuse. Elle coûte évidemment plus chère que l’hébergement mutualisé. En contrepartie, vous disposez d’un serveur clé en main livré rapidement et que vous pouvez même piloter à distance. D’autant plus que les serveurs dédiés peuvent être classés selon des gammes (web, applicatifs, VOIP, streaming, web radio). Des options et des disques peuvent y être ajoutées. Ceci étant dit, rien ne vous empêche pour un début de choisir un hébergement mutualisé. Si votre site prend de l’ampleur, d’une manière ou d’une autre, il sera toujours possible de transférer le site sur un serveur dédié.

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Veeam ONE : Audit, Reporting et Capacity Planning de l’infrastructure virtuelle

550x135
Par défaut

Audit, Reporting et Capacity Planning de l’infrastructure virtuelle

Avec Veeam One, Visualisez en un coup d’œil l’état de santé de vos infrastructures virtuelles et de sauvegarde :

  • Evitez les approximations pour le dimensionnement de votre stockage de sauvegarde
  • Evitez les documentations manuelles et imprécises
  • Optimisez l’utilisation de vos ressources mémoires, de calcul et de stockage en identifiant les gaspillages
  • Anticipez et planifiez l’évolution de vos besoins en capacité.

Pour assister au webinar: Rejoignez-nous sans plus attendre pour cette séquence exclusive !

webinar Veeam One audit

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Transformation digitale : et si on parlait concret ?

Mobility concept
Par défaut

Par Laurie Rouy 

Voir le profil de Laurie sur LinkedIn

« Transformation : passer d’une forme à une autre, action de changer. » Dans le dictionnaire des synonymes, on retrouve accolé au terme transformation le mot « adaptation ».

Alors transformation, oui, mais laquelle ?

On parle aujourd’hui de transformation digitale à tous les étages d’une entreprise, dans tous les métiers, tous les secteurs, industries…Il ne s’agit donc pas d’un ‘type’ d’actions en particulier mais bien d’un réel changement de modèle économique, de façon de vendre, d’acheter, de partager, de collaborer, de recruter. Mais c’est encore et surtout la PROXIMITE entre le client et nous.

La transformation digitale est en premier lieu, pour nous marketeurs, la transformation du client (son attitude, ses attentes, ses recherches, sa manière d’être et de réagir), et de son rapport avec la marque.

Depuis un bon moment, le marketing a été mis sous les projecteurs pour transformer chaque action dite «traditionnelle » en digital. D’ailleurs, 76% des marketeurs pensent que le marketing a plus évolué ces 2 dernières années que ces 50 dernières.

Or, petit à petit, l’expression bien connue de tous qu’est le ROI s’est mise à rythmer chaque phrase de réunion marketing à la manière d’une virgule qui cadencerait un email.

Return on investment mais surtout RONI: risk of non investment.

Ce que beaucoup semble oublier, c’est qu’aujourd’hui, la question à se poser n’est plus si nous devons y aller mais plutôt comment y parvenir. Mais avant de réfléchir aux moyens à mettre en œuvre pour réussir sa transformation il est indispensable de prendre conscience qu’il va falloir tout penser différemment et que, non, opérer une transformation digitale n’induit pas simplement de rajouter quelques logos plus ‘graphiques ‘ et transformer un email en infographie pour être «  à la page ». Rien de pire que d’entendre « mettre un coup de marketing digital là-dessus » pour faire ‘l’affaire’.

Les 5 points clés du marketing digital…

Le marketing digital (et donc indirectement la transformation digitale), si l’on devait le résumer en 5 points essentiels serait :

  • – ‘Profiler’ ses clients et cibler ses communications (la création de ce que nous appelons « personas » et donc segment précis de personne).
  • – Faire du nurtering et utiliser le marketing automation pour travailler un prospect sur du long terme jusqu’à maturation.
  • La sérendipité : qui finalement est l’essence même du  marketing, mais qui devient plus que possible grâce au digital : donner à un client / prospect la réponse à une question qu’il ne s’était PAS encore posé…
  • L’instantanéité : le live, la vidéo, le relai dans les réseaux, et a fortiori…l’image. (il y a aujourd’hui plus de requêtes faites sur Youtube que sur Google…).
  • – Et enfin, réaliser que l’humain ne peut plus être sans digital mais que l’inverse est tout aussi vrai….

Dans tous les cas, prenez conscience que la route est longue, fastidieuse et coûteuse. Car oui, il va falloir investir, prendre des risques et transformer notre manière de faire au quotidien.

Rapporté à l’entreprise, rien de plus concret que  l’exemple du récent discours du VP marketing au Adobe Symposium : il explique que, beaucoup de grandes entreprises ont compris l’importance d’investir dans le digital et souligne, qu’AXA investirait notamment 950 millions d’euros dans la transformation de leur entreprise. Non pas pour être en avance, mais pour être « dans les temps ».

Linkedin Logo on Galaxy Nexus Smartphone by Samsung and Google

Linkedin Logo on Galaxy Nexus Smartphone by Samsung and Google

Mais l’investissement n’est pas que financier, il est dans les hommes…

Le commercial n’a pas seulement besoin du marketing pour mettre en place des actions ou des campagnes web. On parle de bannières, de vidéo 3D, de présence sur la « toile »…mais comment rapporter tout cela au business sans se concentrer uniquement sur des téléchargements de livres blancs ?

Des solutions existent !

Aujourd’hui tout commercial doit travailler différemment. Le futur client est de plus en plus autonome dans ses réflexions. Qui n’est jamais allé à la fnac questionner un vendeur uniquement après avoir écumé blogs et forums, observé la marque sur Facebook, les avis produits sur Twitter… ?

Prospecter sur les réseaux sociaux, gérer ses leads, entretenir sa relation avec ses clients…l’ère du social selling est maintenant arrivée. LinkedIn Sales Navigator pourrait être un des outils pour générer du business et SIGNER des contrats ! LinkedIn, c’est 400 millions de membres connectés et un taux d’ouverture de message à 35% quand les nôtres avoisinent les 8…

Retenez une chose : une bonne stratégie digitale est une vraie adhésion aux nouvelles pratiques et manières de penser, du top management au terrain. Cette stratégie sera alors les briques qui consolideront vos cycles de vente.

Celui qui n’évolue pas prendra le risque de disparaître.

Laurie Rouy est en charge du marketing et de la communication digitale chez SCC France depuis bientôt 2 ans.
Son attrait pour le digital et son implication au quotidien lui permettent de partager, de par son expérience, avis et bonnes pratiques sur le sujet.

Pour suivre Laurie et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Laurie Rouy Voir le profil de Laurie Rouy

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Le Cloud Computing

cloud-computing
Par défaut

Le Cloud computing

L’informatique en nuage ou le Cloud computing concernent l’exploitation de serveurs informatiques physiquement distants et accessibles sur Internet. C’est une délocalisation de l’infrastructure informatique qui offre aux entreprises une grande souplesse en termes de gestion et d’administration des serveurs informatiques. Un basculement des tendances qui favorise le travail collaboratif puisque les collaborateurs peuvent accéder aux réseaux et aux logiciels depuis n’importe quel endroit.

Le Cloud computing et les centres de données

Les entreprises qui utilisent le Cloud computing réalisent des économies de coût considérables. La facturation proposée par les fournisseurs de service prend en compte plusieurs critères : la volumétrie d’utilisation des fonctions, le coût de mise à disposition, le coût de production, etc. Avec le développement du Cloud computing, les centres de données, où sont regroupés les équipements du système d’information des entreprises voient le jour. Ils servent à stocker les informations nécessaires aux activités des entreprises. Les bases de données, étant sensibles, les centres de données ont généralement un haut niveau de sécurité. L’environnement physique est par ailleurs continuellement sous surveillance.

Cloud computing terms together

Les avantages du Cloud computing

En optant pour le Cloud computing, les entreprises font le choix d’externaliser leur serveur profiter d’un ensemble de puissance de calcul et de mémoire. Les entreprises n’auraient plus besoin de serveurs propres. Certaines grosses entreprises du monde informatique et dans le web profitent de ressources informatiques liées au Cloud Computing sans pour autant supporter les coûts d’investissement dans les infrastructures et les solutions informatiques. Par ailleurs les mises à jour logicielles et matérielles sont entièrement gérées par les prestataires, ce qui libère le département informatique des entreprises d’une charge de travail considérable. La localisation des données et leur protection grâce à des infrastructures sécurisées demeurent importantes pour les entreprises. En effet, l’infrastructure informatique réside dans le centre de traitement du prestataire. En cas de sinistre, toutes les données sont sécurisées et vous pouvez y avoir accès de manière opérationnelle depuis n’importe quel endroit en étant équipé d’ordinateurs connectés à Internet. Les solutions Cloud computing sont des technologies innovantes qui deviendront le standard de demain à cause de la multiplicité des données et de leur provenance.

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

VMworld 2015 Barcelona- Ready For Any

ready-for-any_myvmworld
Par défaut

Feedback autour du VMworld Europe 2015 : Ready for ANY !

Le VMworld 2015 s’est tenu tout récemment, du 12 au 15 octobre dernier et traditionnellement à Barcelone pour l’édition européenne. Dans une atmosphère toujours aussi décontractée et avec une logistique à la pointe, cet événement a proposé plus de 250 sessions, plus de 30 000 VMs ont été crées au Hands-On-Lab, et a réuni plus de 135 sponsors et 10 000 visiteurs dont une délégation française qui représentait à elle seule près de 500 professionnels.

myvmworld2015 - 1Révélation phare de cette édition : le rachat d’EMC par Dell pour un montant de 67 Milliards de dollars. L’éditeur californien a aussi fait état des nouveautés sur les offres vCloud NFV (virtualisation des fonctions réseaux), vCloud Air (Cloud public) et vRealize (software-defined data center); et a axé ses conférences sur la virtualisation de l’environnement utilisateur (VDI) et sur celle du réseau, avec notamment des éléments à souligner concernant les évolutions de l’offre NSX.

Introduction de l’évènement

Edition européenne oblige, la General Session a été introduite par Jean ­Pierre Brulard, vice-président senior et nommé en août dernier directeur général pour la zone EMEA avec pour ligne directrice : “Ready For Any”.

VMworld2015_myvmworld04Carl Eschenbach, président et COO de VMware, a ensuite pris la parole en faisant le focus sur la stratégie One Cloud, Any Application, Any Device. Par le biais d’une courte vidéo faisant témoigner Michael Dell, il est venu confirmer le rachat d’EMC. Via ce canal de communication, Michael Dell a ainsi témoigné de son enthousiasme concernant cette acquisition et du potentiel à devenir. Il a aussi souhaité rassurer les partenaires et clients sur l’autonomie que devrait conserver VMware et sa force d’innovation.vmworld2015_myvmworld08

Tous les interlocuteurs de cette édition on mis l’accent sur la création d’application Native Cloud, c’est à dire apporter aux entreprises les bénéfices d’une plateforme Cloud hybride unifiée avec des solutions pour gérer l’ensemble de ses environnements Cloud (privés, publics et hybrides) pour tout type d’applications (existantes ou natives Cloud) à partir de n’importe quel terminal.

Enzo Project

Lire la suite

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Oracle et VMware, toujours aussi incompatibles ?

Oracle-Parking-700x426
Par défaut

Par Sofian BENALI 

Voir le profil de Sofian sur LinkedIn

Oracle_logo.svg

Vmware.svg

Oracle et VMware, c’est une vieille histoire, mais les deux «coopétiteurs» continuent de faire couler beaucoup d’encre.

On se souvient des échanges à coup de Livres Blancs  pour savoir si, oui ou non, il était possible de virtualiser une base de données Oracle, avec quel hyperviseur et si l’opération avait un impact sur les performances.

Virtualizing Oracle with VMware

La question n’est plus là car non seulement techniquement c’est tout à fait possible mais certaines entreprises l’ont fait sans accroc depuis longtemps.

L’éternel frein du licencing

Le problème majeur reste au niveau du Licencing. La question n’est pas nouvelle, bien au contraire, et les clients y sont confrontés tous les jours. De ce côté, rien -ou presque- n’a changé.

Pour résumer la problématique, Oracle a toujours maintenu sa politique de licences qui peut, dans certains cas, coûter très cher à l’entreprise en cas de virtualisation intensive. Car si la VM qui héberge Oracle n’utilise qu’une partie des processeurs physiques disponibles dans la machine ou le cluster, Oracle facture l’ensemble de la configuration et demande à ce que la totalité des processeurs du serveur ou de la ferme de serveurs soient mis sous licences.

vmotion_myvmworld

Avec les dernières versions des consoles d’administration vCenter Server, Oracle va jusqu’à demander la mise sous licence de tous les clusters administrés par une même console et partageant un même espace de stockage. Il devient donc difficile pour les entreprises de faire usage de vMotion, qui permet le déplacement de VMs, sans enfreindre les règles.

L’entreprise a ainsi tout intérêt à se faire accompagner autour des sujets Licensing car il existe néanmoins des solutions alternatives qui permettent, d’une part, de contourner le problème, d’autre part, d’optimiser et valoriser les investissements logiciels et matériels autour des actifs Oracle.

Etudier les règles

Certes, le licencing peut s’avérer compliqué. D’autant que les licences Oracle ne sont pas liées à une clé d’activation. On peut télécharger le logiciel assez facilement et le déployer sans faire appel à Oracle. Les clients qui ne connaissent pas les règles se mettent toutefois en position de non-conformité.
La première étape post conseil préliminaire doit donc être de réaliser un audit de son parc et aller au plus près des besoins réels de l’entreprise. Bien souvent, les fonctionnalités des différentes Editions de la base Oracle sont méconnues ainsi que leurs implications au niveau du Licensing.

Faire du hard-partitionning

Sur certains serveurs, des mécanismes permettent de segmenter et de créer des partitions physiques isolées. On parle de Hard Partitioning.
Oracle est bien clair sur le fait que le soft partitionning (notamment le partitionning proposé par des éditeurs tiers) n’est pas accepté pour limiter la mise sous licences des processeurs.

Hard_Partionning

Les technologies de hard partitionning approuvées (souvent proposées par les constructeurs) sont Dynamic System Domains (DSD), grâce à Dynamic Reconfiguration (DR), Solaris 10 Containers, LPAR (et DLPAR avec AIX 5.2), les Micro-Partitions, vPar, nPar, Integrity Virtual Machine, Secure Resource Partitions, Static Hard Partitioning, Fujitsu’s PPAR…

Passer aux technologies Oracle

Bien entendu, Oracle a travaillé à rendre ses propres technologies de virtualisation compatibles avec ses bases de données.
Son hyperviseur, Oracle VM, basé sur Xen, atteint d’ailleurs un très bon niveau de maturité sur le marché et on commence à en voir de plus en plus, justement dans le cas de virtualisation en environnement Oracle.

OracleVMCette solution est donc préconisée dans la mise en place de nouvelles infrastructures où la limitation du nombre de processeurs à couvrir s’avère nécessaire.

Isoler les applications Oracle

Pour ceux qui ont déjà une infrastructure virtualisée VMware, ce qui représente en fait une grande majorité du marché, difficile de tout transformer et de remettre en cause de tels investissements. Il est clair qu’ils ont tout intérêt à conserver leur socle.
Ils leur est toutefois possible d’isoler les applications Oracle et de les virtualiser sur une infrastructure dédiée, ce qui permet de limiter et de contrôler le nombre de processeurs utilisés.
Un document VMware l’explique bien.
Understanding Oracle Certification, Support and Licensing for VMware Environments

Consolider sur les technologies Oracle

c82-exadata-x4-8-2245321Isoler ses applicatifs Oracle est un premier pas ; les consolider sur des serveurs dédiés et optimisés permet d’aller plus loin.

Les solutions de bases de données Exadata et Oracle Database Appliance prennent encore plus de sens : étudiées pour optimiser les actifs Oracle, ces solutions qui comprennent Software, Serveurs, Stockage et Réseau, en plus de simplifier l’administration des bases de données, mettent en avant des mécanismes de licensing qui réduisent considérablement la facture logicielle et maintenance.

En plus de bénéficier de core factors avantageux (ratios applicables dans le calcul du nombre de licences nécessaires pour couvrir une infrastructure), une politique de licensing progressive On Demand (pour ODA, qui permet de n’activer qu’une partie des cœurs et donc de ne payer les licences Oracle qu’en fonction des cœurs activés) et des possibilités d’upgrader vos machines sans modification matérielle (Exadata) en font des solutions idéales autour cette problématique de virtualisation et d’optimisation des coûts de licences.
Les dernières versions d’Oracle Database Appliance apportent encore plus de possibilités techniques en offrant la capacité, couplée à Oracle VM, de partitionner chaque serveur et héberger différents types de services, base de données et serveurs d’applications par exemple.

Ces nouvelles alternatives ouvrent finalement le champ des possibilités pour les entreprises et leur donne le choix pour appréhender la consolidation de leurs actifs Oracles au mieux.

Quelle que soit la configuration d’origine ou le projet, virtualiser ses actifs Oracle n’est plus un problème.

sofian benaliSofian Benali – South EMEA Partner Manager chez VMware depuis octobre 2015. Chez SCC de octobre 2011 à octobre 2015, Sofian a exercé les fonctions de BDM (business Developer Manager) Oracle sur l’ensemble de l’offre, Applications / Technology / Hardware…

Pour suivre Sofian et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Sofian BENALI Voir le profil de Sofian BENALI

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

vCenter Server Appliance vCSA 6.0

Par défaut

vCenter Server Appliance vSphere 6 – VCSA

Dans cet article, je vous propose de déployer ensemble la nouvelle version de l’appliance vCenter Server VCSA.

Depuis la sortie de vSphere 6, ce n’est plus un fichier « .ovf » à télécharger sur l’infrastructure virtuelle VMware, mais un fichier « .iso ». L’appliance est toujours basée sur une distribution Linux.

Avant de commencer le déploiement de l’appliance vCSA 6, vous devez impérativement installer et utiliser le plug-in VMware Client Integration. Le plug-in se trouve dans le média d’installation de vCSA.

vCenter6_myvmworld_03

L’architecture vCenter 6.0 a énormément changé depuis les versions précédentes. En effet, la multitude des composants du vCenter Server 5.x (cf article) a été consolidé dans vCenter Server 6.0, aujourd’hui on retrouve seulement 2 composants dans le vCenter: vCenter Management Server et Platform Services Controller. Vérifiez que le niveau de votre Active Directory soit supporté par vCenter Server 6 : KB 2071592

vCenter6_myvmworld_01

Platform Services Controller PSC fournit les services d’infrastructure suivants :

  • vCenter Single Sign-On
  • License service
  • Lookup service
  • VMware Directory services
  • VMware Certificate Authority

Voir KB 2113115 VMware pour plus d’information.

vCenter Service installation fournit les services suivants:

  • vCenter Server
  • vSphere Web Client
  • Inventory Service
  • VMware vSphere Auto Deploy™
  • VMware vSphere ESXi Dump Collector
  • vSphere Syslog Collector

Les 2 composants peuvent être embarqués sur le même serveur ou bien déployés séparément.

Limites de vCenter Server 6

vCenter6_myvmworld_02

Pour commencer le déploiement de la vCSA, il suffit de monter l’ISO, et de se rendre à la racine du répertoire et de cliquer sur index.html Lire la suite

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Hyper-Convergence – le nouveau visage du Datacenter

Datacenter_myvmworld
Par défaut

L’hyper-convergence : un buzz ? un phénomène de mode ?

L’hyper-convergence est-elle en train de modifier le paysage de nos Data centers et de nos salles informatique ? Intéressons nous à une technologie qui n’a pas fini de faire parler d’elle …BuzzMeter

Mais c’est quoi l’Hyper-convergence ?

L’Hyper-convergence est une architecture basée sur le logiciel qui s’intègre étroitement avec les ressources de calcul, de stockage, de réseau et de virtualisation. Le tout, embarqué dans une boîte, c’est le « All-In-One« . L’Hyper-convergence est donc un nouveau modèle d’infrastructure.

Mais pourquoi en sommes-nous venus à ce modèle ?

Back_to_the_Future.svgPetit retour en arrière… Souvenez-vous de « 1980 » c’était la période de la première démonstration du NAS (serveur de stockage en réseau). Puis, dans les années « 90 », est apparu le SAN (Storage Area Network). Cette technologie avait pour objectif de répondre aux problèmes d’évolution de la volumétrie des données et des performances. Cette architecture était basée sur la constitution d’un réseau performant dédié aux entrées/sorties avec des périphériques de stockage. Ce réseau était totalement indépendant du réseau classique.

Le SAN avait donc été créé pour offrir de la rapidité et du volume de stockage à notre système d’information qui, à l’époque, était construit sur des mainframes. En « 1989 », est apparu dans nos salles informatiques (salle blanche pour reprendre les termes de l’époque) des serveurs x86 (SystemPro). C’est à partir de ce moment que les serveurs x86 ont pris une place prépondérante dans notre SI. Serveurs ayant également eu besoin de volumétrie et de performance et sur lesquels ont donc été greffé le même stockage de type SAN que pour nos mainframes.

Très vite il a été constaté qu’un serveur sur six serait inutilisé dans le monde et dans certains Datacenters. L’utilisation des serveurs atteindrait péniblement 5 à 15 % de leur ressource de calcul et de mémoire. Ainsi, 85 à 95 % des ressources système étaient inexploitées et les salles des serveurs encombrées de machines sous-exploitées.

McKinsey_report

Source: McKinsey analysis: Utilization measurement tool

En conclusion, un datacenter est aujourd’hui utilisé à 56% de son potentiel selon une étude McKinsey et Uptime (Corporate Average Data Efficiency CADE).

Partant de ce postulat, la virtualisation s’est avérée une technologie incontournable et est devenue la pierre angulaire du SI.

infrastructure classique

Lorsque les projets de virtualisation sont apparus, il a fallu construire des architectures virtuelles reposant sur des serveurs x86 et du stockage, hérité de notre patrimoine SI, à savoir du SAN et/ou du NAS.

Les projets d’aujourd’hui ne cessent de prendre de l’ampleur et des objectifs à atteindre de plus en plus ambitieux, à savoir  :

  • réduire et maîtriser les coûts d’acquisition (CAPEX),
  • améliorer et optimiser la gestion de ces environnements (OPEX),
  • réduire le time-to-market,
  • être plus agile, plus souple face aux demandes du métier.

Comme évoqué dans un précédent article, le SDDC (Software-Defined Data Center) est là pour répondre à ces nouveaux enjeux et satisfaire les équipes d’infrastructure.

Afin de faciliter la mise en oeuvre du Data Center piloté par le logiciel, est apparu un nouveau modèle : l’HyperConvergence (HCIS).

L’origine de l’HyperConvergence

L’idée de reproduire ce que font certains acteurs du web tel que GAFA (Google-Amazon-Facebook-Apple) paraît et semble une nouvelle voie d’architecture pour nos data center.

GAFA-myvmworld

Tous ces acteurs ont été confrontés très rapidement, au vu de leur évolution, à des problématiques d’infrastructure et d’architecture dans un Data Center traditionnel. Dans un Data Center traditionnel, le modèle de fonctionnement est en effet basé sur une infrastructure serveur, baie de stockage partagée, réseau SAN.

Cette architecture semblait donc peu compatible avec le modèle de ces géants du web ou les besoins sont exponentiels en terme de volumétrie de stockage.

size_myvmworld

Les architectures traditionnelles nécessitent d’être « sizées », « désignées » par rapport à un besoin précis, définit dans le temps. Très souvent, elles sont taillées sur trois, voir cinq ans en prenant en compte le besoin à l’instant « t » et en se projetant sur cette période. Au moment du renouvellement de leur maintenance un choix doit être opéré vers un nouveau modèle plus novateur et donc un changement de gamme.

L’inconvénient dans cette approche c’est qu’elle ne peut pas s’appliquer à ces mastodontes du web car leur nombre d’utilisateur croit de façon exponentielle.

Inconcevable financièrement et du point de vu de son administration ! Les équipes auraient du passer un temps trop important à re-configurer le Data Center afin de supporter la montée en charge des utilisateurs.

Les acteurs du web vont alors inventer une nouvelle façon de fonctionner. Ils vont capitaliser sur leur savoir faire : le développement. Le hardware n’étant pas leur métier de prédilection, ils vont créer un équipement matériel le plus basic qui soit; CPU, MEM, stockage qui seront identiques les uns aux autres. Le but : multiplier ces configurations pour augmenter la puissance de calcul et la capacité de stockage simultanément.

Chacun de ces serveurs est ainsi conscient de l’existence de ces voisins afin qu’ils puissent se protéger conjointement.

Pour fédérer l’ensemble de ces serveurs, va être rajouter une couche de logiciel. Cette couche intelligente basée sur le logiciel va tout simplement « clusteriser » les serveurs, les rendre conscients de l’existence de leur voisin. A chaque fois qu’une donnée sera écrite quelque part, elle sera protégée sur le reste du Cluster.

HCIS_SDS_Myvmworld

Cette façon de penser « architecture du Data Center » souvent nommée « web-scale IT » répond ainsi aux problématiques de mise à l’échelle SCALE-OUT. Grâce à cette innovation technologique, nous pouvons étendre un Cluster à l’infini sans jamais être confronté à des problèmes de performance ou de capacité.

L’incrément dans ce modèle est un serveur complet (CPU + stockage).

Toutes les sociétés ne sont pas Google ou FaceBook (même si je leur souhaite le même succès), toutefois, dans l’univers de la virtualisation, nous sommes souvent confrontés à la même problématique.

La virtualisation a tellement simplifié la façon de provisionner les workloads qu’aujourd’hui nous avons multiplié le nombre de machines virtuelles (VMs). Beaucoup plus rapidement que les architectures physiques. Nous sommes donc confrontés à des problématiques de mise à l’échelle, et ce, beaucoup plus rapidement qu’il y a dix ans lorsque la virtualisation n’en était qu’à ses débuts.

D’où l’idée de certains player tels que Nutanix XCP (Xtrem Computing Platform), Simplivity (OmniStack 3.0), ou encore Pivot3 … de proposer cette même logique de web-scale IT pour le monde de la virtualisation et uniquement pour les VMs. D’autres on aussi embrayé le pas à ces player, et notamment Atlantis Computing qui, avant de proposer une solution de type scale-out, a développé une solution d’optimisation de stockage, (SCaleIO EMC, HP VSA, VMware EVO:RAIL, Nimboxx…).

HCIS

La plupart de ces solutions embarquent une VM sur chaque noeud (Hyperviseur+serveur+CPU+MEM+Stockage), cette VM fait office de contrôleur de stockage et embarque toute l’intelligence logicielle. On retrouve ainsi des fonctionnalités de type : compression, déduplication, tiering, réplication… Sauf pour EVO:RAIL où la gestion du stockage et des données est gérée par VSAN qui est inclus dans le Kernel de l’Hyperviseur.

Evolution & Tendance du marché de l’HyperConvergence

Lire la suite

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest