Atlantis USX – Storage is Software

SDS_Atlantis_Myvmworld
Par défaut

Atlantis USX – The New Order of Storage Freedom

Atlantis est une solution purement Software, elle fournit une solution de stockage par logiciel (100%), du pur SDS ! Atlantis USX Unified Software-Defined Storage est une solution intelligente de stockage définie par logiciel. Elle peut fournir instantanément des ressources de stockage pour toute application utilisant plus efficacement une infrastructure classique existante et permet de renforcer ou de faire évoluer cette infrastructures vers des solutions hyper-convergées.

En exploitant la puissance de traitement (calcul, mémoire et flash) plus rapide et moins cher, Atlantis USX élimine les inefficacités et les contraintes des solutions de stockage legacy (traditionnel) du SAN et du NAS matériel. Atlantis USX 3.1 optimise le stockage et améliore les performances pour supporter les workloads tels que les applications critiques, stockage de fichiers, VDI, SBC, et sur n’importe quel hyperviseur.

USX supporte VMware, vSphere et Citrix XenServer.

Support_Matrix_Atlantis_myvmworld

La solution Atlantis est en cela très intéressante car elle propose conjointement une couche de virtualisation, à laquelle il est possible d’ajouter de nouvelles fonctionnalités au stockage existant (VVOL), et de proposer une solution complète SDS Software-Defined Storage.

Atlantis permet de mettre en commun et de proposer une abstraction du stockage (NAS, SAN et DAS) afin de créer des volumes destinés aux applications VM, VDI… La solution offre également de nouvelles fonctionnalités comme le HA, la déduplication, la mise en cache, la compression…

Atlantis solution est aujourd’hui distribuée sous forme d’appliance virtuelle OVF. La phase d’installation et de configuration est relativement simple, elle nécessite uniquement une bonne compréhension de certains concepts de base.

Atlantis USX 3.1 GA est sortie le 16 octobre 2015.

AtlantisUSX_myvmworld

 

Atlantis Computing propose à ses clients deux approches très simples. La première permet de s’intégrer dans un environnement virtualisé et de consolider le stockage existant. La seconde permet de fournir directement sous forme d’appliance hyper convergée (HyperScale), une infrastructure complète et Full Flash. Les deux approches utilisent le même logiciel, le même moteur : Atlantis USX.

hyperscale_Myvmworld

Comment fonctionne Atlantis ?

Atlantis introduit une couche logicielle entre l’hyperviseur et les machines virtuelles afin de fournir une file d’attente optimisée permettant, grâce à une déduplication en ligne (réalisée par les appliances virtuelles) de réduire la latence des I/O, mais également de réduire la capacité de stockage nécessaire aux machines virtuelles consommant le Datastore présenté par Atlantis.

Une fois l’OVF téléchargé et déployé sur l’infrastructure virtuelle, Atlantis USX déploie de manière automatisée deux types de machine virtuelle : les Volumes VM et les Services VM. Ces deux machines virtuelles sont fondamentalement différentes car elles possèdent des rôles bien distincts.

La flexibilité et la souplesse du logiciel permet à Atlantis de pouvoir proposer plusieurs types de volume en fonction du cas d’usage.

  • Hyper-Convergé (Hybrid ou All Flash),
  • Hybrid,
  • In-Memory,
  • All Flash,
  • Simple Hybrid, Simple In-Memory, and Simple All Flash.

USX volume comparison table-Myvmworld

Volume VM

Le volume VM est une machine virtuelle (Ubuntu) entièrement autonome possédant toute l’intelligence d’Atlantis : déduplication en ligne, compression, réplication, cloning, snapshot, etc. Elle représente le cœur de la solution et permet de présenter un Datastore à l’hyperviseur.

Cette machine virtuelle, va exporter au travers du réseau, le Datastore sous deux protocoles NFS ou iSCSI.

Du point de vue des machines virtuelles, le Datastore USX est perçu comme un DataStore partagé et les lectures / écritures se font directement au travers de ce Datastore.

Atlantis_myvmworld

Architecture HCI

Service VM

Les services VM sont utilisés afin de pouvoir distribuer la couche de « back end » des volumes VM au niveau de plusieurs hyperviseurs. La donnée est donc répartie sur les différents hyperviseurs grâce au service VM, l’accès au Datastore se fera toujours au travers du Volume VM.

USX components_myvmworld

Source: https://help.atlantiscomputing.com/usx3

Pour les volumes de type Hyper-Converged (Hybrid ou All Flash), hybride, et en mémoire, Atlantis déploie aussi sur chaque hôte une VM appelée Service VM. Ces Services VM permettent d’exporter des ressources locales sous-jacente à l’hyperviseur (RAM, mémoire flash locale, DAS, JBOD, SSD) de chaque hôte et d’agréger ces ressources en un pool virtuel. Chaque service VM peut servir plusieurs volumes.

Chaque service VM peut exporter jusqu’à deux des ressources suivantes :

  • mem (RAM uniquement).
  • DISK (DAS seulement).
  • FLASH (flash local uniquement).
  • mem + disque (RAM + DAS).
  • mem + flash (Flash RAM + local).

 Deduplication In-line In-Memory

La Volume VM va procéder une déduplication en ligne sur des blocs de données fixes de 4KB (< 200 microsecondes de latence par opération IO). Avant d’écrire sur le système de fichier embarqué en mémoire (DedupFS), les données en écriture sont segmentées en block de 4KB. L’algorithme propriétaire d’Atlantis permet d’identifier si un bloc de données de 4KB est déjà présent ou non dans le système de fichier. A partir de son algorithme, Atlantis utilise un mécanisme de Hash (MD5 HASH) qui couvre un domaine de collision de 91 ExaByte par volume pour 0,0001% de probabilité. 

deduplication_myvmworld

Si celui-ci n’est pas présent, un nouvel inode est créé dans le DedupFS, la table de blocs est mise à jour, une nouvelle entrée est créé et  identifiée de façon unique, ce block (en mémoire) est copié sur le tiers de performance (SSD, PCIe Flash, RAM). Les inodes, ainsi que la table des blocs, sont copiés sur le tiers de performance, puis l’acquittement est envoyé au niveau de l’application. Si en revanche le bloc de 4KB est déjà présent dans le système de fichier, ce bloc de 4KB n’est pas copié sur le tiers de performance, il est acquitté immédiatement, après que les metadata (inode + reference count) soient mises à jour et copiées sur le tiers de performance, le tiers de performance jouera le rôle de Write Caching et de Read Buffer.

La déduplication est construite à partir d’un journal en trois dimensions :

  • 1 pour les métadonnées dedup,
  • 1 pour les blocs Rewired,
  • 1 pour le système de fichiers (DedupFS).

La déduplication est implémentée par volume, elle n’est pas globale.

x-lzma-compressed-tarLes données sont compressées à partir d’un algorithme de compression sans perte LZMA, et ensuite écrites sur le tiers de performance, la compression favorise la croissance du facteur de déduplication.

L’algorithme utilisé est propriétaire et protégé par les brevets US 8996800 B2 / US 8874877 B2 / US 8732401 B2 / US 8874851 B2 /US 8868884 B2.

 

Atlantis USX dispose d’une façon unique d’exploiter la mémoire disponible à l’intérieur des Hyperviseurs pour fournir un stockage performant et optimisé. En tirant parti des ressources de la RAM (un des composants les plus performants du serveur), Atlantis USX peut effectuer en temps réel, la déduplication Inline, la compression et l’écriture. Chacune de ces fonctions réduit la quantité de données consommée, d’accélérer les IOPS et surtout de diminuer la latence.

 

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

VMTurbo Assurer les performances applicatives au sein du Datacenter

VMTurbo_Head_myvmworld
Par défaut

Par Fabien Azra 

Voir le profil de FAbien sur LinkedIn

Garantir la performance des applications en environnement virtuel avec VMTurbo

L’adage dit « Un bon informaticien est un informaticien fainéant » car ce dernier s’attachera toujours à automatiser autant que possible l’ensemble de ses tâches quotidiennes pour ne plus rien avoir à faire.

Les environnements virtuels, même si ils ont significativement simplifié la gestion quotidienne des infrastructures, restent de véritables challenges pour ces informaticiens. Comment alors s’assurer que les ressources mises à disposition des machines virtuelles seront toujours suffisantes pour garantir la bonne performance des applications qu’elles contiennent tout en minimisant l’interaction humaine ?

Un état instable permanent

Si à un instant T, l’environnement virtuel peut paraitre dans un état stable, la moindre demande de ressources de la part d’une application peut entrainer un déséquilibre. La machine virtuelle qui l’héberge, a t-elle besoin de davantage de mémoire, de puissance de calcul, de bande passante ou de performance du stockage ? Le serveur physique ou la baie de stockage hébergeant cette VM disposent-ils de ces ressources ?

Bien sûr, l’humain peut trancher et prendre la décision de faire les modifications qui s’imposent. Mais cette décision est-elle si simple à prendre ? Doit-on déplacer cette VM sur un autre host disposant de la capacité de RAM ou de CPU souhaité ? Doit-on déplacer son vdisk sur un autre datastore ? Doit-on juste augmenter le nombre de vCPU ou la vMem alloués à cette VM ? N’est-ce pas juste un encombrement d’un port réseau du host ? Et quel sera l’impact de ce déplacement sur le host de destination ? Ne faut-il mieux pas déplacer les autres VMs environnantes plutôt que celle-ci ?

Décision plus ardue qu’il n’y parait finalement ! Multiplions ce questionnement pour des dizaines, voir des centaines de VMs et donc d’applications, sur des serveurs physiques, des switches réseau et des baies de stockage multiples et variés et nous voilà devant un véritable casse-tête pour notre informaticien fainéant.

vmturbo_logo

L’infrastructure virtuelle : un modèle économique

VMTurbo permet de résoudre ce casse-tête permanent en partant d’un constat simple : l’infrastructure virtuelle est une place de marché répondant au principe de l’offre et de la demande.

Les applications, les machines virtuelles, les hyperviseurs, les switches réseaux et autres baies de stockages sont des acheteurs et vendeurs s’échangeant des biens : les ressources (CPU, Mémoire, IOPS, bande-passante, etc…). Le prix de chaque ressource fluctue en permanence en fonction du temps, de la rareté et de la demande plus ou moins forte.

Moins une ressource est utilisée, moins elle est chère. Plus elle est utilisée, plus le prix grimpe. Ainsi, une baie de stockage subissant un pic d’accès vendra chèrement ses IOPS à un hyperviseur et ce dernier les facturera tout aussi cher à la VM, la poussant à aller chercher ailleurs un tarif plus intéressant.

Par ce moyen, VMTurbo va tendre vers un « Etat idéal » : celui où l’ensemble des VMs dispose des ressources dont il a besoin au bon moment.

VMTurbo_myvmworld

Surveiller vs. Contrôler

Dans une infrastructure virtuelle, en dessous de 70% d’utilisation, on gaspille les ressources (on peut donc densifier le nombre de VMs), mais dès que l’on passe au dessus, on augmente le risque.

Pour surveiller ce risque, on a le réflexe naturel de mettre en place un des nombreux outils de monitoring disponibles sur le marché. Malheureusement, ces solutions, tout comme les schedulers natifs aux hyperviseurs, ne font que réagir au dépassement d’un seuil. Cela signifie qu’on attend que le risque se produise et qu’on accepte que l’environnement soit dégradé, impactant ainsi le business de l’entreprise. Elles obligent l’administrateur à agir en mode « pompier », à prendre des actions manuelles pour résoudre les problèmes et sont consommatrices de temps face à la priorité de projets plus critiques.

VMTurbo comprend les demandes des applications et les fait correspondre avec l’offre de l’infrastructure, prenant les décisions à la place de l’humain en temps réel. Ces actions automatisées, centrées sur le besoin plutôt que sur l’infrastructure maintiennent l’environnement virtuel dans un état de santé optimal, de façon 100% logicielle.

Proposé sous la forme d’une simple VM à déployer en quelques minutes, sans agent (fonctionne via appels API), VMTurbo cartographie instantanément l’ensemble de l’infrastructure. Les premières recommandations peuvent être actionnées dans les 30 minutes (comme la relocalisation des VMs). Il sera plus sage d’attendre une trentaine de jours pour les opérations de resize up ou down (nécessitant souvent un redémarrage) afin d’avoir une visibilité plus précise de l’activité d’une application particulière (comme un serveur de paie, par exemple).

VMTurbo? collecte et conserve les metrics les plus pertinents, permettant d’affiner ses décisions en se basant sur l’historique. Mais il peut également faire des projections via sa fonction « Plan » et anticiper l’ajout ou le retrait d’un host, ou encore de lots de VMs et leur impact sur l’environnement virtuel actuel. Il peut également réserver les ressources pour un futur déploiement et l’automatiser en se basant sur des templates de VMs. Par ailleurs, ses dashboards personnalisables et les nombreux rapports permettent à l’administrateur de suivre l’ensemble des actions prises, tout comme leurs résultats.

VMTurbo_opsman-laptop_myvmworld

Il supporte un très grand nombre d’environnements virtuels : VMware, Hyper-V, Acropolis HV (KVM), XenServer, RHEV-M, IBM PowerVM.

Et il collecte également, pour corréler l’ensemble des informations :

  • Cloud et Orchestration : vCloudDirector, CloudStack, OpenStack, VMM, AWS, Azure, SoftLayer, CloudFoundry
  • Load Balancer : NetScaler
  • Stockage : NetApp, EMC, PureStorage, Nutanix, HP, Dell
  • Fabric : Cisco UCS
  • Network : Arista
  • Applications : Exchange, Oracle, SQL, MySQL, WebSphere, WebLogic, JBoss, Tomcat

VMTurbo_Supply_myvmworld

Un jeu de Tetris

En relocalisant et en réajustant l’ensemble des applications, VMTurbo joue à Tetris dans le Datacenter et permet de récupérer de l’espace, de densifier les VMs sur l’infrastructure existante et de repousser les investissements matériels.

VMTurbo_Tetris_myvmworld

Pour ne citer qu’un des nombreux exemples de ROI constaté en moins de 90 jours sur plus de 90% de leurs clients, prenons celui de la banque Barclays. Leur environnement virtuel, qui fait tourner plus de 60.000 VMs, les obligeait à 15% de croissance d’investissement par mois. VMTurbo, une fois mis en place, va faire près de 3.000 recommandations par jour, permettant à Barclays en les suivant de ne pas faire de nouvel investissement sur les 12 mois suivants, représentant 7,5M$ d’économie.

VMTurbo_realTime

Téléchargez la version d’évaluation 30 jours :  operations-manager-30-day-trial

Pour conclure, revenons à notre informaticien fainéant ! Sa crainte était de voir le logiciel mieux travailler que lui et que l’on puisse même se passer de ses services. Mais l’automatisation et le contrôle de VMTurbo sur l’infrastructure virtuelle permettront à notre informaticien de se rendre indispensable sur d’autres projets plus gratifiants. Pour le démontrer, voici une petite analogie : aujourd’hui, un avion est totalement gouverné par le logiciel. Ce dernier peut le faire décoller, le faire voler et le faire atterrir sans nécessiter aucune interaction humaine.

Pour autant, accepteriez-vous de monter dans cet avion sans pilote ?

Fabien AzraFabien est en charge de l’équipe avant-vente de BigTec, distributeur à valeur ajouté accompagnant la transformation des datacenters. Il travaille en étroite collaboration avec les constructeurs et les revendeurs pour assurer la réussite des implémentations des solutions. Avec plus de 15 ans d’expérience technique, c’est un spécialiste des solutions de stockage et de virtualisation.

Pour suivre Fabien et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Fabien Voir le profil de Fabien Azra

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Hébergement mutualisé ou hébergement serveur dédié

hebergement_dedie
Par défaut

Hébergement mutualisé ou hébergement serveur dédié ?

On peut choisir d’héberger son site sur un serveur dédié ou mutualisé. L’hébergement serveur dédié sera réservé uniquement à votre site tandis que l’hébergement mutualisé sera partagé entre plusieurs clients et donc de facto entre plusieurs sites. Chaque type d’hébergement a ses propres caractéristiques, comment choisir le meilleur hébergement pour son site ?

Faire le bilan de ses besoins en hébergement

Pour savoir quelle offre et quel type d’hébergement vous avez le plus besoin ou celui qui est le plus adapté à votre site vous devez connaître :

  • La place qu’occupe votre site : quels sont ses besoins en mémoire et en bande passante ? Quel est le volume de trafic ? Y a-t-il des pics de trafic ? Une saisonnalité ?
  • La puissance qu’il lui faut : est-ce un grand site avec énormément de pages ou au contraire un petit site qui ne nécessite pas beaucoup de puissance ?
  • Les besoins en sécurité : est-ce un site qui contient beaucoup de données sensibles, un intranet avec une base de données d’identifiants et de mots de passe ou un site gouvernemental ?

Si vous répondez à toutes ces questions par l’affirmatif et que vous pensez que votre serveur sera sollicité de manière fréquente, alors un hébergement serveur dédié est ce qu’il vous faut !

Hébergement mutualisé ou hébergement serveur dédié

Faire son choix d’hébergement : serveur dédié ou mutualisé

Par ailleurs, si votre site contient beaucoup de photos, vidéos et a besoin d’un espace disque dur important, il vaut mieux opter pour un hébergement serveur dédié. L’offre est plus avantageuse. Elle coûte évidemment plus chère que l’hébergement mutualisé. En contrepartie, vous disposez d’un serveur clé en main livré rapidement et que vous pouvez même piloter à distance. D’autant plus que les serveurs dédiés peuvent être classés selon des gammes (web, applicatifs, VOIP, streaming, web radio). Des options et des disques peuvent y être ajoutées. Ceci étant dit, rien ne vous empêche pour un début de choisir un hébergement mutualisé. Si votre site prend de l’ampleur, d’une manière ou d’une autre, il sera toujours possible de transférer le site sur un serveur dédié.

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Veeam ONE Audit, Reporting et Capacity Planning de l’infrastructure virtuelle

550x135
Par défaut

Audit, Reporting et Capacity Planning de l’infrastructure virtuelle

Avec Veeam One, Visualisez en un coup d’œil l’état de santé de vos infrastructures virtuelles et de sauvegarde :

  • Evitez les approximations pour le dimensionnement de votre stockage de sauvegarde
  • Evitez les documentations manuelles et imprécises
  • Optimisez l’utilisation de vos ressources mémoires, de calcul et de stockage en identifiant les gaspillages
  • Anticipez et planifiez l’évolution de vos besoins en capacité.

Pour assister au webinar: Rejoignez-nous sans plus attendre pour cette séquence exclusive !

webinar Veeam One audit

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Transformation digitale : et si on parlait concret ?

Mobility concept
Par défaut

Par Laurie Rouy 

Voir le profil de Laurie sur LinkedIn

« Transformation : passer d’une forme à une autre, action de changer. » Dans le dictionnaire des synonymes, on retrouve accolé au terme transformation le mot « adaptation ».

Alors transformation, oui, mais laquelle ?

On parle aujourd’hui de transformation digitale à tous les étages d’une entreprise, dans tous les métiers, tous les secteurs, industries…Il ne s’agit donc pas d’un ‘type’ d’actions en particulier mais bien d’un réel changement de modèle économique, de façon de vendre, d’acheter, de partager, de collaborer, de recruter. Mais c’est encore et surtout la PROXIMITE entre le client et nous.

La transformation digitale est en premier lieu, pour nous marketeurs, la transformation du client (son attitude, ses attentes, ses recherches, sa manière d’être et de réagir), et de son rapport avec la marque.

Depuis un bon moment, le marketing a été mis sous les projecteurs pour transformer chaque action dite «traditionnelle » en digital. D’ailleurs, 76% des marketeurs pensent que le marketing a plus évolué ces 2 dernières années que ces 50 dernières.

Or, petit à petit, l’expression bien connue de tous qu’est le ROI s’est mise à rythmer chaque phrase de réunion marketing à la manière d’une virgule qui cadencerait un email.

Return on investment mais surtout RONI: risk of non investment.

Ce que beaucoup semble oublier, c’est qu’aujourd’hui, la question à se poser n’est plus si nous devons y aller mais plutôt comment y parvenir. Mais avant de réfléchir aux moyens à mettre en œuvre pour réussir sa transformation il est indispensable de prendre conscience qu’il va falloir tout penser différemment et que, non, opérer une transformation digitale n’induit pas simplement de rajouter quelques logos plus ‘graphiques ‘ et transformer un email en infographie pour être «  à la page ». Rien de pire que d’entendre « mettre un coup de marketing digital là-dessus » pour faire ‘l’affaire’.

Les 5 points clés du marketing digital…

Le marketing digital (et donc indirectement la transformation digitale), si l’on devait le résumer en 5 points essentiels serait :

  • – ‘Profiler’ ses clients et cibler ses communications (la création de ce que nous appelons « personas » et donc segment précis de personne).
  • – Faire du nurtering et utiliser le marketing automation pour travailler un prospect sur du long terme jusqu’à maturation.
  • La sérendipité : qui finalement est l’essence même du  marketing, mais qui devient plus que possible grâce au digital : donner à un client / prospect la réponse à une question qu’il ne s’était PAS encore posé…
  • L’instantanéité : le live, la vidéo, le relai dans les réseaux, et a fortiori…l’image. (il y a aujourd’hui plus de requêtes faites sur Youtube que sur Google…).
  • – Et enfin, réaliser que l’humain ne peut plus être sans digital mais que l’inverse est tout aussi vrai….

Dans tous les cas, prenez conscience que la route est longue, fastidieuse et coûteuse. Car oui, il va falloir investir, prendre des risques et transformer notre manière de faire au quotidien.

Rapporté à l’entreprise, rien de plus concret que  l’exemple du récent discours du VP marketing au Adobe Symposium : il explique que, beaucoup de grandes entreprises ont compris l’importance d’investir dans le digital et souligne, qu’AXA investirait notamment 950 millions d’euros dans la transformation de leur entreprise. Non pas pour être en avance, mais pour être « dans les temps ».

Linkedin Logo on Galaxy Nexus Smartphone by Samsung and Google

Linkedin Logo on Galaxy Nexus Smartphone by Samsung and Google

Mais l’investissement n’est pas que financier, il est dans les hommes…

Le commercial n’a pas seulement besoin du marketing pour mettre en place des actions ou des campagnes web. On parle de bannières, de vidéo 3D, de présence sur la « toile »…mais comment rapporter tout cela au business sans se concentrer uniquement sur des téléchargements de livres blancs ?

Des solutions existent !

Aujourd’hui tout commercial doit travailler différemment. Le futur client est de plus en plus autonome dans ses réflexions. Qui n’est jamais allé à la fnac questionner un vendeur uniquement après avoir écumé blogs et forums, observé la marque sur Facebook, les avis produits sur Twitter… ?

Prospecter sur les réseaux sociaux, gérer ses leads, entretenir sa relation avec ses clients…l’ère du social selling est maintenant arrivée. LinkedIn Sales Navigator pourrait être un des outils pour générer du business et SIGNER des contrats ! LinkedIn, c’est 400 millions de membres connectés et un taux d’ouverture de message à 35% quand les nôtres avoisinent les 8…

Retenez une chose : une bonne stratégie digitale est une vraie adhésion aux nouvelles pratiques et manières de penser, du top management au terrain. Cette stratégie sera alors les briques qui consolideront vos cycles de vente.

Celui qui n’évolue pas prendra le risque de disparaître.

Laurie Rouy est en charge du marketing et de la communication digitale chez SCC France depuis bientôt 2 ans.
Son attrait pour le digital et son implication au quotidien lui permettent de partager, de par son expérience, avis et bonnes pratiques sur le sujet.

Pour suivre Laurie et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Laurie Rouy Voir le profil de Laurie Rouy

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Le Cloud Computing

cloud-computing
Par défaut

Le Cloud computing

L’informatique en nuage ou le Cloud computing concernent l’exploitation de serveurs informatiques physiquement distants et accessibles sur Internet. C’est une délocalisation de l’infrastructure informatique qui offre aux entreprises une grande souplesse en termes de gestion et d’administration des serveurs informatiques. Un basculement des tendances qui favorise le travail collaboratif puisque les collaborateurs peuvent accéder aux réseaux et aux logiciels depuis n’importe quel endroit.

Le Cloud computing et les centres de données

Les entreprises qui utilisent le Cloud computing réalisent des économies de coût considérables. La facturation proposée par les fournisseurs de service prend en compte plusieurs critères : la volumétrie d’utilisation des fonctions, le coût de mise à disposition, le coût de production, etc. Avec le développement du Cloud computing, les centres de données, où sont regroupés les équipements du système d’information des entreprises voient le jour. Ils servent à stocker les informations nécessaires aux activités des entreprises. Les bases de données, étant sensibles, les centres de données ont généralement un haut niveau de sécurité. L’environnement physique est par ailleurs continuellement sous surveillance.

Cloud computing terms together

Les avantages du Cloud computing

En optant pour le Cloud computing, les entreprises font le choix d’externaliser leur serveur profiter d’un ensemble de puissance de calcul et de mémoire. Les entreprises n’auraient plus besoin de serveurs propres. Certaines grosses entreprises du monde informatique et dans le web profitent de ressources informatiques liées au Cloud Computing sans pour autant supporter les coûts d’investissement dans les infrastructures et les solutions informatiques. Par ailleurs les mises à jour logicielles et matérielles sont entièrement gérées par les prestataires, ce qui libère le département informatique des entreprises d’une charge de travail considérable. La localisation des données et leur protection grâce à des infrastructures sécurisées demeurent importantes pour les entreprises. En effet, l’infrastructure informatique réside dans le centre de traitement du prestataire. En cas de sinistre, toutes les données sont sécurisées et vous pouvez y avoir accès de manière opérationnelle depuis n’importe quel endroit en étant équipé d’ordinateurs connectés à Internet. Les solutions Cloud computing sont des technologies innovantes qui deviendront le standard de demain à cause de la multiplicité des données et de leur provenance.

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

VMworld 2015 Barcelona- Ready For Any

ready-for-any_myvmworld
Par défaut

Feedback autour du VMworld Europe 2015 : Ready for ANY !

Le VMworld 2015 s’est tenu tout récemment, du 12 au 15 octobre dernier et traditionnellement à Barcelone pour l’édition européenne. Dans une atmosphère toujours aussi décontractée et avec une logistique à la pointe, cet événement a proposé plus de 250 sessions, plus de 30 000 VMs ont été crées au Hands-On-Lab, et a réuni plus de 135 sponsors et 10 000 visiteurs dont une délégation française qui représentait à elle seule près de 500 professionnels.

myvmworld2015 - 1Révélation phare de cette édition : le rachat d’EMC par Dell pour un montant de 67 Milliards de dollars. L’éditeur californien a aussi fait état des nouveautés sur les offres vCloud NFV (virtualisation des fonctions réseaux), vCloud Air (Cloud public) et vRealize (software-defined data center); et a axé ses conférences sur la virtualisation de l’environnement utilisateur (VDI) et sur celle du réseau, avec notamment des éléments à souligner concernant les évolutions de l’offre NSX.

Introduction de l’évènement

Edition européenne oblige, la General Session a été introduite par Jean ­Pierre Brulard, vice-président senior et nommé en août dernier directeur général pour la zone EMEA avec pour ligne directrice : “Ready For Any”.

VMworld2015_myvmworld04Carl Eschenbach, président et COO de VMware, a ensuite pris la parole en faisant le focus sur la stratégie One Cloud, Any Application, Any Device. Par le biais d’une courte vidéo faisant témoigner Michael Dell, il est venu confirmer le rachat d’EMC. Via ce canal de communication, Michael Dell a ainsi témoigné de son enthousiasme concernant cette acquisition et du potentiel à devenir. Il a aussi souhaité rassurer les partenaires et clients sur l’autonomie que devrait conserver VMware et sa force d’innovation.vmworld2015_myvmworld08

Tous les interlocuteurs de cette édition on mis l’accent sur la création d’application Native Cloud, c’est à dire apporter aux entreprises les bénéfices d’une plateforme Cloud hybride unifiée avec des solutions pour gérer l’ensemble de ses environnements Cloud (privés, publics et hybrides) pour tout type d’applications (existantes ou natives Cloud) à partir de n’importe quel terminal.

Enzo Project

Lire la suite

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Oracle et VMware, toujours aussi incompatibles ?

Oracle-Parking-700x426
Par défaut

Par Sofian BENALI 

Voir le profil de Sofian sur LinkedIn

Oracle_logo.svg

Vmware.svg

Oracle et VMware, c’est une vieille histoire, mais les deux «coopétiteurs» continuent de faire couler beaucoup d’encre.

On se souvient des échanges à coup de Livres Blancs  pour savoir si, oui ou non, il était possible de virtualiser une base de données Oracle, avec quel hyperviseur et si l’opération avait un impact sur les performances.

Virtualizing Oracle with VMware

La question n’est plus là car non seulement techniquement c’est tout à fait possible mais certaines entreprises l’ont fait sans accroc depuis longtemps.

L’éternel frein du licencing

Le problème majeur reste au niveau du Licencing. La question n’est pas nouvelle, bien au contraire, et les clients y sont confrontés tous les jours. De ce côté, rien -ou presque- n’a changé.

Pour résumer la problématique, Oracle a toujours maintenu sa politique de licences qui peut, dans certains cas, coûter très cher à l’entreprise en cas de virtualisation intensive. Car si la VM qui héberge Oracle n’utilise qu’une partie des processeurs physiques disponibles dans la machine ou le cluster, Oracle facture l’ensemble de la configuration et demande à ce que la totalité des processeurs du serveur ou de la ferme de serveurs soient mis sous licences.

vmotion_myvmworld

Avec les dernières versions des consoles d’administration vCenter Server, Oracle va jusqu’à demander la mise sous licence de tous les clusters administrés par une même console et partageant un même espace de stockage. Il devient donc difficile pour les entreprises de faire usage de vMotion, qui permet le déplacement de VMs, sans enfreindre les règles.

L’entreprise a ainsi tout intérêt à se faire accompagner autour des sujets Licensing car il existe néanmoins des solutions alternatives qui permettent, d’une part, de contourner le problème, d’autre part, d’optimiser et valoriser les investissements logiciels et matériels autour des actifs Oracle.

Etudier les règles

Certes, le licencing peut s’avérer compliqué. D’autant que les licences Oracle ne sont pas liées à une clé d’activation. On peut télécharger le logiciel assez facilement et le déployer sans faire appel à Oracle. Les clients qui ne connaissent pas les règles se mettent toutefois en position de non-conformité.
La première étape post conseil préliminaire doit donc être de réaliser un audit de son parc et aller au plus près des besoins réels de l’entreprise. Bien souvent, les fonctionnalités des différentes Editions de la base Oracle sont méconnues ainsi que leurs implications au niveau du Licensing.

Faire du hard-partitionning

Sur certains serveurs, des mécanismes permettent de segmenter et de créer des partitions physiques isolées. On parle de Hard Partitioning.
Oracle est bien clair sur le fait que le soft partitionning (notamment le partitionning proposé par des éditeurs tiers) n’est pas accepté pour limiter la mise sous licences des processeurs.

Hard_Partionning

Les technologies de hard partitionning approuvées (souvent proposées par les constructeurs) sont Dynamic System Domains (DSD), grâce à Dynamic Reconfiguration (DR), Solaris 10 Containers, LPAR (et DLPAR avec AIX 5.2), les Micro-Partitions, vPar, nPar, Integrity Virtual Machine, Secure Resource Partitions, Static Hard Partitioning, Fujitsu’s PPAR…

Passer aux technologies Oracle

Bien entendu, Oracle a travaillé à rendre ses propres technologies de virtualisation compatibles avec ses bases de données.
Son hyperviseur, Oracle VM, basé sur Xen, atteint d’ailleurs un très bon niveau de maturité sur le marché et on commence à en voir de plus en plus, justement dans le cas de virtualisation en environnement Oracle.

OracleVMCette solution est donc préconisée dans la mise en place de nouvelles infrastructures où la limitation du nombre de processeurs à couvrir s’avère nécessaire.

Isoler les applications Oracle

Pour ceux qui ont déjà une infrastructure virtualisée VMware, ce qui représente en fait une grande majorité du marché, difficile de tout transformer et de remettre en cause de tels investissements. Il est clair qu’ils ont tout intérêt à conserver leur socle.
Ils leur est toutefois possible d’isoler les applications Oracle et de les virtualiser sur une infrastructure dédiée, ce qui permet de limiter et de contrôler le nombre de processeurs utilisés.
Un document VMware l’explique bien.
Understanding Oracle Certification, Support and Licensing for VMware Environments

Consolider sur les technologies Oracle

c82-exadata-x4-8-2245321Isoler ses applicatifs Oracle est un premier pas ; les consolider sur des serveurs dédiés et optimisés permet d’aller plus loin.

Les solutions de bases de données Exadata et Oracle Database Appliance prennent encore plus de sens : étudiées pour optimiser les actifs Oracle, ces solutions qui comprennent Software, Serveurs, Stockage et Réseau, en plus de simplifier l’administration des bases de données, mettent en avant des mécanismes de licensing qui réduisent considérablement la facture logicielle et maintenance.

En plus de bénéficier de core factors avantageux (ratios applicables dans le calcul du nombre de licences nécessaires pour couvrir une infrastructure), une politique de licensing progressive On Demand (pour ODA, qui permet de n’activer qu’une partie des cœurs et donc de ne payer les licences Oracle qu’en fonction des cœurs activés) et des possibilités d’upgrader vos machines sans modification matérielle (Exadata) en font des solutions idéales autour cette problématique de virtualisation et d’optimisation des coûts de licences.
Les dernières versions d’Oracle Database Appliance apportent encore plus de possibilités techniques en offrant la capacité, couplée à Oracle VM, de partitionner chaque serveur et héberger différents types de services, base de données et serveurs d’applications par exemple.

Ces nouvelles alternatives ouvrent finalement le champ des possibilités pour les entreprises et leur donne le choix pour appréhender la consolidation de leurs actifs Oracles au mieux.

Quelle que soit la configuration d’origine ou le projet, virtualiser ses actifs Oracle n’est plus un problème.

sofian benaliSofian Benali – South EMEA Partner Manager chez VMware depuis octobre 2015. Chez SCC de octobre 2011 à octobre 2015, Sofian a exercé les fonctions de BDM (business Developer Manager) Oracle sur l’ensemble de l’offre, Applications / Technology / Hardware…

Pour suivre Sofian et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Sofian BENALI Voir le profil de Sofian BENALI

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

vCenter Server Appliance vCSA 6.0

Par défaut

vCenter Server Appliance vSphere 6 – VCSA

Dans cet article, je vous propose de déployer ensemble la nouvelle version de l’appliance vCenter Server VCSA.

Depuis la sortie de vSphere 6, ce n’est plus un fichier « .ovf » à télécharger sur l’infrastructure virtuelle VMware, mais un fichier « .iso ». L’appliance est toujours basée sur une distribution Linux.

Avant de commencer le déploiement de l’appliance vCSA 6, vous devez impérativement installer et utiliser le plug-in VMware Client Integration. Le plug-in se trouve dans le média d’installation de vCSA.

vCenter6_myvmworld_03

L’architecture vCenter 6.0 a énormément changé depuis les versions précédentes. En effet, la multitude des composants du vCenter Server 5.x (cf article) a été consolidé dans vCenter Server 6.0, aujourd’hui on retrouve seulement 2 composants dans le vCenter: vCenter Management Server et Platform Services Controller. Vérifiez que le niveau de votre Active Directory soit supporté par vCenter Server 6 : KB 2071592

vCenter6_myvmworld_01

Platform Services Controller PSC fournit les services d’infrastructure suivants :

  • vCenter Single Sign-On
  • License service
  • Lookup service
  • VMware Directory services
  • VMware Certificate Authority

Voir KB 2113115 VMware pour plus d’information.

vCenter Service installation fournit les services suivants:

  • vCenter Server
  • vSphere Web Client
  • Inventory Service
  • VMware vSphere Auto Deploy™
  • VMware vSphere ESXi Dump Collector
  • vSphere Syslog Collector

Les 2 composants peuvent être embarqués sur le même serveur ou bien déployés séparément.

Limites de vCenter Server 6

vCenter6_myvmworld_02

Pour commencer le déploiement de la vCSA, il suffit de monter l’ISO, et de se rendre à la racine du répertoire et de cliquer sur index.html Lire la suite

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest