Hyperconverged technologies and companies facing the DevOps paradigm

Par défaut

By Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

Hyperconverged technologies (Nutanix, Simplivity, VCE) and companies facing the DevOps paradigm

To survive today, a company faces a challenge: the balance between development time and market demand. It is not possible to wait 6 months to come up with an application. The release of a new OS (Android, IOS, Windows, …) requires immediate reactivity or the company might face a potentially heavy financial penalty or just miss a new market. However, we must not confuse speed with haste when marketing cannot wait, especially in an economic context crippling budgets. Just look at the sad example of the mobile application deployed urgently, at the request of the French authorities to inform on terrorist actions. This application (SAIP), developed in 2 months by a team of 15 engineers functioned for a few hours only after the attack in Nice.

The new convergence and hyper-convergence solutions provide companies with the  rationality of an infrastructure to face the challenges of DevOps. The major publishers have different approaches but should eventually be able to integrate a broader range of technologies into a single offer.

The non-named problems encountered in business:

Two technical entities participate in the development of all the companies relying on IT.

On one hand, the development team (DEV) which produces IT solutions both for internal or external use, and, on the other hand, the operation team (OPS) which provides DEV with the necessary tools and maintains them. We see that their goals are often contradictory within the same company, in fact their alignment is a strategic and economic challenge for IT departments.

For convenience we will speak of DEV for Development and OPS teams for Operational teams.

Where is the brake between market demands and technical services? Why is DEV not reactive enough? First answers: because they are hamstrung by overly rigid infrastructure, inadequate service catalog and physical or virtual infrastructure without  « programmability » capacity. Why are OPS not reactive enough? It is likely that they are not sufficiently involved with the DEV teams to meet their expectations.

Obviously the physical and virtual infrastructure has to change to become more programmable. At the same time the DEV must be able to program infrastructure and OPS must be able to understand and control the interactions of DEV with the infrastructure. In short, the difficulties between DEV and OPS are as follows:

We will call « DevOps » the necessary confrontation between these two teams. DevOps is the concatenation of English words Development and Operation

The vast majority of analysis highlight that the years 2016-2017 would be the beginning of a massive adoption of PaaS (Platform as a Service), the DevOps and Docker container.

  • According to IDC : 72% companies will use PaaS
  • Dzone : 45% people are evaluating or already using Docker
  • RighScale : 71% companies announce multi-cloud based IT strategy.



A « Platform as a Service » (PAAS) is a « cloud computing » service providing a platform and a necessary environment for developers with the benefits of the « Cloud« .

This type of services includes :

  • rapidly scalable environment without big investment and maintenance costs;
  • user-friendly web interface which can be used without complex infrastructure knowledge;
  • flexibility to use in different circumstances;
  • highly collaborative environment;
  • access and data security is handled by the services provider.

Container Docker :


Today, the question of the deployment of existing applications is still valid. But soon we will have to ask the question of the deployment of future applications (container / Dockers). The Docker technology will allow the execution of services on any server regardless of the cloud infrastructure.

Unlike a VM (a several GB Virtual Machine), the container (a few MB) does not carry OS. The container / Docker is lighter and faster to start, move, duplicate (as with any other routine maintenance actions).

Consider a company that has sharply increased resources for urgent strategic development (banking, development companies, …). With a traditional solution to VM, you must have provisioned a large number of VMs on hold and start to make them available. It is therefore necessary to have at the same time the required infrastructure to support the start of these environments: CPU, RAM, storage, I / O and disk I / O network …

By eliminating the OS, containers consume 4 to 30 times less RAM and disk. In this case a few seconds are needs to start applications. Containers / Dockers are to applications what virtualization was to servers in the 90s.

Today container usage makes development easier by automating integration. Continuous integration automates source code updates from DEV, QA, pre-prod and production.

We highlight the problem of the start of production of these containers which cannot be done by IT staff as network control, security, storage, backup, supervision … are not properly integrated into the programming and configuration Container. Therefore, the containers will be the software response to DevOps as used by DEV consuming infrastructure, while being under the control of OPS.

For good integration, publishers already offer orchestration solutions to manage load balancing, management of resilience, encryption, etc.

According to Datalog, Dockers adoption was multiplied by 5 in 2015:

source Datadog

The Container Dockers quickly bring all their advantages as DevOps solution!

The problem named is the DevOps:

                  devops_03_myvmworldAccording to Gartner, the DevOps exceed the stage of the niche in 2016 with 25% of very large global companies who have adopted a market of $ 2.3 billion. According to IDC, in France 53% of companies have committed widespread DevOps approach to all their developments.

Faced with the difficulties for companies to transform their traditional infrastructures into an agile enough solution, cloud providers can offer DevOps of implementation with their scale-out approaches and proposals of economies of scale.

The implementation of DevOps requires looking at several issues: structural, organizational, resource, etc. For the CIO, who is responsible for the technical answer, it is a nightmare to implement an agile infrastructure with the current traditional equipment. He has to manage both complex environments, multiple servers (storage, computing, networking, security) as developments Services (Multiple databases, WEB portals, software developments like Python, C ++, the libs and other APIs, supervising applications and performance analysis …). Containers technology and overlays networks provide relevant responses to network problems, in the case of the administrator of these services anticipate their arrival. Everything have to be realized in record time in difficult conditions as  external market pressure, the internal pressure of marketing and with limited budgets. Once it is all in place, it must finally take maximum advantage for all applications to interact with each other properly while being able to manage rapid migration needs. And for sure, all of this without impacting the entire infrastructure.

  1. Number of physical or virtual servers
  2. Many developing services
  3. Ensuring stability and interactions face of increasing complexity based on the number of servers and services
  4. Implementation time is being increasingly short
  5. Strained budgets
  6. Ensure the ability of migration from one environment to another, making sure to keep the three previous points
  7. Growing market pressure (marketing in the company)
  8. Ensure the evolution of acquisitions over several years

Excluding traditional solutions, two major trends on the market meet these needs:

  1. Build / assemble for a Specific « Workload« : the main players being DataBase Oracle Exadata Machine (Hyper-Appliances).
  2. Integrate all storage, computing power (computing), the network … in a solution that can start multiple workloads (convergence solutions and Hyper-convergences as Nutanix (http://www.nutanix.com) , Simplivity (https://www.simplivity.com) VCE (http://www.vce.com), …) Today these technologies can run existing workloads but should also anticipate the next one.

    Infrastructure (Hyper-)converged and integrated systems have the greatest potential to integrate into a solution of DevOps. They offer all the benefits of being expandable, standard able of IT, programmable …

Some players of the market offer in their solutions, all or part of the set of interesting building blocks for DevOps:


  • Flexibility of the provision of resources (storage, CPU, RAM, …) with solutions of (hyper-) convergence.
  • Provision of the necessary applications with Dockers solutions or containers and applications for rapid provisioning.
  • Rapid provision of work environments via a Web portal: 1-Click.
  • Reducing complex and costly skills in infrastructure teams
  • Total Infrastructure Outsourcing for no longer bear the costs.

Today VMware, CISCO and Nutanix companies can provision VMs as well as containers, Simplivity to date is capable of doing it quickly for VMs only, (but I do not see this company to be outdone long). VMware is able to have a single OS to support multiple containers already simplifying the management of this OS. Nutanix is able to provision their storage containers. The company acquired Nutanix Calm.io but will have to change the product to be able to deploy existing applications as it is already able to do for future applications. All these companies show an amazing ability not to create bottlenecks to address the future serenely.


Today these actors can meet the companies needs to simplify the infrastructure by removing servers as SAN or eliminate the Fiber-Channel, simplify backups and enjoy the DRP (Disaster Recovery Plan) in more acceptable conditions. In a second phase it will be important to take better advantage of this infrastructure to deploy, move … environments. Finally, these same players will then be able to fully meet the needs of DevOps.

Today these players are fighting on the infrastructure market but the core has already moved on funding applications with the associated necessary infrastructure (SDDC). Already some of them are positioned on the infrastructure and at the same time ascend to the software layers. An accountant’s eye on margins should see that they are similar to those  of the software companies (85%). All these players are already able to offer simplification but some expect the optimization of these infrastructures (VCE, Nutanix example).

The winner will certainly be the one who will manage to provide a single integrated solution and be capable to deploy both applications of today (Exchange, etc.) and tomorrow (Contrainers / Dockers). Who will be the first to offer the solution « SDDC – all in a box  » able to contain all these needs, and … when ?

emmanuelforguesEmmanuel Forgues is Licensed in system network & security engineering in Paris, France – EPITA (June 1997). Licensed in Sciences Politique Paris in Executive Master, topic is international strategie on Cloud market. (December 2012).

  • 12 years experience in IT business, channel & SME strategy and business development.
  • Have significantly contributed to revenue and accelerated growth for the company.
  • Have demonstrated capability to lead transformation of existing organizations and drive teams to success: growing teams and revenue from scratch, negociate complex hybrid environments.
  • Have a complete experience in integrating all components to drive business to success (strategy), team management and processes (Background in ISP, network security, IT, WorldWide Internet acces managment, pre-sales, team management)

To follow Emmanuel :

Voir mon profil LinkedIn Emmanuel Forgues View Emmanuel’s profile

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

L’hyper-convergence et les entreprises ensemble face au paradigme du DevOps

Par défaut

Par Emmanuel Forgues 

Voir le profil d'Emmanuel sur LinkedIn

L’hyper-convergence (Nutanix, Simplivity, VCE) et les entreprises ensemble face au paradigme du DevOps

Pour survivre aujourd’hui, l’entreprise est face à un challenge : l’adéquation entre le temps de développement et la demande du marché. Il n’est, en effet plus possible d’attendre 6 mois pour sortir une application. La parution d’un nouvel OS (Android, IOS, Windows, …) nécessite une réactivité immédiate sous peine d’une sanction financière pouvant être lourde ou simplement de louper un nouveau marché. Cependant, il ne faut pas confondre vitesse et précipitation lorsque le marketing ne peut pas attendre et dans un contexte économique grevant les budgets. Il suffit de regarder le triste exemple de l’application mobile déployée, en urgence, à la demande des pouvoirs publics français pour informer sur les actions terroristes. Cette application (SAIP) développée en 2 mois par une équipe de 15 ingénieurs n’a fonctionnée que plusieurs heures après l’attentat de Nice.

                  Les nouvelles solutions de convergence et d’hyper-convergence fournissent aux entreprises la rationalité de l’infrastructure face aux challenges du DevOps. Les principaux éditeurs ont des approches différentes mais doivent à terme être capables d’intégrer un ensemble plus large de technologies dans une seule et même offre.

La problématique non-nommée rencontrée dans les entreprises :

Deux entités techniques participent aux développements de l’ensemble des entreprises s’appuyant sur l’Informatique. D’un côté les équipes de développement (DEV) qui vont produire une solution informatique (usage interne ou usage externe) et de l’autre côté les équipes des Opérations qui sont là pour mettre à disposition de la première équipe des outils nécessaires et en assurer la maintenance. Nous verrons que leurs objectifs sont trop souvent contradictoires au sein de la même entreprise et l’alignement de ceux-ci est un challenge stratégico-économique pour les DSI.

Lire la suite

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Extrasphere – Free Tool

Par défaut

Extrasphere est un outil gratuit pour vos environnements VMware ESXi 5.0+. Il vous permettra de réaliser des opérations d’administration pour vos machines virtuelles et ce même si vous utilisez la version gratuite (standalone) de VMware.


La solution Extrasphere permet de réaliser le déplacement d’une VM allumée d’un hôte ESXi à un autre hôte ESXi, sans la nécessité de disposer d’un vCenter Server. Idéal pour des hôtes ESXi autonomes, je pense notamment aux environnements DMZ ou ROBO (Branch Office Remote Office).


Les caractéristiques principales d’Extrasphere:

  • Migration des disques virtuels vers un autre datastore local et sur le même hôte ESXi sans interruption de la VM.
  • Migration des disques virtuels et le fichier de configuration de la VM (.vmx) vers un autre datastore local et sur le même hôte ESXi avec court temps d’arrêt de la VM. L’interruption est nécessaire uniquement pour suspendre / reprendre la VM à la fin du processus.
  • Migration des disques virtuels et du fichier de configuration de la VM (.vmx) entre deux hôtes ESXi avec un datastore partagé. Lors de la migration, la VM est suspendue et reprise à la fin du processus si l’hôte ESXi cible prend en charge le cpuinfo (CPU Flag) de l’hôte source; si ce n’est pas le cas, alors la VM est éteinte et rallumée.
  • Migration des disques virtuels et du fichier de configuration de la VM (.vmx) à travers deux hôtes ESXi sans datastore partagé. Cela se réalise par l’intermédiaire de l’appliance virtuelle Extrasphere « RESHARER » déployée sur l’hôte ESXi cible. La VM est suspendue, puis reprise à la fin du processus, si l’hôte ESXi cible prend en charge le cpuinfo (CPU Flag) de l’hôte source, si ce n’est pas le cas, alors la VM est éteinte et rallumée.

Pré-requis et limitations :

  • Les VMs migrées ne doivent pas avoir de snapshots – supprimez tous les snapshots de la VM avant la migration.
  • Les disques indépendants et les disques de type RDMp (mode compatibilité physique) ne sont pas pris en charge.
  • Les identifiants de l’utilisateur ‘root’ de l’hôte ESXi sont nécessaires pour établir une connexion SSH.
  • Le trafic SSH sortant doit être autorisé dans les paramètres du pare-feu de l’hôte ESXi cible pour la migration inter-hôte.

Vous pouvez télécharger EXTRASPHERE à partir du lien ci-dessous, n’oubliez pas de vérifier le Hash Sum !


Login/pass: root/welcome


Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Atlantis USX – Storage is Software

Par défaut

Atlantis USX – The New Order of Storage Freedom

Atlantis est une solution purement Software, elle fournit une solution de stockage par logiciel (100%), du pur SDS ! Atlantis USX Unified Software-Defined Storage est une solution intelligente de stockage définie par logiciel. Elle peut fournir instantanément des ressources de stockage pour toute application utilisant plus efficacement une infrastructure classique existante et permet de renforcer ou de faire évoluer cette infrastructures vers des solutions hyper-convergées.

En exploitant la puissance de traitement (calcul, mémoire et flash) plus rapide et moins cher, Atlantis USX élimine les inefficacités et les contraintes des solutions de stockage legacy (traditionnel) du SAN et du NAS matériel. Atlantis USX 3.1 optimise le stockage et améliore les performances pour supporter les workloads tels que les applications critiques, stockage de fichiers, VDI, SBC, et sur n’importe quel hyperviseur.

USX supporte VMware, vSphere et Citrix XenServer.

La solution Atlantis est en cela très intéressante car elle propose conjointement une couche de virtualisation, à laquelle il est possible d’ajouter de nouvelles fonctionnalités au stockage existant (VVOL), et de proposer une solution complète SDS Software-Defined Storage.

Atlantis permet de mettre en commun et de proposer une abstraction du stockage (NAS, SAN et DAS) afin de créer des volumes destinés aux applications VM, VDI… La solution offre également de nouvelles fonctionnalités comme le HA, la déduplication, la mise en cache, la compression…

Atlantis solution est aujourd’hui distribuée sous forme d’appliance virtuelle OVF. La phase d’installation et de configuration est relativement simple, elle nécessite uniquement une bonne compréhension de certains concepts de base.

Atlantis USX 3.1 GA est sortie le 16 octobre 2015.



Atlantis Computing propose à ses clients deux approches très simples. La première permet de s’intégrer dans un environnement virtualisé et de consolider le stockage existant. La seconde permet de fournir directement sous forme d’appliance hyper convergée (HyperScale), une infrastructure complète et Full Flash. Les deux approches utilisent le même logiciel, le même moteur : Atlantis USX.


Comment fonctionne Atlantis ?

Atlantis introduit une couche logicielle entre l’hyperviseur et les machines virtuelles afin de fournir une file d’attente optimisée permettant, grâce à une déduplication en ligne (réalisée par les appliances virtuelles) de réduire la latence des I/O, mais également de réduire la capacité de stockage nécessaire aux machines virtuelles consommant le Datastore présenté par Atlantis.

Une fois l’OVF téléchargé et déployé sur l’infrastructure virtuelle, Atlantis USX déploie de manière automatisée deux types de machine virtuelle : les Volumes VM et les Services VM. Ces deux machines virtuelles sont fondamentalement différentes car elles possèdent des rôles bien distincts.

La flexibilité et la souplesse du logiciel permet à Atlantis de pouvoir proposer plusieurs types de volume en fonction du cas d’usage.

  • Hyper-Convergé (Hybrid ou All Flash),
  • Hybrid,
  • In-Memory,
  • All Flash,
  • Simple Hybrid, Simple In-Memory, and Simple All Flash.

USX volume comparison table-Myvmworld

Volume VM

Le volume VM est une machine virtuelle (Ubuntu) entièrement autonome possédant toute l’intelligence d’Atlantis : déduplication en ligne, compression, réplication, cloning, snapshot, etc. Elle représente le cœur de la solution et permet de présenter un Datastore à l’hyperviseur.

Cette machine virtuelle, va exporter au travers du réseau, le Datastore sous deux protocoles NFS ou iSCSI.

Du point de vue des machines virtuelles, le Datastore USX est perçu comme un DataStore partagé et les lectures / écritures se font directement au travers de ce Datastore.


Architecture HCI

Service VM

Les services VM sont utilisés afin de pouvoir distribuer la couche de « back end » des volumes VM au niveau de plusieurs hyperviseurs. La donnée est donc répartie sur les différents hyperviseurs grâce au service VM, l’accès au Datastore se fera toujours au travers du Volume VM.

USX components_myvmworld

Source: https://help.atlantiscomputing.com/usx3

Pour les volumes de type Hyper-Converged (Hybrid ou All Flash), hybride, et en mémoire, Atlantis déploie aussi sur chaque hôte une VM appelée Service VM. Ces Services VM permettent d’exporter des ressources locales sous-jacente à l’hyperviseur (RAM, mémoire flash locale, DAS, JBOD, SSD) de chaque hôte et d’agréger ces ressources en un pool virtuel. Chaque service VM peut servir plusieurs volumes.

Chaque service VM peut exporter jusqu’à deux des ressources suivantes :

  • mem (RAM uniquement).
  • DISK (DAS seulement).
  • FLASH (flash local uniquement).
  • mem + disque (RAM + DAS).
  • mem + flash (Flash RAM + local).

 Deduplication In-line In-Memory

La Volume VM va procéder une déduplication en ligne sur des blocs de données fixes de 4KB (< 200 microsecondes de latence par opération IO). Avant d’écrire sur le système de fichier embarqué en mémoire (DedupFS), les données en écriture sont segmentées en block de 4KB. L’algorithme propriétaire d’Atlantis permet d’identifier si un bloc de données de 4KB est déjà présent ou non dans le système de fichier. A partir de son algorithme, Atlantis utilise un mécanisme de Hash (MD5 HASH) qui couvre un domaine de collision de 91 ExaByte par volume pour 0,0001% de probabilité. 


Si celui-ci n’est pas présent, un nouvel inode est créé dans le DedupFS, la table de blocs est mise à jour, une nouvelle entrée est créé et  identifiée de façon unique, ce block (en mémoire) est copié sur le tiers de performance (SSD, PCIe Flash, RAM). Les inodes, ainsi que la table des blocs, sont copiés sur le tiers de performance, puis l’acquittement est envoyé au niveau de l’application. Si en revanche le bloc de 4KB est déjà présent dans le système de fichier, ce bloc de 4KB n’est pas copié sur le tiers de performance, il est acquitté immédiatement, après que les metadata (inode + reference count) soient mises à jour et copiées sur le tiers de performance, le tiers de performance jouera le rôle de Write Caching et de Read Buffer.

La déduplication est construite à partir d’un journal en trois dimensions :

  • 1 pour les métadonnées dedup,
  • 1 pour les blocs Rewired,
  • 1 pour le système de fichiers (DedupFS).

La déduplication est implémentée par volume, elle n’est pas globale.

x-lzma-compressed-tarLes données sont compressées à partir d’un algorithme de compression sans perte LZMA, et ensuite écrites sur le tiers de performance, la compression favorise la croissance du facteur de déduplication.

L’algorithme utilisé est propriétaire et protégé par les brevets US 8996800 B2 / US 8874877 B2 / US 8732401 B2 / US 8874851 B2 /US 8868884 B2.


Atlantis USX dispose d’une façon unique d’exploiter la mémoire disponible à l’intérieur des Hyperviseurs pour fournir un stockage performant et optimisé. En tirant parti des ressources de la RAM (un des composants les plus performants du serveur), Atlantis USX peut effectuer en temps réel, la déduplication Inline, la compression et l’écriture. Chacune de ces fonctions réduit la quantité de données consommée, d’accélérer les IOPS et surtout de diminuer la latence.


Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

VMTurbo Assurer les performances applicatives au sein du Datacenter

Par défaut

Par Fabien Azra 

Voir le profil de FAbien sur LinkedIn

Garantir la performance des applications en environnement virtuel avec VMTurbo

L’adage dit « Un bon informaticien est un informaticien fainéant » car ce dernier s’attachera toujours à automatiser autant que possible l’ensemble de ses tâches quotidiennes pour ne plus rien avoir à faire.

Les environnements virtuels, même si ils ont significativement simplifié la gestion quotidienne des infrastructures, restent de véritables challenges pour ces informaticiens. Comment alors s’assurer que les ressources mises à disposition des machines virtuelles seront toujours suffisantes pour garantir la bonne performance des applications qu’elles contiennent tout en minimisant l’interaction humaine ?

Un état instable permanent

Si à un instant T, l’environnement virtuel peut paraitre dans un état stable, la moindre demande de ressources de la part d’une application peut entrainer un déséquilibre. La machine virtuelle qui l’héberge, a t-elle besoin de davantage de mémoire, de puissance de calcul, de bande passante ou de performance du stockage ? Le serveur physique ou la baie de stockage hébergeant cette VM disposent-ils de ces ressources ?

Bien sûr, l’humain peut trancher et prendre la décision de faire les modifications qui s’imposent. Mais cette décision est-elle si simple à prendre ? Doit-on déplacer cette VM sur un autre host disposant de la capacité de RAM ou de CPU souhaité ? Doit-on déplacer son vdisk sur un autre datastore ? Doit-on juste augmenter le nombre de vCPU ou la vMem alloués à cette VM ? N’est-ce pas juste un encombrement d’un port réseau du host ? Et quel sera l’impact de ce déplacement sur le host de destination ? Ne faut-il mieux pas déplacer les autres VMs environnantes plutôt que celle-ci ?

Décision plus ardue qu’il n’y parait finalement ! Multiplions ce questionnement pour des dizaines, voir des centaines de VMs et donc d’applications, sur des serveurs physiques, des switches réseau et des baies de stockage multiples et variés et nous voilà devant un véritable casse-tête pour notre informaticien fainéant.


L’infrastructure virtuelle : un modèle économique

VMTurbo permet de résoudre ce casse-tête permanent en partant d’un constat simple : l’infrastructure virtuelle est une place de marché répondant au principe de l’offre et de la demande.

Les applications, les machines virtuelles, les hyperviseurs, les switches réseaux et autres baies de stockages sont des acheteurs et vendeurs s’échangeant des biens : les ressources (CPU, Mémoire, IOPS, bande-passante, etc…). Le prix de chaque ressource fluctue en permanence en fonction du temps, de la rareté et de la demande plus ou moins forte.

Moins une ressource est utilisée, moins elle est chère. Plus elle est utilisée, plus le prix grimpe. Ainsi, une baie de stockage subissant un pic d’accès vendra chèrement ses IOPS à un hyperviseur et ce dernier les facturera tout aussi cher à la VM, la poussant à aller chercher ailleurs un tarif plus intéressant.

Par ce moyen, VMTurbo va tendre vers un « Etat idéal » : celui où l’ensemble des VMs dispose des ressources dont il a besoin au bon moment.


Surveiller vs. Contrôler

Dans une infrastructure virtuelle, en dessous de 70% d’utilisation, on gaspille les ressources (on peut donc densifier le nombre de VMs), mais dès que l’on passe au dessus, on augmente le risque.

Pour surveiller ce risque, on a le réflexe naturel de mettre en place un des nombreux outils de monitoring disponibles sur le marché. Malheureusement, ces solutions, tout comme les schedulers natifs aux hyperviseurs, ne font que réagir au dépassement d’un seuil. Cela signifie qu’on attend que le risque se produise et qu’on accepte que l’environnement soit dégradé, impactant ainsi le business de l’entreprise. Elles obligent l’administrateur à agir en mode « pompier », à prendre des actions manuelles pour résoudre les problèmes et sont consommatrices de temps face à la priorité de projets plus critiques.

VMTurbo comprend les demandes des applications et les fait correspondre avec l’offre de l’infrastructure, prenant les décisions à la place de l’humain en temps réel. Ces actions automatisées, centrées sur le besoin plutôt que sur l’infrastructure maintiennent l’environnement virtuel dans un état de santé optimal, de façon 100% logicielle.

Proposé sous la forme d’une simple VM à déployer en quelques minutes, sans agent (fonctionne via appels API), VMTurbo cartographie instantanément l’ensemble de l’infrastructure. Les premières recommandations peuvent être actionnées dans les 30 minutes (comme la relocalisation des VMs). Il sera plus sage d’attendre une trentaine de jours pour les opérations de resize up ou down (nécessitant souvent un redémarrage) afin d’avoir une visibilité plus précise de l’activité d’une application particulière (comme un serveur de paie, par exemple).

VMTurbo? collecte et conserve les metrics les plus pertinents, permettant d’affiner ses décisions en se basant sur l’historique. Mais il peut également faire des projections via sa fonction « Plan » et anticiper l’ajout ou le retrait d’un host, ou encore de lots de VMs et leur impact sur l’environnement virtuel actuel. Il peut également réserver les ressources pour un futur déploiement et l’automatiser en se basant sur des templates de VMs. Par ailleurs, ses dashboards personnalisables et les nombreux rapports permettent à l’administrateur de suivre l’ensemble des actions prises, tout comme leurs résultats.


Il supporte un très grand nombre d’environnements virtuels : VMware, Hyper-V, Acropolis HV (KVM), XenServer, RHEV-M, IBM PowerVM.

Et il collecte également, pour corréler l’ensemble des informations :

  • Cloud et Orchestration : vCloudDirector, CloudStack, OpenStack, VMM, AWS, Azure, SoftLayer, CloudFoundry
  • Load Balancer : NetScaler
  • Stockage : NetApp, EMC, PureStorage, Nutanix, HP, Dell
  • Fabric : Cisco UCS
  • Network : Arista
  • Applications : Exchange, Oracle, SQL, MySQL, WebSphere, WebLogic, JBoss, Tomcat


Un jeu de Tetris

En relocalisant et en réajustant l’ensemble des applications, VMTurbo joue à Tetris dans le Datacenter et permet de récupérer de l’espace, de densifier les VMs sur l’infrastructure existante et de repousser les investissements matériels.


Pour ne citer qu’un des nombreux exemples de ROI constaté en moins de 90 jours sur plus de 90% de leurs clients, prenons celui de la banque Barclays. Leur environnement virtuel, qui fait tourner plus de 60.000 VMs, les obligeait à 15% de croissance d’investissement par mois. VMTurbo, une fois mis en place, va faire près de 3.000 recommandations par jour, permettant à Barclays en les suivant de ne pas faire de nouvel investissement sur les 12 mois suivants, représentant 7,5M$ d’économie.


Téléchargez la version d’évaluation 30 jours :  operations-manager-30-day-trial

Pour conclure, revenons à notre informaticien fainéant ! Sa crainte était de voir le logiciel mieux travailler que lui et que l’on puisse même se passer de ses services. Mais l’automatisation et le contrôle de VMTurbo sur l’infrastructure virtuelle permettront à notre informaticien de se rendre indispensable sur d’autres projets plus gratifiants. Pour le démontrer, voici une petite analogie : aujourd’hui, un avion est totalement gouverné par le logiciel. Ce dernier peut le faire décoller, le faire voler et le faire atterrir sans nécessiter aucune interaction humaine.

Pour autant, accepteriez-vous de monter dans cet avion sans pilote ?

Fabien AzraFabien est en charge de l’équipe avant-vente de BigTec, distributeur à valeur ajouté accompagnant la transformation des datacenters. Il travaille en étroite collaboration avec les constructeurs et les revendeurs pour assurer la réussite des implémentations des solutions. Avec plus de 15 ans d’expérience technique, c’est un spécialiste des solutions de stockage et de virtualisation.

Pour suivre Fabien et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Fabien Voir le profil de Fabien Azra

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Hébergement mutualisé ou hébergement serveur dédié

Par défaut

Hébergement mutualisé ou hébergement serveur dédié ?

On peut choisir d’héberger son site sur un serveur dédié ou mutualisé. L’hébergement serveur dédié sera réservé uniquement à votre site tandis que l’hébergement mutualisé sera partagé entre plusieurs clients et donc de facto entre plusieurs sites. Chaque type d’hébergement a ses propres caractéristiques, comment choisir le meilleur hébergement pour son site ?

Faire le bilan de ses besoins en hébergement

Pour savoir quelle offre et quel type d’hébergement vous avez le plus besoin ou celui qui est le plus adapté à votre site vous devez connaître :

  • La place qu’occupe votre site : quels sont ses besoins en mémoire et en bande passante ? Quel est le volume de trafic ? Y a-t-il des pics de trafic ? Une saisonnalité ?
  • La puissance qu’il lui faut : est-ce un grand site avec énormément de pages ou au contraire un petit site qui ne nécessite pas beaucoup de puissance ?
  • Les besoins en sécurité : est-ce un site qui contient beaucoup de données sensibles, un intranet avec une base de données d’identifiants et de mots de passe ou un site gouvernemental ?

Si vous répondez à toutes ces questions par l’affirmatif et que vous pensez que votre serveur sera sollicité de manière fréquente, alors un hébergement serveur dédié est ce qu’il vous faut !

Hébergement mutualisé ou hébergement serveur dédié

Faire son choix d’hébergement : serveur dédié ou mutualisé

Par ailleurs, si votre site contient beaucoup de photos, vidéos et a besoin d’un espace disque dur important, il vaut mieux opter pour un hébergement serveur dédié. L’offre est plus avantageuse. Elle coûte évidemment plus chère que l’hébergement mutualisé. En contrepartie, vous disposez d’un serveur clé en main livré rapidement et que vous pouvez même piloter à distance. D’autant plus que les serveurs dédiés peuvent être classés selon des gammes (web, applicatifs, VOIP, streaming, web radio). Des options et des disques peuvent y être ajoutées. Ceci étant dit, rien ne vous empêche pour un début de choisir un hébergement mutualisé. Si votre site prend de l’ampleur, d’une manière ou d’une autre, il sera toujours possible de transférer le site sur un serveur dédié.

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Veeam ONE Audit, Reporting et Capacity Planning de l’infrastructure virtuelle

Par défaut

Audit, Reporting et Capacity Planning de l’infrastructure virtuelle

Avec Veeam One, Visualisez en un coup d’œil l’état de santé de vos infrastructures virtuelles et de sauvegarde :

  • Evitez les approximations pour le dimensionnement de votre stockage de sauvegarde
  • Evitez les documentations manuelles et imprécises
  • Optimisez l’utilisation de vos ressources mémoires, de calcul et de stockage en identifiant les gaspillages
  • Anticipez et planifiez l’évolution de vos besoins en capacité.

Pour assister au webinar: Rejoignez-nous sans plus attendre pour cette séquence exclusive !

webinar Veeam One audit

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Transformation digitale : et si on parlait concret ?

Mobility concept
Par défaut

Par Laurie Rouy 

Voir le profil de Laurie sur LinkedIn

« Transformation : passer d’une forme à une autre, action de changer. » Dans le dictionnaire des synonymes, on retrouve accolé au terme transformation le mot « adaptation ».

Alors transformation, oui, mais laquelle ?

On parle aujourd’hui de transformation digitale à tous les étages d’une entreprise, dans tous les métiers, tous les secteurs, industries…Il ne s’agit donc pas d’un ‘type’ d’actions en particulier mais bien d’un réel changement de modèle économique, de façon de vendre, d’acheter, de partager, de collaborer, de recruter. Mais c’est encore et surtout la PROXIMITE entre le client et nous.

La transformation digitale est en premier lieu, pour nous marketeurs, la transformation du client (son attitude, ses attentes, ses recherches, sa manière d’être et de réagir), et de son rapport avec la marque.

Depuis un bon moment, le marketing a été mis sous les projecteurs pour transformer chaque action dite «traditionnelle » en digital. D’ailleurs, 76% des marketeurs pensent que le marketing a plus évolué ces 2 dernières années que ces 50 dernières.

Or, petit à petit, l’expression bien connue de tous qu’est le ROI s’est mise à rythmer chaque phrase de réunion marketing à la manière d’une virgule qui cadencerait un email.

Return on investment mais surtout RONI: risk of non investment.

Ce que beaucoup semble oublier, c’est qu’aujourd’hui, la question à se poser n’est plus si nous devons y aller mais plutôt comment y parvenir. Mais avant de réfléchir aux moyens à mettre en œuvre pour réussir sa transformation il est indispensable de prendre conscience qu’il va falloir tout penser différemment et que, non, opérer une transformation digitale n’induit pas simplement de rajouter quelques logos plus ‘graphiques ‘ et transformer un email en infographie pour être «  à la page ». Rien de pire que d’entendre « mettre un coup de marketing digital là-dessus » pour faire ‘l’affaire’.

Les 5 points clés du marketing digital…

Le marketing digital (et donc indirectement la transformation digitale), si l’on devait le résumer en 5 points essentiels serait :

  • – ‘Profiler’ ses clients et cibler ses communications (la création de ce que nous appelons « personas » et donc segment précis de personne).
  • – Faire du nurtering et utiliser le marketing automation pour travailler un prospect sur du long terme jusqu’à maturation.
  • La sérendipité : qui finalement est l’essence même du  marketing, mais qui devient plus que possible grâce au digital : donner à un client / prospect la réponse à une question qu’il ne s’était PAS encore posé…
  • L’instantanéité : le live, la vidéo, le relai dans les réseaux, et a fortiori…l’image. (il y a aujourd’hui plus de requêtes faites sur Youtube que sur Google…).
  • – Et enfin, réaliser que l’humain ne peut plus être sans digital mais que l’inverse est tout aussi vrai….

Dans tous les cas, prenez conscience que la route est longue, fastidieuse et coûteuse. Car oui, il va falloir investir, prendre des risques et transformer notre manière de faire au quotidien.

Rapporté à l’entreprise, rien de plus concret que  l’exemple du récent discours du VP marketing au Adobe Symposium : il explique que, beaucoup de grandes entreprises ont compris l’importance d’investir dans le digital et souligne, qu’AXA investirait notamment 950 millions d’euros dans la transformation de leur entreprise. Non pas pour être en avance, mais pour être « dans les temps ».

Linkedin Logo on Galaxy Nexus Smartphone by Samsung and Google

Linkedin Logo on Galaxy Nexus Smartphone by Samsung and Google

Mais l’investissement n’est pas que financier, il est dans les hommes…

Le commercial n’a pas seulement besoin du marketing pour mettre en place des actions ou des campagnes web. On parle de bannières, de vidéo 3D, de présence sur la « toile »…mais comment rapporter tout cela au business sans se concentrer uniquement sur des téléchargements de livres blancs ?

Des solutions existent !

Aujourd’hui tout commercial doit travailler différemment. Le futur client est de plus en plus autonome dans ses réflexions. Qui n’est jamais allé à la fnac questionner un vendeur uniquement après avoir écumé blogs et forums, observé la marque sur Facebook, les avis produits sur Twitter… ?

Prospecter sur les réseaux sociaux, gérer ses leads, entretenir sa relation avec ses clients…l’ère du social selling est maintenant arrivée. LinkedIn Sales Navigator pourrait être un des outils pour générer du business et SIGNER des contrats ! LinkedIn, c’est 400 millions de membres connectés et un taux d’ouverture de message à 35% quand les nôtres avoisinent les 8…

Retenez une chose : une bonne stratégie digitale est une vraie adhésion aux nouvelles pratiques et manières de penser, du top management au terrain. Cette stratégie sera alors les briques qui consolideront vos cycles de vente.

Celui qui n’évolue pas prendra le risque de disparaître.

Laurie Rouy est en charge du marketing et de la communication digitale chez SCC France depuis bientôt 2 ans.
Son attrait pour le digital et son implication au quotidien lui permettent de partager, de par son expérience, avis et bonnes pratiques sur le sujet.

Pour suivre Laurie et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Laurie Rouy Voir le profil de Laurie Rouy

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest

Le Cloud Computing

Par défaut

Le Cloud computing

L’informatique en nuage ou le Cloud computing concernent l’exploitation de serveurs informatiques physiquement distants et accessibles sur Internet. C’est une délocalisation de l’infrastructure informatique qui offre aux entreprises une grande souplesse en termes de gestion et d’administration des serveurs informatiques. Un basculement des tendances qui favorise le travail collaboratif puisque les collaborateurs peuvent accéder aux réseaux et aux logiciels depuis n’importe quel endroit.

Le Cloud computing et les centres de données

Les entreprises qui utilisent le Cloud computing réalisent des économies de coût considérables. La facturation proposée par les fournisseurs de service prend en compte plusieurs critères : la volumétrie d’utilisation des fonctions, le coût de mise à disposition, le coût de production, etc. Avec le développement du Cloud computing, les centres de données, où sont regroupés les équipements du système d’information des entreprises voient le jour. Ils servent à stocker les informations nécessaires aux activités des entreprises. Les bases de données, étant sensibles, les centres de données ont généralement un haut niveau de sécurité. L’environnement physique est par ailleurs continuellement sous surveillance.

Cloud computing terms together

Les avantages du Cloud computing

En optant pour le Cloud computing, les entreprises font le choix d’externaliser leur serveur profiter d’un ensemble de puissance de calcul et de mémoire. Les entreprises n’auraient plus besoin de serveurs propres. Certaines grosses entreprises du monde informatique et dans le web profitent de ressources informatiques liées au Cloud Computing sans pour autant supporter les coûts d’investissement dans les infrastructures et les solutions informatiques. Par ailleurs les mises à jour logicielles et matérielles sont entièrement gérées par les prestataires, ce qui libère le département informatique des entreprises d’une charge de travail considérable. La localisation des données et leur protection grâce à des infrastructures sécurisées demeurent importantes pour les entreprises. En effet, l’infrastructure informatique réside dans le centre de traitement du prestataire. En cas de sinistre, toutes les données sont sécurisées et vous pouvez y avoir accès de manière opérationnelle depuis n’importe quel endroit en étant équipé d’ordinateurs connectés à Internet. Les solutions Cloud computing sont des technologies innovantes qui deviendront le standard de demain à cause de la multiplicité des données et de leur provenance.

Share This...Share on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on Pinterest