Pourquoi conduire la transformation de l’IT est aujourd’hui un incontournable ?

Par défaut

Si le changement a toujours été le seul fait perdurable du secteur informatique depuis des années, le rythme de celui-ci s’est aujourd’hui accéléré. Savoir accompagner la transformation de l’IT est ainsi devenu un enjeu stratégique pour la performance de l’entreprise. men-in-black-neurolyzer

Souvenez-vous, le neuralyzer est ce petit appareil utilisé par les agents J et Q de Men in Black (MIB) pour effacer la mémoire du public mis en relation avec des extraterrestres ou témoins d’un phénomène prouvant leur existence. Partons de ce postulat, oublions tous les concepts actuels et débutons une feuille blanche.

Il est aujourd’hui révolu le temps ou les utilisateurs se contentaient d’exploiter des applications et des ressources fournies par le département informatique. Les dynamiques de marché et les récentes avancées technologiques ont en effet fondamentalement changé leurs attentes. Ils étaient auparavant de simples consommateurs et deviennent aujourd’hui de véritables consommacteurs. Les utilisateurs privés maîtrisent parfaitement les réponses qui satisferont avec justesse leurs besoins. Ils sont connectés au quotidien avec l’informatique (consultation de leurs emails, de leurs comptes bancaires, de l’actualité ou encore tweets,…).

Si à titre personnel le myvmworld_01niveau de service qui leur est proposé est de haut niveau, en entreprise, ce niveau est loin d’être à la hauteur de ce qu’ils attendent (interfaces conviviales, possibilité d’accéder à leurs applications et données partout et à tout moment, proposition de solutions innovantes pour résoudre des problématiques actuelles et ou de longues dates.).

Le Cloud est le facteur clé de croissancecroissance_cloud

De plus, grâce à leur facilité d’accès, ces technologies sont accessibles à tous. Rien de plus simple que de télécharger une application mobile ou d’ouvrir un compte utilisateur gratuit (ou à faible coût) auprès d’un fournisseur de services de Cloud Computing pour travailler plus efficacement. L’utilisateur se procure ses propres technologies, pour un usage professionnel ou privé, et devient alors consommateur de Cloud pour répondre à ses propres désirs et consomme seulement ce qu’il utilise.

silo_myvmworldLes fournisseurs externes sont ainsi devenus de véritables précurseurs et concurrents en apportant aux utilisateurs un niveau de service que les départements informatiques ne sont jamais parvenus à atteindre pour cause de leur fonctionnement en silos. Quel utilisateur serait assez patient pour attendre des jours de la part de son département informatique l’obtention d’une ou plusieurs applications de gestion de projets ? Il préfèrera les tester lui-même directement en ligne sans perdre de temps, et exploitera ainsi le Cloud public au détriment de sa DSI.

Cloud_Etude_Forrester_2011

Source: Forrester 2011

Le marché de l’informatique traditionnel décroit, on peut soit simplement regarder ce marché mourir à petit feu, soit être pro-actif par l’accompagnement de la transformation de l’IT.

Ces analyses et réflexions démontrent que l’IT doit fondamentalement être transformé en profondeur pour devenir un fournisseur de services auprès de ses différents métiers.

Lire la suite

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

SDDC: Une nouvelle approche de l’IT

Par défaut

Pour conclure cette fin d’année 2013, je souhaite partager avec vous ma vision propective de la transformation de l’IT au travers du SDDC.

SDDC : Software Definied DataCenter

Depuis 2008, les DSI sont soumises à de fortes pressions économiques. Les budgets alloués à l’informatique régressent de manière significative et les exigences en terme de retour sur investissement marquent un tournant pour le secteur. La nécessité de réduire les coûts est devenue une préoccupation majeure pour les DSI.
Nous sommes aujourd’hui très loin du temps ou de nombreux DSI disposaient d’une forte latitude pour investir massivement. L’heure est à la centralisation des données ; non seulement pour faire des économies de serveur ou de stockage mais également pour avoir comme objectif d’accroître la performance du système d’information.

Si l’avènement de la virtualisation couplée à une baisse significative des coûts des composants informatiques a contribué à une réduction notoire des dépenses, le retour sur investissement demeure aux yeux de beaucoup insuffisant face aux résultats escomptés.

Force est de constater que ce ne sera ni sur le matériel, ni sur la géolocalisation du Datacenter et encore moins sur le modèle en silos de l’informatique que des économies de budget pourront être réalisées ; mais bien sur une nouvelle approche architecturale pour l’infrastructure informatique.

Aujourd’hui, les DSI ne savent pas suffisamment tirer profit des équipes d’exploitation ou d’administration. Notamment parce que le temps alloué à des opérations de support ou de maintenance, la validation des infrastructures déployées ou encore le fait d’allouer du stockage, des ressources de calcul, de mémoire en fonction des pré-requis de la MOA lors d’un nouveau projet n’apportent aucune valeur ajoutée à l’entreprise.

Il en résulte une sous exploitation et un gâchis des ressources humaines disponibles. De nombreux administrateurs, architectes ou consultants qui officient dans ces entreprises possèdent de vraies compétences et sont souvent reconnus par le biais de travaux transverses et notamment via des blogs qu’ils animent.

Il apparaît aussi très clairement que de nombreuses équipes d’infrastructure ne maîtrisent pas suffisamment les ressources que leurs confèrent leurs DataCenter. Il ne s’agit là bien évidemment que d’un constat et nullement d’un jugement ou d’une critique. Cet état de fait se vérifie par la virtualisation à outrance (VM Sprawling). Nous assistons aujourd’hui à un phénomène de prolifération de machines virtuelles, que nous associons systématiquement à du stockage. Il y a quelques années, nous faisions la même remarque concernant les serveurs physiques : 1 serveur sur 6 serait inutilisé dans le monde.
À partir de ce postulat, des solutions de capacity management fleurissent et semblent de plus en plus séduire les DSI.

 
Maîtriser ce que nous possédons permet de réagir avec efficacité à chaque nouvelle demande et confère une bonne performance sur les applicatifs métiers.

Autres constats :

Certaines équipes se sont implémentées d’outils d’ordonnancement, ont conçu des scripts, des process, dans le but d’optimiser et d’industrialiser la livraison d’infrastructures. Cette méthode a cependant ses limites. Si elle a permis aux équipes d’infrastructure de les soulager de certaines tâches, elle les oblige alors à maintenir en conditions opérationnelles ces solutions.

Ces différents points révèlent en conclusion que pour livrer ces infrastructures ou un service à ses clients, la DSI se doit de suivre un bon nombre de process et de validation souvent instruites par les équipes de gouvernance qui s’appuient sur des normes informatiques comme ITIL ou TOGAF . L’IT devient alors peu réactif face aux demandes croissantes des métiers.

L’émergence des fournisseurs « Cloud » et la réactivité dont ils font preuve ont aussi attiré de nombreux utilisateurs sur le principe « pay as you use« , leur permettant par la même occasion de s’affranchir de nombreuses contraintes. Un nouveau terme vient d’apparaître pour caractériser ce phénomène : « Shadow IT ».  Il ne faut pas perdre de vue que c’est essentiellement le métier qui amène des projets informatiques. Si l’informatique interne ne propose pas de service réactif et adapté face aux demandes croissantes des utilisateurs, ces mêmes utilisateurs se tourneront très facilement vers des Cloud Providers ou Cloud Public.

Afin d’éviter cette fuite en avant, un nouveau concept est apparu. Si hier ce concept n’était que marketing (introduit par Steve Herrod CTO VMware lors du VMworld 2012), aujourd’hui il s’avère incontournable aux DSI : le Software Definied DataCenter ou le SDDC.

Afin d’accompagner la métamorphose de l’informatique traditionnelle, les DSI doivent revoir leur stratégie d’infrastructure globale et effectuer la transition depuis un modèle de fourniture de services manuels orienté informatique vers un nouveau modèle ITaaS (IT-as-a-Service) davantage orienté utilisateur.

 
Il me semble indispensable que cet informatique acquière dans un premier temps des outils de Capacity Management (Know & Decide ou SanSentinel), sache identifier les ressources allouées et par qui et dans un second temps, inclut dans ce process une notion de re-facturation pour sensibiliser et éduquer les métiers aux coûts inhérents à leur demande.

Le SDDC n’est finalement que l’évolution de l’informatique qui s’est opérée avec l’avènement de la virtualisation.

Avec l’évolution de la virtualisation depuis 15 ans, trois grandes phases se sont succédées :

2005 : virtualisation des serveurs des équipes de développement, serveur de test.

2008 : virtualisation des serveurs dits critiques (messagerie, base de données, etc.), adoption en masse de la virtualisation.

2013 : apparition d’une nouvelle terminologie : le SDDC. Ce sont toutes les ressources du DataCenter qui sont mises en œuvre via des logiciels et sont regroupés en pool pour une allocation centralisée et optimisée des ressources.

La virtualisation des serveurs continue d’évoluer

Le SDDC :

Le développement de protocoles ouverts facilite le déploiement du modèle SDDC. En effet, le SDDC est défini à partir de standards ouverts qui permettent de contrôler des infrastructures virtualisées en faisant appel à divers fournisseurs respectant tous les mêmes API’s.
Exemples : dans ce modèle SDDC on retrouvera les API‘s. OpenStack, un projet open source spécialisé dans le contrôle des pools de ressources (processeurs, connectivité, stockage), les API de connectivité de type OpenFlow. OpenFlow propose un modèle pour le contrôle à distance des commutateurs et des routeurs.
L’architecture SDDC virtualise tous les domaines du Datacenter: calcul, stockage, réseau, sécurité et fournit une gestion automatisée par logiciel.

L’architecture du SDDC permet la transformation de l’informatique et rend cet environnement réactif, efficace et automatisé. Ceci permet de rendre les services applicatifs opérationnels en quelques minutes. Ainsi le SDDC facilite le travail des équipes IT internes qui souhaitent préparer des catalogues de services propres à leurs activités. 
La DSI peut ainsi se positionner en tant que fournisseur de service d’où le terme « IT as a service« . Elle est aussi légitime par rapport aux demandes métiers et peut repositionner l’IT au cœur de la demande des utilisateurs.

L’Automatisation et l’Orchestration sont les composants clés du SDDC.
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMworld 2013 – Day 2

Par défaut

VMware défie le réseau traditionnel

La seconde journée du VMworld 2013 s’amorce. A quelques heures de la célèbre soirée VMworld Party, la matinée débute quant à elle avec beaucoup de sérieux et notamment par la keynote présentée et animée par Carl Eschenbach.
Cette Keynote, dans la continuité du SDDC, s’oriente sur le thème du SDN Software Datacenter Network. Pour appuyer ce discours et conforter l’orientation stratégique opérée par VMware depuis un an, Martin Casado, CTO Networking VMware, et ancien CIO de Nicira prend à son tour la parole pour relayer sa vision.

Dans un premier temps, le discours met en exergue qu’au delà se son cœur de métier (la virtualisation de serveur), VMware apporte la solution de virtualisation de réseau. Cette solution consiste à traiter le réseau traditionnel (physique) comme un pool de ressources de transport (virtualisation de la couche très basse du modèle OSI L2 & L3). Plus simplement, un réseau virtuel est un conteneur logiciel qui présente les composantes du réseau logique des workloads connectés, des switchs logiques, routeurs et pare-feux logiques, des loadbalancer, et des VPN logiques.

Dans un second temps, Martin Casado adopte un ton plus commercial et nous informe que la version finale NSX sortira très prochainement. Il souligne notamment que tous ceux souhaitant dès à présent travailler sur ces nouveaux développements sont invités à prendre contact avec VMware. Une équipe dédiée a en effet été affectée à cette solution et est disponible pour répondre à ce type de demandes.


Martin Casado précise enfin l’importance que revêt l’écosystème VMware NSX et nous souligne que de nouvelles fonctionnalités seront apportées par le biais des partenariats noués avec Brocade, PaloAlto Network, Juniper ou encore HP. L’objectif : gérer avec plus d’aisance les composants réseaux des serveurs et des autres équipements de sécurité. A suivre donc…

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook