Cela n’aura échappé à personne mais nous vivons une époque de profonds changements dans notre métier. De nombreuses nouvelles technologies venant bousculer nos habitudes d’Administrateur Datacenter ou étant sur le point de le faire. J’avais envie de partager avec vous ma réflexion sur le sujet.

Je me rappelle régulièrement cette phrase lorsque que j’effectue une étude technique : « Nous faisons partie du système considéré ». Il est donc aussi évident de se poser la question des impacts de ce nouveau système sur les hommes et les femmes qui le design, l’administrent et l’exploitent.

Je vais dans ce premier article introduire les différents sujets que je traiterais dans le détail sur ce blog dans les mois à venir. Evidemment, certains d’entre vous sont déjà familiarisés avec ces sujets et penserons que nous enfonçons gaiement des portes ouvertes, et c’est tant mieux ! N’hésitez pas à participer aux discussions, décrire vos retours d’expériences car nous allons ensemble prendre des risques !

Les années « Stabilité » et « Résilience »

Depuis une dizaine d’années, je vais forcer le trait en disant que nous avons pensé essentiellement à la résilience de nos plateformes. Des crashs importants intervenus dans les années 2000 ont poussé le marché à développer des solutions de continuité d’activité. Bienvenue au PRA et au PCA qui ont occupé ma vie d’intégrateur pendant pas mal de temps.

D’un autre côté, les entreprises et organismes publics ont pris conscience de leur dépendance au « Système d’Information », et ont essayé de prendre toutes les précautions pour que celui-ci dispose d’une qualité de service très importante.

J’y reviendrai plus tard mais cette période, quoique féconde en révolution, comme la virtualisation. (Quoi ? Qu’entends-je au loin ? Un admin IBM courroucé par mes propos pensant que la virtualisation existe depuis des décennies ? NDLR : Il a raison ;o) ou le stockage partagé me laisse un peu sur ma faim, voir en demi-teinte. Ces nouvelles technologies ont effectivement permis de maitriser son « SI » qui était en pleine croissance, l’émergence de nouveaux produits dans le monde de la protection des données par exemple. Toutefois, la couche supérieure n’a pas franchement évolué (Serveur d’applis + BDD, Annuaire AD, messagerie, serveur de fichier, un firewall périmétrique).

Je vais être honnête, je me suis éloigné d’une certaine forme d’expertise pendant cette période. Pour prendre un exemple concret, là où je passais plusieurs semaines à préparer une Master Windows 2003 Server fin des années 2000, ½ journée était consacrée à la même action quelques années plus tard.  J’ai déplacé mon activité vers l’infrastructure matérielle au détriment des services applicatifs. Pour résumer, je pense que la simplification des outils du SI a entrainé une diminution de mes compétences d’informaticien (scripting, language de dev, SQL…etc). « Mode Introspection = OFF ».

Une simplification et une diminution du maintien en condition opérationnel des infrastructures.

Il faut reconnaitre que les constructeurs et éditeurs font de gros efforts pour simplifier l’administration des infrastructures et son maintien en condition opérationnel. La plupart des produits ont largement réduit la complexité des mises à jour (voir effectuer directement les mises à jour à notre place), créer de nouvelles interfaces beaucoup plus accessibles, des assistants… ; Finalement sont apparus des environnements de plus en plus « User Friendly », nous permettant d’administrer une bien plus grande capacité de ressources avec des moyens humains constants, voir dans de nombreux cas, en baisse.

Après tout, à cette époque, l’informatique n’est pas le cœur de métier des entreprises et des organismes publics.

2010/2015 : « l’explosion »

Après le raz de marée des années 2005/2010 sur Internet, les smartphones, les réseaux sociaux…débute une période d’effervescence. Je ne vais pas m’étendre sur l’ensemble mais je pense que cette liste démontrera simplement à quelle vague nous avons à faire : Disque Flash, Powershell, HTML5, Cloud Public-Privé-Hybrid, Du IaaS au XaaS, Bid Data, Hyper-convergé, Containers, micro-services, NVME, IoT, Blockchain, Intelligence Artificielle, A Réalité Augmenté…Etc. Bodhi, dans Point Break, aurait parlé de la vague des 50 ans. Mais finalement, le résultat de toutes ces innovations, c’est que l’IT ne représente plus un cout mais un vecteur d’innovation et de développement pour les entreprises privées et organismes publics. Le SI intègre le cœur de métier de leurs activités. Et ça, cela change tout !

Et les administrateurs dans tout ça.

Mais revenons à nos moutons. Quel va être notre place dans les années à venir. Nous allons devoir déporter notre activité quotidienne de maintien en condition opérationnel de l’infrastructure vers des actions à plus forte valeur ajouté. C’est le cas pour les administrateurs mais également pour les intégrateurs. Les sujets ne manquent pas. Je vais vous présenter certains aspects de l’évolution de notre métier qui me semblent essentiel d’appréhender. Chaque sujet fera l’objet d’un article dédié par nécessité mais également par plaisir d’aller plus loin sur ces sujets.

Administrateur « Datacenter » – Système « ET » Réseau

C’est une réalité que l’on vit au quotidien mais il devient difficile voire impossible d’appréhender seulement une partie du Datacenter tant les dépendances deviennent importantes. Ce mouvement s’observe depuis déjà quelques années. Evidemment, l’avènement du SDN avec des produits comme VMware NSX vont accélérer cet état de fait mais pas seulement.

Pour maitriser les thématiques de troubleshooting, d’analyse des performances et de tuning, des designs multi-site, il faut comprendre et maitriser le transport des flux. Pas besoins toutefois d’être un « mutant » sur l’ensemble des technologies mais une bonne compréhension des basics me semble nécessaire. Dans un sens comme dans l’autre. Je n’aborde délibérément pas la sécurité que je traiterai à part. Rappelons-nous que notre formation initiale nous avait préparé à ça. Mais plus les structures ou nous exercions étaient importantes et plus les équipes se sont segmentées par expertise.

L’automatisation du Datacenter

1 étape de notre démarche, l’automatisation du Datacenter. Les matériels et logiciels sont aujourd’hui entièrement pilotables grâce à des langages de script beaucoup plus performants comme PowerShell (qui entraine des suites comme PowerCli sur les environnements VMware). Les API (Application Programming Interface) « REST » sont également de la partie. Pourquoi automatiser son Datacenter ? Je pourrais dérouler tous les arguments du marché sur le sujet mais je vais me permettre une rapide synthèse : Faire plus et mieux avec des moyens (financier et humain) identiques ou en baisse. L’automatisation des actions récurrentes d’une faible valeur ajoutée permet de basculer sur des actions plus pertinentes que nous aborderons plus tard. Je prendrais le temps de développer ce point dans un autre article mais avec les outils à notre disposition aujourd’hui dans les secteurs du IaaS et du SaaS, j’ai tendance à dire qu’il suffit d’être imaginatif pour comprendre les enjeux de l’automatisation. Il est également important de noter que chaque action industrialisée permet de diminuer le risque d’erreur et augmente la sécurisation des processus de son IT. Je reviens également sur mon premier point : peu probable d’avancer sur ce sujet sans avoir une bonne connaissance de son réseau et d’avoir mis un pied dans le SDN. Nous allons devoir creuser certains sujets !

Supervision / Monitoring & recherche de la performance

Ce n’est plus nécessaire d’expliquer la nécessité d’avoir un système de supervision à la hauteur des nouveaux enjeux et je ne parle pas seulement de « pinger » des ressources, mais d’effectuer de la supervision applicative, d’automatiser des rapports sur la qualité de service de son SI. De nombreux outils gravitent sur ce marché même si, avec une partialité assumée, je vous conseille EyeOfNetwork (Communauté dans laquelle pas mal d’amis gravitent). Coté Monitoring, nous devons reprendre du temps à analyser notre production, comprendre les points de contention, s’efforcer de mettre les quelques coups de tournevis qui peuvent énormément augmenter les capacités du Datacenter. Encore une fois, je pense que nous avons mis de côté pendant pas mal d’année cette activité pour de nombreuses raisons évidentes : On ne touche pas une « prod » qui marche, on manque de temps, le besoin n’est pas exprimé par l’utilisateur final…Etc. Cependant, quoi de plus intéressant que de comprendre les informations remontées par les bons outils du marché (Sexygraf, DC Scope, VMware vRops…), de les analyser, et d’appliquer des correctifs sur sa production avec des impacts directs et positifs sur l’expérience utilisateur !

La sécurité

Comment aborder ce sujet ? Evidemment la sécurité de son SI devient primordiale. Les données deviennent vitales pour l’entreprise ou pour tout établissement public, les données ont une valeur avec le développement du Big Data. Les sécuriser devient stratégique. Les outils du marché se développent et de nouveaux sujets apparaissent comme la micro-segmentation, les security maps, la gestion de la mobilité…etc. Il y a un boulot énorme sur ces sujets et même si je ne suis pas dans mon domaine d’expertise, je tenterai de balayer l’état des offres actuelles et des différentes méthodologies à connaitre pour augmenter la sécurisation de son SI.

DevOps : Aller au-devant des métiers

Tous les sujets que j’ai évoqués plus haut convergent vers un seul but: offrir un service de meilleure qualité à ces services métiers et aux utilisateurs du SI. La méthode DevOps nous pousse à amener de la valeur, à améliorer la production des équipes métiers. C’est une démarche qui permet aux équipes de développement et d’infrastructure de collaborer plus efficacement face aux nouvelles exigences de la digitalisation.

Quand on a dit ça, on fait quoi ? Finalement, on tente t’intégrer les démarches de sécurité, d’audit, et d’automatisation tout au long du processus de développement de ses offres de service jusqu’à la production par les utilisateurs, en restant agile. Facile, non ?

La protection des données

Tous les modifications de process et d’infrastructure que j’ai évoqué ci dessous nous oblige à repenser nos plateforme de protections des données (sauvegarde/restauration, Archivage, Copie..etc). Le type et l’emplacement des données, les volumétries changement mais le plus important, les données générées ont maintenant un coût et peuvent servir la stratégie de l’entreprise ou de l’établissement public ! Le « Data Management » prends finalement tout son sens aujourd’hui. Apprendre à correctement protéger nos données et le prouver devient essentiel.

Conclusion

A l’heure du développement du cloud public, il serait naïf de penser que les performances et la qualité de service de notre infrastructure ne seront pas comparées avec des ressources du cloud public. La cohabitation est nécessaire, toutefois le datacenter « On Premise/hybrid » n’a pas encore dit son dernier mot !

 

Damien Rivière

Rédigé par

Damien Rivière

Damien Rivière est depuis près de 9 ans consultant chez Axians Cloud Builder. Spécialisé dans la virtualisation autour des produits VMware et dans le stockage autour des solutions Dell EMC, Damien est certifié VMware Certified Professional – Datacenter virtualization 4, 5 et 6 ainsi que EMC Implementation Engineer – VNX et Unity. Damien est également certifié VCP6-NV (Network Virtualization), VMCE Veeam, DCIE DataCore, AWS Technical Professional, CCNA Cisco, Netapp, Simplivity…