VMware : dessine moi un stockage distribué ! VSAN

Par défaut

VIRTUAL SAN ou VSAN

Le buzz autour du VIRTUAL SAN de VMware ( VSAN ) est chaud bouillant. Selon VMware, plus de 12.000 bêta testeurs se sont penchés sur la solution VSAN dans des environnements de pré-production ou en lab afin de mieux comprendre les performances du test ou voir comment la solution peut (ou non) être introduite dans leur stratégie de Datacenter.
 
Petite remarque, durant la phase de test (bêta) on parlait de vSAN, depuis sa date de sortie officielle le 12 mars, on parle de Virtual SAN (VSAN).
 
VMware Virtual SAN ™est un nouveau niveau de stockage défini par logiciel pour les environnements VMware vSphere. Cette solution s’inscrit dans la stratégie de VMware du SDDC, le SDS Software-defined Storage composant logique du SDDC.
 
Une nouvelle approche de stockage voit le jour en raison de l’augmentation des besoins de stockage mais aussi de sa complexité. Aujourd’hui, nous cherchons à simplifier, améliorer l’efficacité, ou encore délivrer des applications utilisant des ressources de stockage dont nous avons besoin sur le plan de la performance et de l’évolution.
Le stockage définit par logiciel est la prochaine génération de stockage qui alimentera les applications et les Datacenters pour les générations à venir. A suivre donc…
 

Et l'histoire continue...
Il y a un peu plus de 20 ans, nous disposions d’architectures de serveur / de stockage traditionnelle, c’est à dire que chaque serveur disposait de son propre stockage local. Résultat : une mauvaise utilisation des ressources, certains serveurs disposaient d’une trop grande volumétrie de stockage et d’autres pas assez.
 

A la fin des années 90, le stockage a été déporté via le réseau sur des unité dédié, le SAN et le NAS se sont démocratisés dans les entreprises (Grands comptes, PME, etc.). Ceci a permis d’améliorer le TCO, mais on a  aussi remarqué que l’acquisition de ressources de stockage faisait parti des principaux budgets d’investissement des DSI avec la croissance exponentielle des données.
 
Depuis 3 ans, nous avons vu se dessiner sur le marché du stockage, l’apparition de nouveau type de baie de stockage basé sur la technologie Flash.
 

Virtual SAN est une solution logicielle de stockage distribuée qui est implémentée directement dans l’hyperviseur. Et Non, ce n’est pas une appliance virtuelle comme la plupart des autres solutions (par exemple: VSA). 
 
Le Software-Defined Storage consiste à glisser une couche d’abstraction des ressources de stockage physique hétérogènes pour créer des pools logiques de stockage dans un environnement de données virtualisées. Le SDS via VSAN automatise le provisioning et la gestion de stockage avec une approche auto-apprentissage par VM-centric.
Software-Defined Stockage fournit un stockage qui est efficace, agile et souple.

Les cas d’usage du VSAN:

  • Virtual desktops (VDI) : modèle scale out, réduction des coûts et simplification des opérations. VSAN est compatible avec Horizon View 5.3.
  • Développement & test : cela permet d’éviter de faire l’acquisition d’un stockage. 
  • Big Data : modèle scale out avec des capacités de bande passante élevées.
  • Objectif DR: solution de Disaster recovery à moindre coût, grâce aux fonctionnalités de réplication comme vSphere Replication.
Virtual SAN a été introduit avec la version de vSphere 5.5 U1, VSAN est en version 1.0
 

Virtual SAN est disponible en 2 éditions

  • VMware Virtual SAN, coût au CPU de l’hyperviseur, tous les processeurs doivent être licenciés.
  • VMware Virtual SAN For Desktop, licencié par utilisateur concurrent (CCU), avec des packages 10/100 licences, l’offre est alignée avec celle d’Horizon View.
source : VMware Virtual SAN Customer Presentation EN.pptx
Le VSAN est composé obligatoirement de 2 types de disque pour chaque hyperviseur, les disques SSD contribueront à la performance et les disques magnétiques (HDD) seront dédiés à la capacité.  On ne peut pas utiliser uniquement des SSD ou des HDD, on doit mixer les 2 types de disques. Minimum : chaque host doit disposer d’un disque SDD et un disque HDD.
Pour la validation des disques et des contrôleurs disques, consultez la HCL VMware vsanhcl.
 
Un cluster VSAN doit contenir un minimum de 3 noeuds ESXi. VSAN ne requière pas la construction d’un RAID local.
VSAN supporte à la fois les commutateurs de type vSphere Standard Switch vSphere Distributed Switch avec des liaisons de 1GbE ou 10GbE. VMware recommande l’utilisation de vSphere Distributed Switch avec 10GbE de liaison montante afin de supporter les activités de réplication et de synchronisation.
 
Taille du Flash Cache : dans VSAN 30% de chaque dispositif flash est utilisé comme write-back buffer. VSAN utilise 70% de chaque dispositif flash comme read cache.
 
Chaque host supporte au maximum 5 groupes de disque, les groupes de disques peuvent être considérés comme un conteneur dans lequel les périphériques flash SSD / PCIe et disques magnétiques sont reliés entre eux.
 
Chaque groupe de disque peut disposer au maximum d’1 disque SSD et de 7 disques HDD. Donc par host, on peut avoir au maximum 5 disques SSD et 35 disques HDD.
VMware recommande d’utiliser au moins un ratio 1:10 de SSD:HDD.
Pour calculer et dimensionner votre infrastructure VSAN, je vous invite à consulter le blog VMware écrit par Cormac Hogan.

Comment VSAN gère une défaillance disque ou d’un hôte :

A partir de Virtual SAN, on peut définir plusieurs politique de protection au niveau des VMs. La gestion du stockage est basée sur des règles ou profils (SPBM, Storage Policy Based Management), ces règles vont répondre aux besoins de chaque VM, en terme de performance, capacité et disponibilité.  Vous l’aurez donc compris : le Stockage Policy Based Management (SPBM) joue un rôle majeur dans les politiques et l’automatisation de la stratégie de stockage. 
 

VSAN  supporte actuellement cinq règles de capacité de stockage:

SPBM

  • Number of Failures to Tolerate
  • Number of Disk Stripes per Object
  • Flash Read Cache Reservation
  • Object Space Reservation
  • Force Provisioning

 

A partir de la version 6.0 d’Horizon View, la gestion des profils de stockage (SPBM, Storage Policy Based Management) sera entièrement intégrée.
 
VSAN assure la réplication pour chaque objet créé au sein du datastore.
Une VM est un ensemble de fichier, et chaque fichier est vu comme un objet dans VSAN, par exemple le fichier .vmdk (disque virtuel de la VM). 
 VSAN va créer deux objets identiques via un replica et un témoin. Un réplica est une copie des objets de la machine virtuelle à la création de celle-ci. La capacité de la disponibilité dicte le nombre de répliques qui sera créé, ce qui permet à la VM de rester en cours d’exécution si un hôte est défaillant.
Le témoin est là, juste au cas où quelque chose arrive à votre cluster et pour vous aider à décider qui va prendre le contrôle en cas de défaillance (tie-breaker), le témoin n’est pas une copie de votre objet, le témoin contient uniquement les métadonnées. Donc chaque objet créé possède son double (un miroir) et un témoin (witness), les témoins n’occupent pas beaucoup de place ,environ 2 Mo.
 
Lors d’une panne d’un hôte, soit une défaillance hardware ou une perte de connectivité VSAN, le cluster VSAN attendra 60 minutes avant de commencer la copie des objets et des composants sur un groupe de disques d’un hôte opérationnel.
Il existe deux méthodes principales pour créer un nœud  VSAN, vous pouvez soit acheter un serveur pré-configuré qui utilise des composants architecturés pour VSAN ou construire votre propre nœud à partir de la liste des composants qui sont inclus sur la VSAN HCL de VMware.

Les chiffres clés du Cluster VSAN

source : VMware Virtual SAN Customer Presentation EN.pptx

Group Disk

source : VMware Virtual SAN Customer Presentation EN.pptx

Interopérabilité VSAN et vSphere 5.5

source : VMware Virtual SAN Customer Presentation EN.pptx

Capacité de stockage les recommandations 

source : VMware Virtual SAN Customer Presentation EN.pptx

Performance & Capacité

source : VMware Virtual SAN Customer Presentation EN.pptx

Configuring a 16 Node VMware Virtual SAN cluster with Distributed Switch

How to Supercharge your Virtual SAN Cluster (2 Million IOPS!!!)

Sizing VSAN

Depuis début août 2014, vous pouvez trouver un outil en ligne qui vous permettra de dimensionner votre environnement VSAN, il vous suffira de renseigner quelques inputs, comme par exemple : nombre de VM, nombre de de VMDK par VM, quantité de mémoire par VM, taille des HDD, nombre de VM par core,…
VSAN Sizing

VSAN Sizing

 
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

vSphere 5.5 update 1 | 11 mars 2014| Version 1623101

Par défaut

VMware VSAN est attendu depuis longtemps, fonction de stockage qui est incluse dans l’hyperviseur et qui permet d’utiliser des disques connectés localement (disques SSD et disques mécaniques), pour créer un pool de stockage sur l’ensemble du cluster. Sans la nécessité d’un SAN externe ou NAS.  Pour savoir d’avantage sur le contenu des mises à jour ici.

 

What’s New

  • VMware a publié le 11 mars sa dernière mise à jour de vSphere 5.5 Update 1. Cette mise à jour inclut la plupart des produits VMware et surtout pour nous livrer la première version officielle de VMware Virtual SAN (VSAN).

  • Le plug-in vCloud Hybrid Service vSphere Client est disponible pour le vSphere Web Client.
  • vCenter Server supporte totalement le système d’exploitation Windows Server 2012 R2 pour les la personnalisation des machines virtuelles.
  • De nombreux bugs corrigés (par exemple: SSO)

Quels produits ont été mis à jour?

 

  • ESXi 5.5 U1
  • VMware vCenter Server 5.5 U1
  • vSphere Replication 5.5.1
  • vSphere Data Protection 5.5.6
  • VMware vCenter Orchestrator appliance 5.5.1
  • VMware vCloud Director 5.5.1
  • VMware vCenter Operations Manager Advanced 5.8.1
  • VMware vCenter Hyperic 5.8.1 Server (and agent)
  • VMware vCenter Site recovery manager 5.5.1
  • VMware vCloud Application Director 6.0.1
  • VMware Horizon View 5.3.1 (Quick Start Guide – kb.vmware.com/kb/2073795)
  • VMware Horizon Workspace 1.8 (release notes)

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Nouvelle Version Mirage 4.4

Par défaut
C’est annoncé officiellement, une nouvelle version de Mirage est disponible depuis le 4 mars, Mirage 4.4 est une nouvelle version mineure, pas de grosses révolutions majeures mais quelques améliorations que l’on attendait tous. 


Horizon Mirage 4.4 prend en charge Windows 8.0 et Windows 8.1 dans le cas d’usage de reprise d’activité après sinistre. Donc les terminaux en Windows 8 et 8.1 peuvent désormais être centralisés dans Mirage 4.4. A partir du portail web « file portal » les utilisateurs finaux peuvent accéder à leurs fichiers en libre-service dans le cas où ils veulent rétablir un fichier supprimé ou rétablir un fichier à un instant t-x.
Aujourd’hui, de nombreux terminaux (postes fixes et laptop) sont livrés avec Windows 8.x, et les DSI sont encore rares à vouloir passer sous le dernier OS de Microsoft. Pour faciliter l’intégration de ces nouveaux terminaux dans l’organisation de l’entreprise, Mirage permet de « downgrader » le terminal livré en Windows 8 en Windows Seven à l’aide du CVD de référence basé sous Windows Seven.

Apparition d’un nouveau rôle dans Mirage : Mirage Gateway

mirage gatewayLa Gateway Mirage permet aux utilisateurs distants de se connecter à Horizon Mirage situé dans le datacenter. Les utilisateurs finaux n’ont pas besoin de mettre en place une connexion VPN pour synchroniser ou de sauvegarder leurs fichiers locaux sur le serveur Mirage. Cette gateway est bien évidemment placée dans la DMZ.

Autre fonctionnalité : Fast Windows Seven Migration

Une nouvelle politique peut être appliquée ayant comme paramètres que les données ne seront pas sauvegardés ou centralisés au cours du flux de migration. En effet, la centralisation des données est généralement l’un des plus grands consommateurs de temps dans un projet de migration.
Normalement, lorsque vous avez besoin de migrer un ordinateur de bureau Windows XP à Windows 7, vous devez d’abord centraliser. Maintenant (en fait, il était possible avant en créant une politique de téléchargement spécial), vous pouvez migrer votre poste (endpoint) d’un seul coup, mais vous ne pouvez pas revenir en arrière et donc cette nouvelle politique de migration permet de réaliser des économies sur le stockage.


Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

MIRAGE

Vidéo

Vous vous interrogez sur l’apparition de « Mirage » dans mon Blog ? Malgré son nom ce n’est pas qu’une illusion, mais bel et bien du concret. Mirage est en résumé une solution VMware qui gère la centralisation du master du poste de travail Windows en proposant des fonctionnalités avancées comme la sauvegarde et la migration.

Mirage est issu du rachat de Wanova en 2012 par VMware. Sa 1ère sortie sortie date de 2010 (crée par Ilan Kessler and Dr. Issy Ben-Shaul) et à aujourd’hui, nous sommes à la version 4.3 de Mirage.

La solution Mirage appartient à la suite VMware® Horizon™ et également disponible en tant que produit autonome.

 


Horizon Mirage offre au service informatique et aux administrateurs des postes de travail une nouvelle approche flexible pour la standardisation des PC Windows sans utiliser le VDI, ou l’environnement de travail virtualisé, d’ailleurs je vous encourage à consulter le blog de Julien Cohen Côté Utilisateur, un « serial specialist » du VDI .

La gestion d’un parc de PC reste encore une discipline coûteuse pour de nombreuses entreprises. On estime ainsi que pour un euro dépensé en achat d’équipement, il faut compter environ 3 € de dépenses pour la gestion et l’administration de ce PC.


Mirage permet la gestion d’images en couches, séparant le PC en plusieurs couches logiques détenues et gérées par le service informatique ou par l’utilisateur final et toutes exécutées sur le PC utilisateur. Mirage garantit la standardisation et le contrôle nécessaires à la sécurité, la mise en conformité, la restauration et la réduction du TCO tout en donnant aux utilisateurs la flexibilité de personnaliser leur PC en fonction de leurs besoins professionnels et privés.

Les principaux cas d’usage avec Mirage

  • Déploiement centralisé, gestion unique des images pour les postes de travail physiques et virtuels 
  • Disponibilité élevée et reprise d’activité rapide, PCA du poste de travail
  • Sauvegarde et restitution de l’environnement utilisateur
  • Migration physique, changement de matériel (refresh hardware)
  • Migration vers Windows Seven

Horizon Mirage vise à étendre et à compléter les solutions existante
en améliorant la récupération des postes de travail, en facilitant le déploiement des images.

Un bon nombre de service informatique dispose déjà d’un outil PCLM, exemples de solution :
  • Microsoft SCCM
  • Symantec Altiris
  • LANDesk
  • Dell KACE K2000
  • Novell ZENworks
  • BMC BladeLogic
  • IBMTivoli Endpoint Manager, BigFix

La gestion du cycle de vie de l’ordinateur personnel ( PCLM ) est un processus de gestion d’un ordinateur à partir du moment de son achat initial aux étapes ultérieures de mastering , de déploiement d’applications, les mises à jour des correctifs , le suivi et le respect de la sécurité , et finalement au retrait du poste.

Les éléments clés des outils de type PCLM:

  • Inventaire du parc informatique
  • Gestion des licences et accès à distance
  • Délivrer des packages par l’intermédiaire d’un catalogue d’application
  • Délivrer les patchs d’OS

VMware Horizon Mirage n’est pas une solution pour remplacer les solutions de gestion du cycle de vie PC , mais complète et prolonge l’investissement et processus de PCLM existant . Les outils de PCLM permettent de gérer le contenu d’une image de PC, et Horizon Mirage gère la construction et le déploiement de l’image. Horizon Mirage fournit une gestion centralisée des images du bureau Windows , la récupération rapide du poste, la migration facile des différentes versions de système d’exploitation , et la livraison des applications de base et des ensembles personnalisés d’applications pour les utilisateurs finaux.

Le principe de fonctionnement de Mirage est de détacher les données d’un PC en 6 couches répartis dans deux groupes : les données systèmes et les données utilisateurs (couleur bleu). 

Le premier groupe intègre une image du système, une bibliothèque de drivers et les applications systèmes de l’entreprise. Le second groupe intègre les applications des utilisateurs, l’identité de l’OS, les données et le profil. Toutes ces couches sont gérer de manière différentes et centralisé dans un CVD (centralized Virtual Desktop). Le CVD est indépendant de la couche matériel des PC et peut rapidement être migrer d’un PC (physique ou virtuel) vers un autre créant ainsi une importante combinaison de cas d’usage.

 

L’architecture VMware Mirage comporte trois éléments : VMware Mirage Server, situé dans le Datacenter, centralise la gestion et la protection des postes de travail ; un client léger, installé sur le PC, se connecte à VMware Mirage Server et crée l’empilage de couches logiques de l’image locale; enfin, une technologie d’optimisation avancée accélère la synchronisation bidirectionnelle sur le réseau étendu (WAN, Wide Area Network).

Le composant VMware Mirage Client installé sur le PC commence par analyser la copie locale de Windows afin d’identifier et de scinder l’image du périphérique en plusieurs couches logiques. Une fois le poste de travail analysé, VMware Mirage retransfère une copie intégrale de l’image du PC vers le datacenter en omettant les fichiers synchronisés précédemment, assurant ainsi une sauvegarde complète du système. 
Mirage introduit deux innovations dans ce domaine : la déduplication au niveau du stockage et la déduplication sur le réseau. Ainsi, Mirage limite la consommation de la bande passante réseau et stockage au niveau du repository des CVDs dans le Datacenter.
 

VMware Mirage constitue donc une solution unique assurant aux services informatiques une simplification considérable du processus de gestion des PC physiques, tout en fournissant aux utilisateurs une flexibilité et une autonomie autour de leur poste de travail, comme par exemple la restauration des fichiers personnels de l’utilisateur.


 

Mirage est une solution innovante et disruptive dans ce domaine et m’a réconcilié avec le poste de travail.  

 
 
 
Pour compléter l’approche Mirage, je vous recommande de suivre le lab suivant sur le site http://labs.hol.vmware.com
HOL-MBL-1309 – Horizon Mirage – Manage Physical Desktops
 
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Veeam B&R Release 2 – Patch 3

Par défaut

Veeam vient de publier le 13 février 2014 un nouveau patch pour sa version 7.0 R2.

Le patch est téléchargeable à partir du lien : Télécharger

Le patch est référencé dans la KB suivante KB ID: 1854 , le patch contient également les précédents patchs Patch 1 KB ID: 1823 et Release 2 KB ID: 1831 
 

Cette publication apporte plusieurs améliorations, et en particulier en terme de performance.

Veeam recommande spécialement aux environnements conséquents de passer ce patch afin de tirer parti des nouvelles améliorations de performances.

En plus de nombreuses corrections, de fix et bugs corrigés, ce patch 3 apporte des nouvelles fonctionnalités:

Les fonctionnalités ci-dessous sont issues  de la KB 1864.

Engine

  • Significantly reduced load on SQL Server hosting the configuration database, and improved performance of various job activities and user interface operations.
 

vSphere

  • Improved vCenter Server hierarchy enumeration logic to speed up vCenter Server registration process in a few times.
  • Intelligent load balancing can now be configured to give preference to backup proxy located on the same host using the EnableSameHostHotaddMode(DWORD) registry value.
  • Replication jobs should now fail immediately upon encountering fatal error, rather than wasting time performing additional operations that are no longer relevant.
 

Hyper-V

  • Added timeouts on all snapshot operations, including snapshot creation, deletion, import to off-host proxy, and reading snapshot data to prevent conditions with stuck snapshots due to environmental issues.
  • Maximum volume snapshot life time is now customizable using the hvSnapshotLifeTimeHour (DWORD) registry value. Default value is 72 hours, but customization may be necessary to allow full backup of very large VMs on slow backup hardware.
  • Added ability to configure SCVMM communication timeouts using the SCVMMConnectionTimeoutMinutes (DWORD)
 

1-Click FLR

  • Support for downloading files larger than 4GB.
 

Built-in WAN acceleration

  • Data processing performance has been further improved by up to 25% comparing to R2 update.
 

Multi-OS File level recovery

  • Added support for file names with Unicode characters.

Tape

  • Support for backing up files with file names longer than 260 characters, and directory names longer than 248 characters.
  • Support for devices that do not implement sending error in response to attempt of writing to write protected tape.
  • Support for devices that do not implement sending the end of media event, such as certain IBM tape drives. Capacity for such drives is now controlled by the job.
  • Support for devices that do not implement drive enumeration in the drivers correctly. Such tape devices are now additionally queried for drives with SCSI commands.
 

User interface

  • Column sizes and sorting rules will now persist for each user in all grids and views.
  • Disabling GFS retention in Backup Copy job now offers to remove the existing full backup along.
  • Backup file repair process is now reported with the dedicated job status.
 

Rotated media
This update adds full support for rotated media with all job types and backup modes removes the need of using additional scripting. The new functionality is controlled by the following registry values:

  • ForceCreateMissingVBK (DWORD)

Enables support for rotated drives. With this functionality enabled, if any backup file from the latest full backup chain is missing (such as when the existing hard drive is replaced by another one), jobs will start the new backup chain and create the new full backup (instead of failing out).

Set to 1 to enable support for rotated drives.

  •  ForceDeleteBackupFiles (DWORD)

Enables automatic cleanup of the backup repository from ALL existing files if any backup file from the latest full backup chain is missing (such as when the existing hard drive is replaced by the hard drive brought back from offsite location, and containing some older backup files).Set to 3 to make the job delete the entire contents of the backup job’s folder only.Set to 5 to make the job delete the entire contents of the root backup repository folder, thus potentially deleting any files belonging to other jobs along. Note that if backup repository points at the volume’s root folder, the entire volume’s contents is erased.

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

VMware ThinApp – Virtualisation d’application

Par défaut

VMware ThinApp

ThinApp est un outil de virtualisation d’applications. Les applications virtuelles sont exécutées directement via un .exe ou .msi.

Sans agent, ThinApp dissocie les applications de leurs systèmes d’exploitation sous-jacents, permettant ainsi d’éliminer les conflits entre applications et d’en simplifier la distribution et la gestion.



 

Mode de fonctionnement de VMware ThinApp

VMware ThinApp virtualise les applications en encapsulant les fichiers et le registre des applications en un package ThinApp unique qui peut être déployé, géré et mis à jour indépendamment du système d’exploitation sous-jacent. Les applications virtualisées ne modifient pas le système d’exploitation sous-jacent et continuent à fonctionner de la même manière dans différentes configurations, ce qui garantit la compatibilité des applications, un environnement homogène pour l’utilisateur et la facilité de gestion.

Cas d’utilisation de ThinApp

  • Simplification de la migration vers Windows 7 : ThinApp assure aisément la migration des applications existantes telles qu’Internet Explorer 6 vers les systèmes Windows 7 32 et 64 bits et supprime le recodage, les tests de régression coûteux et les coûts de support.
  • Suppression des conflits entre applications : ThinApp isole les applications de poste de travail les unes des autres et du système d’exploitation afin d’éviter les conflits.
  • Consolidation des serveurs (streaming) : ThinApp permet à de multiples applications et à des données et paramètres de configuration spécifiques cloisonnés (sandbox) de résider en toute sécurité sur le même serveur.
  • Réduction des coûts de stockage sur les postes de travail : ThinApp en tant qu’élément de VMware View permet de diminuer les coûts de stockage et simplifier les mises à jour des applications en utilisant un partage réseau.
  • Renforcement des stratégies de sécurité : le déploiement de packages ThinApp sur des PC verrouillés permet aux utilisateurs d’exécuter leurs applications favorites sans menacer la sécurité.
  • Amélioration de la mobilité des utilisateurs : ThinApp permet de déployer, gérer et mettre à jour des applications virtualisées sur des clés USB pour une portabilité absolue.

Virtualisation des applications sans agent

  • Architecture sans agent : conçu pour un déploiement rapide et une gestion facile, ThinApp ne nécessite pas de logiciel agent sur les périphériques cibles.
  • Isolation parfaite des applications : ThinApp encapsule les applications complètes et leurs paramètres dans un fichier exécutable unique qui s’exécute indépendamment sur tout point d’accès réseau, ce qui permet à plusieurs versions ou applications de cohabiter sur le même périphérique sans conflit.
  • Sécurité intégrée : les packages applicatifs s’exécutent en mode utilisateur uniquement, de sorte que les utilisateurs peuvent exécuter leurs applications favorites en toute liberté et flexibilité, même dans des environnements de PC verrouillés, sans compromettre la sécurité.

Intégration transparente avec l’infrastructure en place

Architecture compacte :ThinApp s’intègre directement aux outils informatiques existants sans avoir à ajouter de matériel dédié ou de bases de données principales.
  • Intégration aux outils de gestion : ThinApp crée des packages .MSI et EXE standard que vous pouvez distribuer via les outils existants de fournisseurs tels que Microsoft, BMC, HP, CA, Novell, Symantec, LANDesk.
  • Prise en charge de l’authentification Active Directory : ajout et suppression des utilisateurs ThinApp dans des groupes Active Directory et gestion des droits d’utilisation des packages ThinApp.
  • Affectation d’applications intégrée à VMware View Manager : l’affectation de packages ThinApp à des postes de travail spécifiques ou des pools de postes de travail dans View Manager permet de rationaliser le déploiement des applications.

ThinApp 5.0 (Sortie Octobre 2013)

ThinApp 5.0 est supporté sur les systèmes d’exploitation 64 bits et ThinApp est toujours en mesure d’exécuter les applications virtualisées 32 bits sur des versions 64 bits de Windows.
Avec ThinApp 5.0 la virtualisation des applications 64 bits est désormais possible.

Re-architecture:

Dans la version 5.0, le noyau de ThinApp a été revu et ré-encodé, en effet, d’un point de vue technique VMware s’éloigne du modèle d’importation du tableau d’adresses des API Win32 et tend à développer autour des API native Windows (ntdll.dll). 

Comme vous pouvez le voir dans la figure ci-dessous:

Simplified Windows NT architecture – Microsoft Technet

Articles de la KB VMware:

Documentation VMware:

Training 

Je vous recommande pour appréhender la technologie, de suivre le lab suivant sur le site  http://labs.hol.vmware.com

HOL-MBL-1311 – Applied ThinApp with the Horizon Suite
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Le BYOD pour les nuls – édition spéciale VMware

Par défaut

Et… si l’utilisateur final investissait lui-même dans son terminal?

« Pour les DSI, le BYOD est une opportunité à la fois pour externaliser le coût des terminaux auprès des employés mais également pour implémenter des modèles de sécurité et des architectures applicatives totalement agnostiques », précise Forrester.

VMware présente « Le BYOD pour les nuls » 

Rendez-vous sur le blog VMware France 
ou
Téléchargez la version pdf ici.
Bonne lecture.

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

SDDC: Une nouvelle approche de l’IT

Par défaut

Pour conclure cette fin d’année 2013, je souhaite partager avec vous ma vision propective de la transformation de l’IT au travers du SDDC.

SDDC : Software Definied DataCenter

Depuis 2008, les DSI sont soumises à de fortes pressions économiques. Les budgets alloués à l’informatique régressent de manière significative et les exigences en terme de retour sur investissement marquent un tournant pour le secteur. La nécessité de réduire les coûts est devenue une préoccupation majeure pour les DSI.
Nous sommes aujourd’hui très loin du temps ou de nombreux DSI disposaient d’une forte latitude pour investir massivement. L’heure est à la centralisation des données ; non seulement pour faire des économies de serveur ou de stockage mais également pour avoir comme objectif d’accroître la performance du système d’information.

Si l’avènement de la virtualisation couplée à une baisse significative des coûts des composants informatiques a contribué à une réduction notoire des dépenses, le retour sur investissement demeure aux yeux de beaucoup insuffisant face aux résultats escomptés.

Force est de constater que ce ne sera ni sur le matériel, ni sur la géolocalisation du Datacenter et encore moins sur le modèle en silos de l’informatique que des économies de budget pourront être réalisées ; mais bien sur une nouvelle approche architecturale pour l’infrastructure informatique.

Aujourd’hui, les DSI ne savent pas suffisamment tirer profit des équipes d’exploitation ou d’administration. Notamment parce que le temps alloué à des opérations de support ou de maintenance, la validation des infrastructures déployées ou encore le fait d’allouer du stockage, des ressources de calcul, de mémoire en fonction des pré-requis de la MOA lors d’un nouveau projet n’apportent aucune valeur ajoutée à l’entreprise.

Il en résulte une sous exploitation et un gâchis des ressources humaines disponibles. De nombreux administrateurs, architectes ou consultants qui officient dans ces entreprises possèdent de vraies compétences et sont souvent reconnus par le biais de travaux transverses et notamment via des blogs qu’ils animent.

Il apparaît aussi très clairement que de nombreuses équipes d’infrastructure ne maîtrisent pas suffisamment les ressources que leurs confèrent leurs DataCenter. Il ne s’agit là bien évidemment que d’un constat et nullement d’un jugement ou d’une critique. Cet état de fait se vérifie par la virtualisation à outrance (VM Sprawling). Nous assistons aujourd’hui à un phénomène de prolifération de machines virtuelles, que nous associons systématiquement à du stockage. Il y a quelques années, nous faisions la même remarque concernant les serveurs physiques : 1 serveur sur 6 serait inutilisé dans le monde.
À partir de ce postulat, des solutions de capacity management fleurissent et semblent de plus en plus séduire les DSI.

 
Maîtriser ce que nous possédons permet de réagir avec efficacité à chaque nouvelle demande et confère une bonne performance sur les applicatifs métiers.

Autres constats :

Certaines équipes se sont implémentées d’outils d’ordonnancement, ont conçu des scripts, des process, dans le but d’optimiser et d’industrialiser la livraison d’infrastructures. Cette méthode a cependant ses limites. Si elle a permis aux équipes d’infrastructure de les soulager de certaines tâches, elle les oblige alors à maintenir en conditions opérationnelles ces solutions.

Ces différents points révèlent en conclusion que pour livrer ces infrastructures ou un service à ses clients, la DSI se doit de suivre un bon nombre de process et de validation souvent instruites par les équipes de gouvernance qui s’appuient sur des normes informatiques comme ITIL ou TOGAF . L’IT devient alors peu réactif face aux demandes croissantes des métiers.

L’émergence des fournisseurs « Cloud » et la réactivité dont ils font preuve ont aussi attiré de nombreux utilisateurs sur le principe « pay as you use« , leur permettant par la même occasion de s’affranchir de nombreuses contraintes. Un nouveau terme vient d’apparaître pour caractériser ce phénomène : « Shadow IT ».  Il ne faut pas perdre de vue que c’est essentiellement le métier qui amène des projets informatiques. Si l’informatique interne ne propose pas de service réactif et adapté face aux demandes croissantes des utilisateurs, ces mêmes utilisateurs se tourneront très facilement vers des Cloud Providers ou Cloud Public.

Afin d’éviter cette fuite en avant, un nouveau concept est apparu. Si hier ce concept n’était que marketing (introduit par Steve Herrod CTO VMware lors du VMworld 2012), aujourd’hui il s’avère incontournable aux DSI : le Software Definied DataCenter ou le SDDC.

Afin d’accompagner la métamorphose de l’informatique traditionnelle, les DSI doivent revoir leur stratégie d’infrastructure globale et effectuer la transition depuis un modèle de fourniture de services manuels orienté informatique vers un nouveau modèle ITaaS (IT-as-a-Service) davantage orienté utilisateur.

 
Il me semble indispensable que cet informatique acquière dans un premier temps des outils de Capacity Management (Know & Decide ou SanSentinel), sache identifier les ressources allouées et par qui et dans un second temps, inclut dans ce process une notion de re-facturation pour sensibiliser et éduquer les métiers aux coûts inhérents à leur demande.

Le SDDC n’est finalement que l’évolution de l’informatique qui s’est opérée avec l’avènement de la virtualisation.

Avec l’évolution de la virtualisation depuis 15 ans, trois grandes phases se sont succédées :

2005 : virtualisation des serveurs des équipes de développement, serveur de test.

2008 : virtualisation des serveurs dits critiques (messagerie, base de données, etc.), adoption en masse de la virtualisation.

2013 : apparition d’une nouvelle terminologie : le SDDC. Ce sont toutes les ressources du DataCenter qui sont mises en œuvre via des logiciels et sont regroupés en pool pour une allocation centralisée et optimisée des ressources.

La virtualisation des serveurs continue d’évoluer

Le SDDC :

Le développement de protocoles ouverts facilite le déploiement du modèle SDDC. En effet, le SDDC est défini à partir de standards ouverts qui permettent de contrôler des infrastructures virtualisées en faisant appel à divers fournisseurs respectant tous les mêmes API’s.
Exemples : dans ce modèle SDDC on retrouvera les API‘s. OpenStack, un projet open source spécialisé dans le contrôle des pools de ressources (processeurs, connectivité, stockage), les API de connectivité de type OpenFlow. OpenFlow propose un modèle pour le contrôle à distance des commutateurs et des routeurs.
L’architecture SDDC virtualise tous les domaines du Datacenter: calcul, stockage, réseau, sécurité et fournit une gestion automatisée par logiciel.

L’architecture du SDDC permet la transformation de l’informatique et rend cet environnement réactif, efficace et automatisé. Ceci permet de rendre les services applicatifs opérationnels en quelques minutes. Ainsi le SDDC facilite le travail des équipes IT internes qui souhaitent préparer des catalogues de services propres à leurs activités. 
La DSI peut ainsi se positionner en tant que fournisseur de service d’où le terme « IT as a service« . Elle est aussi légitime par rapport aux demandes métiers et peut repositionner l’IT au cœur de la demande des utilisateurs.

L’Automatisation et l’Orchestration sont les composants clés du SDDC.
Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Veeam Backup & Replication V7 R2

Par défaut
Après la sortie de la version 7 de Veeam Backup & Replication le 15 Août dernier, Veeam vient de publier une Release 2. Cette release disponible depuis le 13 Novembre, prend en charge la version de vSphere 5.5 et de Microsoft Windows 2012 R2.
Attention, la partie vSAN (Beta) n’est pas supportée.
 
 
 
Pour obtenir le patch, vous pouvez le télécharger à partir d’ici.
 
 
 
Petit rappel, la version 7 est une version majeure, elle apporte de nombreuses nouveautés, parmi les principales fonctionnalités, nous allons retrouver 7 principales nouveautés et 2 innovations majeures:

  • Sauvegarde et restauration améliorées pour vCloud Director
  • Prise en charge native des bandes
  • Veeam Explorer pour Microsoft SharePoint
  • Restauration en libre-service des VM et des fichiers invités
  • Plug-in pour le client vSphere Web
  • Virtual Lab pour les Réplicas
  • Prise en charge des Virtual Lab pour Hyper-V

2 Innovations : 


Accélération WAN intégrée, cette innovation n’est pas là pour concurrencer des appliances de type Riverbed ou Silver Peak.
L’objectif d’Accélération WAN est d’envoyer moins de données sur le réseau. Pour réduire la quantité de données en cours sur le WAN, Veeam B&R V7 utilise la mise en cache de données et les mécanismes de déduplication.
En conséquence, seuls les blocs de données uniques vont sur ​​le WAN. Les blocs de données qui ont déjà été envoyés ne sont pas ré-expédiés, ils sont lus dans le cache global. 
De cette façon, Veeam Backup & Replication V7 supprime le transfert de données redondant sur le WAN.
Pour activer l’accélération WAN et utiliser la mise en cache et les technologies de déduplication de données, vous devez déployer une paire d’accélérateurs WAN de votre infrastructure de sauvegarde, sur le site « source » et sur le site « cible ».
 

La deuxième fonctionnalité d’importance est la sauvegarde à partir de snapshots de baie de stockage. Veeam B&R prend en charge les snapshots des baies HP:

  • StoreVirtual VSA
  • StoreVirtual (LeftHand, P4000)
  • StoreServ (3PAR)
La fin de vie est programmée pour le client VMware vSphere (aka VMware Virtual Infrastructure Client) donc inutile de s’attarder à développer des plugins sur cette plateforme, Veeam B&R fournit un plugin pour le vSphere Web Client. Ce plug-in offrira une vision des statuts des jobs de backup.
Ci-dessous, vous trouverez en quelques lignes le déploiement de ce plug-in:
 
Pour installer le plug-in, il suffit de se rendre dans l’interface de Veeam Backup Enterprise Manager.
 
Le Backup Server doit être inventorié dans la console Veeam Backup Enterprise Manager. 

A partir de l’onglet Configuration, puis dans le menu à gauche cliquez sur Backup Server et cliquez sur Add.



Dans la fenêtre, veuillez renseigner les informations du serveur de sauvegarde, le nom DNS du serveur ou l’adresse IP. 
Ensuite, ajoutez le compte de service Veeam Enterprise Manager, ce compte doit disposer des droits d’administration sur le serveur de Backup. Par défaut, le port utilisé pour le service de Veeam Backup est le 9392.
Après cette étape, votre serveur Veeam Backup est inventorié dans la console de Veeam Backup Enterprise Manager.

Ensuite, cliquez sur le menu à gauche vCenter Servers, sélectionnez votre instance vCenter  et cliquez sur Install, le plug-in s’installera automatiquement, puis saisissez les crédentiels qui correspondent au vCenter Server.


Pour obtenir un maximum d’information et si votre infrastructure dispose de Veeam One, vous pouvez compléter les informations en paramétrant le Web vSphere Client. 





Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook