VxRail 4.0 la première brique du DataCenter moderne

Par défaut

Le changement est la seule constante du secteur informatique depuis des années.

La transformation de nos entreprises passera par la modernisation des Data Centers

Le marché de l’infrastructure informatique connaît une transformation sans précédent. La transformation la plus significative se traduit par deux grandes tendances : une tendance de déploiement vers une infrastructure convergée et Hyper-convergée,  et une tendance de conception vers le nouveau Data Center définis par logiciel (SDDC). Les deux sont des réponses aux réalités informatiques :

  • Encombrement des infrastructures
  • Complexité
  • Coûts élevés
  • Réduction du Time-To-Market

Platform 3.0

Les applications sont généralement identifiées par les plates-formes de charge applicatives définies par l’industrie : Plate-forme 1.0 qui se réfère aux charges applicatives de type mainframe; Platform 2.0 qui fait référence aux workloads client-serveur et virtualisés x86 traditionnels, et Platform 3.0, qui se réfère aux applications Big Data avec de nouvelles applications conçues pour les environnements Cloud, application Cloud native, social et mobile.3rd Platform

Il est essentiel que les systèmes qui composent l’infrastructure des SI reposent sur des technologies compatibles avec la troisième plate-forme, notamment les technologies Flash, scale-out, software-defined et Cloud.

Le document d’IDC intitulé « Worldwide Hyperconverged Systems 2015–2019 Forecast » montre notamment que les systèmes hyperconvergés devraient être le segment à la croissance le plus rapide de l’infrastructure convergée avec un CAGR de 60% d’ici 2019.

VxRail

Dell EMC VxRail est une appliance Hyper-Convergée (HCI) développée conjointement entre Dell EMC et VMware. Le lancement de la solution VxRail 4.0 a été annoncée lors du dernier Dell EMC World en octobre 2016.

Les appliances Dell EMC VxRail sont construites à partir de la technologie VMware Virtual SAN (VSAN).

VxRail est construit sur une architecture clustering modulaire de type Scale-Out. L’architecture est un système distribué constitué de blocs (Base Building Block), le form-factor de ces blocs ou appliances varient en fonction du modèle 1U1N, 2U1N et 2U4N (U: comme abréviation pour l’espace dans le rack et N pour le nombre de nœuds dans chaque appliance). VxRail offre la possibilité d’étendre jusqu’à 64 noeuds au sein d’un même cluster VxRail.

Les appliances reposent sur du matériel x86 basé sur des serveurs Dell EMC ( sauf pour le modèle 2U4N Quanta) avec des processeurs Intel (Broadwell Gen5). Les séries V et P reposent quant à eux sur des serveurs PowerEdges R730, quant à la serie E, elle respose sur des serveurs PowerEdge R630. La serie S repose enfin sur la gamme PowerEdge R730xd.

Les appliances se déclinent en deux versions, hybride ou version full flash, à l’exception de la série S (uniquement en hybride).

La gamme des appliances Dell EMC VxRail se décline en 5 séries pour répondre aux différents cas d’usage:

  • G series – « General Purpose » –  modèles G410 et G410F
  • E series – « Entry Level » – modèles E460 et E460F
  • P series – « Performance optimized » – modèles P470 et P470F
  • V series – « VDI optimized » – modèles V470 et V470F
  • S series – « Storage Dense » – modèle S470

Chaque noeud inclus le matériel suivant :

  • 1 ou 2 CPU Intel Xeon E5-2600 v4
  • Possibilité d’étendre de 64GB à 1536GB en capacité mémoire DDR4 DIMMs
  • Contrôleur disque PCIe SAS 12GB SAS
  • Carte SATADOM de 64GB pour le boot de l’ESXi
  • En fonction des modèles, une carte Dual-port 10GbE et 2 ports 1GbE, avec la possibilité de rajouter une carte supplémentaire 10GbE et 1GbE.

Le modèle V supporte les cartes graphiques de type NVIDIA Tesla M60, AMD FirePro S7150 (S7150 x2).

L’architecture de l’appliance VxRail est un système distribué pouvant évoluer de façon linéaire de 3 à 64 nœuds.

L’approche modulaire du VxRail permet de faire évoluer la structure au fur et à mesure des besoins métiers, c’est un des nombreux avantages de l’hyper Convergence : la Scalabilté.

Une de mes préconisations pour adopter l’hyper convergence est de débuter par un petit périmètre et le faire évoluer. Faite cohabiter votre plateforme VxRail avec votre solution legacy et migrer (via Storage vMotion) vos VMs sur la nouvelle plateforme, c’est une transition tout en douceur !

La configuration minimale initiale de VxRail est de 3 noeuds. Il est possible de faire évoluer son cluster en rajoutant un noeud ou en rajoutant des disques aux DG (Disks Group), l’incrément ici est, soit le disque, soit le noeud.

Remarque : la configuration du 4ème noeud doit correspondre aux trois premiers. Il est possible de mixer les différentes gammes de VxRail à partir du 4ème noeud.

La version 4.0 : What Else !

Finalement, VxRail est une suite de logiciels pré-configurée et pré-chargée sur les appliances, la plus-value de l’offre repose essentiellement sur 3 arguments : la performance, le support unique de la plate-forme et la sécurisation des données et des VMs.

L’offre software :

VxRail intègre VMware vSphere, vCenter Server et VSAN pour créer une solution accélérée et prête à l’emploi. VxRail inclut également VMware Log Insight (Root Cause Analysis), pour la maintenance automatisée et les mises à jour logicielles VxRail s’appuie sur VxRail Manager.

L’offre Bundle de VxRail comprend la suite logiciel suivante :

  • VxRail Manager 4.0 pour le déploiement, le management et configuration
  • VSAN Enterprise en 6.2
  • vCenter Server en 6.0 U2 (la licence du vCenter Server est exclusivement réservée pour le management du Cluster VxRail)
  • vRealize Log Insight 3.3.1
  • ESRS/VE Secure Remote Services 3.16

Donc, seules les licences des hyperviseurs vSphere ne sont pas comprises. Concernant les licences vSphere, VxRail supporte :

  • vSphere Enterprise +
  • vSphere Enterprise
  • vSphere Standard
  • vSphere ROBO Advanced
  • vSphere ROBO Standard
  • vSphere Desktop

Sécurisation & Protection

VxRail inclut une suite de services autour de la sécurisation et de la protection de la donnée, notamment la réplication et la sauvegarde :

  • VDP 6.1.3 : VMware Data Protection
  • VSR : vSphere Replication
  • RP4VM 4.3.1.4 : RecoverPoint for Virtual Machines
  • CloudArray 7.0.7 : passerelle Cloud public & privée

RecoverPoint est une solution permettant de restaurer instantanément les applications en cas d’incident sur l’environnement de production. Cette solution appelée également CDP (Continuous Data Protection) réalise une journalisation d’écriture et permet de restaurer à partir de n’importe quelle date dans le temps, en réalisant une réplication synchrone ou asynchrone.

VxRail fournit également une passerelle aux Clouds publics et privés, CloudArray est intégrée à VxRail en fournissant 1To de cache pour 10To supplémentaires de stockage Cloud à la demande par appliance.

La licence VSAN Enterprise fournit également un service de continuité d’activité grâce à la fonctionnalité VSAN Stretched Cluster ( à lire dans le prochain article VxRail).

Support Unique

Une des plus value de l’appliance VxRail se trouve également dans le support proposé.
Le support est pris en charge par les équipes Dell EMC 24×7 concernant le matériel et logiciels, y compris le support logiciel VMware & VSAN. C’est toute l’appliance qui est supportée, de bout en bout.

De plus, grâce à SRS Secure Remote Services, l’appliance dispose d’une connexion à distance bidirectionnelle proactive entre l’appliance VxRail et le support Dell EMC, une connexion sécurisée, et fonctionnant 24x7x365. Un mécanisme de Heartbeat assure une surveillance continue et permet d’envoyer des notifications et des logs au support. La solution permet de proposer un diagnostic et une résolution à distance et de recevoir des mises à jour de façon transparente et automatique.

Je vous invite à consulter le post de Cédric vBlog.io sur ce sujet, un bon retour d’expérience, en live!

  • Le résultat du sondage ci-dessous, réalisé par « Enterprise Strategy Group » soulignent quelques principaux vecteurs d’adoption sur le marché des solutions hyper-Converged HCI:

Améliorer l’efficacité du service et du support du fournisseur de solution HCI est également une initiative clé pour plus de 41%.

Source: Enterprise Strategy Group, 2017

 

 

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Acheter la convergence aujourd’hui pour respirer le futur

Par défaut

Par Emmanuel Forgues

Voir le profil d'Emmanuel sur LinkedIn

Acheter la convergence (VCE, VMware, EMC) ou l’Hyper-convergence (VCE, Nutanix, Simplivity, Atlantis) aujourd’hui pour respirer le futur

 

Délivrer l’IaaS comme fondation de l’ITaaS

it_myvmworldPour reprendre et donner une prolongation à l’article de Noham « Pourquoi conduire la transformation de l’IT est aujourd’hui un incontourable ? » : Il y a quelques temps les fournisseurs externes arrivaient à être plus précurseurs que les départements informatiques des entreprises, poussant les utilisateurs à expérimenter eux-mêmes les nouvelles options qui s’offraient à eux comme le Cloud Public. Avec un usage de plus en plus large des technologies et services externes à l’entreprise, les utilisateurs on fait apparaitre des risques considérables pour l’entreprise, créant par la même occasion un nouveau marché : le shadow IT (l’IT cachée). La convergence de ces nouvelles tendances et le sursaut des DSI pousse à voir apparaitre une nouvelle tendance : l’ITaaS (IT As A Service) ou l’ensemble des services de l’IT peuvent être proposés comme un service externe rétribué à l’usage et prenant en charge les besoins des utilisateurs ‘hors-control’ par le DSI. Dans cette course au besoin et aux réponses, les DSI peuvent prendre une longueur d’avance considérable et innovante.

Avant d’en arriver à choisir l’ITaaS (IT as a Service) il faut commencer par la base et choisir son infrastructure pour répondre aux besoins des développeurs (Dev) et de l’opérationnel (Ops). Les logiciels et le matériel doivent offrir :

  • la mise à disposition d’environnement rapidement en mode self-service
  • tous les mécanismes d’automatisations associés
  • l’identification des couts (refacturation transparente des coûts)
  • sécurisation : encryption, authentification, contrôle des accès
  • évolutivité possible (d’autres Hyperviseurs par exemple)

La partie logicielle a déjà été abordée dans l’article sur l’association de l’hyper-convergence et des entreprises pour répondre au besoin du DevOps, nous abordons dans celle-ci le choix de l’infrastructure et ses critères. Néanmoins, il ne faut pas perdre de vue que l’infrastructure se verra totalement masquée par tous les services additionnels pour faire bénéficier à l’entreprise l’expérience du SDDC. Par extrapolation, l’importance du type de matériel est très faible à partir du moment où il délivre le service demandé. Il saura se rappeler à votre mémoire lorsqu’il ne sera pas possible d’en augmenter les ressources, en cas de panne, pour des migrations impossibles ou compliquées et autres actions classiques sur une infrastructure.

silos_myvmworld

Choix du socle de l’infrastructure

Nous avons assisté il y a de cela quelques années à une grande phase d’optimisation des infrastructures avec la virtualisation. En virtualisant les serveurs physiques nous avons assistés à un gain conséquent de toutes les ressources dans les entreprises (humains, financiers, énergétiques, etc…). Dans un premier temps avec la virtualisation des services puis la virtualisation du stockage avant d’aborder la virtualisation des réseaux (dernière étape peu démocratisé).

serveur-tradi hyperviseur

Mais il fallait aller encore plus loin dans la densification des infrastructures. Les éditeurs faisaient échos aux besoins toujours aussi nombreux et de plus en plus complexe en apportant des réponses qui ne simplifiaient pas pour autant les infrastructures.

pay_infra_myvmworld

Nous en sommes à une nouvelle étape de simplification et d’optimisation des infrastructures en réduisant l’hétérogénéité : des éditeurs, des équipements et des contrats de maintenance. C’est à ce moment que sort du bois la technologie de convergence (Flexpod de Netapp, VCE, VMware,…) et l’Hyper-convergence HCI (Nutanix, VCE vXRail, Simplivity, Atlantis, …). Cette optimisation permet d’avoir dans un seul et unique boitier (Baie ou Appliance) aussi bien les serveurs, le stockage que les infrastructures réseaux nécessaires (IP ou stockage).

Construire son propre DataCenter sur des équipements traditionnels

architecture_hci_myvmworld

Source : http://www.lemagit.fr/definition/Hyperconvergence-ou-Infrastructure-Hyperconvergee

L’infrastructure classique continue de répondre aux besoins des entreprises et ça va continuer ainsi encore pendant un moment. Avec l’approche classique (Legacy) ou en convergé ou Hyper convergé l’édifice doit être construite sur de bonnes bases. Pour disposer de l’expérience du SDDC au service du DevOps, vient s’empiler des couches successives de services. Ce qui confère à l’infrastructure toute son importance dans l’édifice. L’approche Hyper-Convergée offre cette simplification technique recherchée.

 

Continuer sur son infrastructure classique ou basculer vers le convergé ou l’Hyper-convergé est une étape lourde et compliqué. Dans l’équation il ne faut pas oublier les aspects financiers : coûts d’acquisition mais aussi les couts indirects et cachés : prix de la maintenance, consommation électrique, refroidissement, etc …

criteres_hci_myvmworldLe choix de la technologie pour le socle de toute la solution doit se faire selon plusieurs critères :

 

Modélisons une situation financière dite idéale ou ; après un investissement initial faible, la courbe d’investissements des évolutions vient exactement se superposer à la courbe des besoins comme ci-dessous :

capex_myvmworld

capex02_myvmworldEn faisant figurer les investissements initiaux d’acquisition de matériel (incluant maintenant, etc) et la courbe des besoins dans une situation idéale nous avons le diagramme suivant. Les investissements suivent alors parfaitement les besoins. Ce cas de figure est possible aujourd’hui mais uniquement dans une approche en cloud ou il est possible de consommer en fonction des besoins et de payer à l’usage.

 

Appliquons la même méthode de modélisation pour comprendre les investissements dans une infrastructure traditionnelle.

Nous retrouvons l’investissement initial qui est incontournable et souvent relativement important. La croissance va pousser l’entreprise à continuer ses acquisitions en fonction des besoins et créer ainsi un impact relativement conséquent sur ses budgets. Par souci de simplification, je fais figurer les investissements matériels, le support, les renouvellements et les autres coûts adjacents comme un seul et même investissement.

capex_03_myvmworld

Pour donner une représentation concrète des couts liés à une infrastructure j’applique la méthode suivante :

  1. faire figurer la courbe des besoins (réguliers et constants pour simplifier)
  2. l’investissement initial
  3. L’ajout par couches successives des acquisitions qui accompagne les besoins.

Partant de cette représentation le coût en excèdent (ressource acheté et non utilisée) figure au-dessus de la courbe des besoins : I1 + S1+…S4+S4′

I1 = représente la surface des besoins non utilisés mais achetés.

S1+…S4+S4′ = représente le surinvestissement pour l’évolution de l’infrastructure.

S4′ = représente le surcoût lorsque la scalabilité de l’offre est arrivée à son extrême et que le coût de l’incrément est constant, incompressible et supérieur au besoin. Ce coût excédentaire est le plus notable car oblige l’entreprise à une acquisition excessive par rapport à un besoin pouvant être faible.

Les moments dans cette phase d’investissement successif qui sont les plus intéressants à observer sont :

– lorsque l’acquisition utile (sous la courbe) devient moins important ou égale que l’acquisition non-utilisée (au-dessus de la courbe)

– Pendant combien de temps le non-utilisé acheté est supérieur à l’utilisé acheté.

C’est à ce moment dans la vie de l’infrastructure qu’il faut financièrement anticiper la pertinence de la technologie sélectionnée. Une offre qui permet d’optimiser une infrastructure existante avec un impact minimum sur les budgets doit se trouver entre ces deux cas tout en restant le plus proche possible de la solution dite « idéale ». Dans le cas où le choix est de remplacer une infrastructure existante par une solution entièrement Hyper-convergée cela revient à racheter l’infrastructure initiale. Cette démarche sur un gros Datacenter risque donc d’être financièrement rédhibitoire.

La solution la plus réaliste modélisé dans l’exemple ci-dessous consiste à avoir un investissement initial faible (ou sinon plus faible qu’une infrastructure standard L1<I1) et ou l’augmentation des ressources se passe avec la granularité la plus fine en ajoutant ce qui est au plus proche de ce qui est nécessaire.

capex04_myvmworld

Le marché propose des solutions qui techniquement tienne vraiment la route mais ou l’investissement initial est aussi élevé que l’infrastructure traditionnelle. Si en plus la solution n’offre pas de modularité il devient compliqué de justifier l’acquisition d’un bloc complet pour répondre à un manque d’espace disque (par exemple).

Sans une « granularité fine » nous aurions le diagramme ci-dessous.

capex05_myvmworld

Au moindre besoin supplémentaire l’achat d’un serveur complet est nécessaire avec une surface d’investissement non utilisé très important. Même si c’est moins souvent que les autres solutions cela revient à racheter une maison quand j’ai besoin d’agrandir un peu ma cuisine.

Cet article vient à la suite des 2 articles suivant :

 

emmanuelforguesEmmanuel Forgues

Pour suivre Emmanuel et pour plus d’informations sur son parcours et ses compétences :

Voir mon profil LinkedIn Emmanuel Forgues Voir le profil de Emmanuel Forgues

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook

Atlantis USX – Storage is Software

Par défaut

Atlantis USX – The New Order of Storage Freedom

Atlantis est une solution purement Software, elle fournit une solution de stockage par logiciel (100%), du pur SDS ! Atlantis USX Unified Software-Defined Storage est une solution intelligente de stockage définie par logiciel. Elle peut fournir instantanément des ressources de stockage pour toute application utilisant plus efficacement une infrastructure classique existante et permet de renforcer ou de faire évoluer cette infrastructures vers des solutions hyper-convergées.

En exploitant la puissance de traitement (calcul, mémoire et flash) plus rapide et moins cher, Atlantis USX élimine les inefficacités et les contraintes des solutions de stockage legacy (traditionnel) du SAN et du NAS matériel. Atlantis USX 3.1 optimise le stockage et améliore les performances pour supporter les workloads tels que les applications critiques, stockage de fichiers, VDI, SBC, et sur n’importe quel hyperviseur.

USX supporte VMware, vSphere et Citrix XenServer.

La solution Atlantis est en cela très intéressante car elle propose conjointement une couche de virtualisation, à laquelle il est possible d’ajouter de nouvelles fonctionnalités au stockage existant (VVOL), et de proposer une solution complète SDS Software-Defined Storage.

Atlantis permet de mettre en commun et de proposer une abstraction du stockage (NAS, SAN et DAS) afin de créer des volumes destinés aux applications VM, VDI… La solution offre également de nouvelles fonctionnalités comme le HA, la déduplication, la mise en cache, la compression…

Atlantis solution est aujourd’hui distribuée sous forme d’appliance virtuelle OVF. La phase d’installation et de configuration est relativement simple, elle nécessite uniquement une bonne compréhension de certains concepts de base.

Atlantis USX 3.1 GA est sortie le 16 octobre 2015.

AtlantisUSX_myvmworld

 

Atlantis Computing propose à ses clients deux approches très simples. La première permet de s’intégrer dans un environnement virtualisé et de consolider le stockage existant. La seconde permet de fournir directement sous forme d’appliance hyper convergée (HyperScale), une infrastructure complète et Full Flash. Les deux approches utilisent le même logiciel, le même moteur : Atlantis USX.

hyperscale_Myvmworld

Comment fonctionne Atlantis ?

Atlantis introduit une couche logicielle entre l’hyperviseur et les machines virtuelles afin de fournir une file d’attente optimisée permettant, grâce à une déduplication en ligne (réalisée par les appliances virtuelles) de réduire la latence des I/O, mais également de réduire la capacité de stockage nécessaire aux machines virtuelles consommant le Datastore présenté par Atlantis.

Une fois l’OVF téléchargé et déployé sur l’infrastructure virtuelle, Atlantis USX déploie de manière automatisée deux types de machine virtuelle : les Volumes VM et les Services VM. Ces deux machines virtuelles sont fondamentalement différentes car elles possèdent des rôles bien distincts.

La flexibilité et la souplesse du logiciel permet à Atlantis de pouvoir proposer plusieurs types de volume en fonction du cas d’usage.

  • Hyper-Convergé (Hybrid ou All Flash),
  • Hybrid,
  • In-Memory,
  • All Flash,
  • Simple Hybrid, Simple In-Memory, and Simple All Flash.

USX volume comparison table-Myvmworld

Volume VM

Le volume VM est une machine virtuelle (Ubuntu) entièrement autonome possédant toute l’intelligence d’Atlantis : déduplication en ligne, compression, réplication, cloning, snapshot, etc. Elle représente le cœur de la solution et permet de présenter un Datastore à l’hyperviseur.

Cette machine virtuelle, va exporter au travers du réseau, le Datastore sous deux protocoles NFS ou iSCSI.

Du point de vue des machines virtuelles, le Datastore USX est perçu comme un DataStore partagé et les lectures / écritures se font directement au travers de ce Datastore.

Atlantis_myvmworld

Architecture HCI

Service VM

Les services VM sont utilisés afin de pouvoir distribuer la couche de « back end » des volumes VM au niveau de plusieurs hyperviseurs. La donnée est donc répartie sur les différents hyperviseurs grâce au service VM, l’accès au Datastore se fera toujours au travers du Volume VM.

USX components_myvmworld

Source: https://help.atlantiscomputing.com/usx3

Pour les volumes de type Hyper-Converged (Hybrid ou All Flash), hybride, et en mémoire, Atlantis déploie aussi sur chaque hôte une VM appelée Service VM. Ces Services VM permettent d’exporter des ressources locales sous-jacente à l’hyperviseur (RAM, mémoire flash locale, DAS, JBOD, SSD) de chaque hôte et d’agréger ces ressources en un pool virtuel. Chaque service VM peut servir plusieurs volumes.

Chaque service VM peut exporter jusqu’à deux des ressources suivantes :

  • mem (RAM uniquement).
  • DISK (DAS seulement).
  • FLASH (flash local uniquement).
  • mem + disque (RAM + DAS).
  • mem + flash (Flash RAM + local).

 Deduplication In-line In-Memory

La Volume VM va procéder une déduplication en ligne sur des blocs de données fixes de 4KB (< 200 microsecondes de latence par opération IO). Avant d’écrire sur le système de fichier embarqué en mémoire (DedupFS), les données en écriture sont segmentées en block de 4KB. L’algorithme propriétaire d’Atlantis permet d’identifier si un bloc de données de 4KB est déjà présent ou non dans le système de fichier. A partir de son algorithme, Atlantis utilise un mécanisme de Hash (MD5 HASH) qui couvre un domaine de collision de 91 ExaByte par volume pour 0,0001% de probabilité. 

deduplication_myvmworld

Si celui-ci n’est pas présent, un nouvel inode est créé dans le DedupFS, la table de blocs est mise à jour, une nouvelle entrée est créé et  identifiée de façon unique, ce block (en mémoire) est copié sur le tiers de performance (SSD, PCIe Flash, RAM). Les inodes, ainsi que la table des blocs, sont copiés sur le tiers de performance, puis l’acquittement est envoyé au niveau de l’application. Si en revanche le bloc de 4KB est déjà présent dans le système de fichier, ce bloc de 4KB n’est pas copié sur le tiers de performance, il est acquitté immédiatement, après que les metadata (inode + reference count) soient mises à jour et copiées sur le tiers de performance, le tiers de performance jouera le rôle de Write Caching et de Read Buffer.

La déduplication est construite à partir d’un journal en trois dimensions :

  • 1 pour les métadonnées dedup,
  • 1 pour les blocs Rewired,
  • 1 pour le système de fichiers (DedupFS).

La déduplication est implémentée par volume, elle n’est pas globale.

x-lzma-compressed-tarLes données sont compressées à partir d’un algorithme de compression sans perte LZMA, et ensuite écrites sur le tiers de performance, la compression favorise la croissance du facteur de déduplication.

L’algorithme utilisé est propriétaire et protégé par les brevets US 8996800 B2 / US 8874877 B2 / US 8732401 B2 / US 8874851 B2 /US 8868884 B2.

 

Atlantis USX dispose d’une façon unique d’exploiter la mémoire disponible à l’intérieur des Hyperviseurs pour fournir un stockage performant et optimisé. En tirant parti des ressources de la RAM (un des composants les plus performants du serveur), Atlantis USX peut effectuer en temps réel, la déduplication Inline, la compression et l’écriture. Chacune de ces fonctions réduit la quantité de données consommée, d’accélérer les IOPS et surtout de diminuer la latence.

 

Share This...Buffer this pageShare on LinkedInTweet about this on TwitterShare on Google+Email this to someonePin on PinterestShare on Facebook