Ça y est, la première STS est disponible, voici la liste des nouvelles fonctionnalités à lire attentivement pour les plus pressés qui voudraient déjà l’implémenter :

IP Set-based Firewall : La fonction de pare-feu basée sur l’ensemble d’adresses IP permet de mettre en place des règles de pare-feu strictes pour la communication intra-cluster. Elle ne permet de recevoir des demandes RPC et API des adresses IP individuelles des VMs de contrôleur et des hyperviseurs considérés comme des sources de confiance. Il est possible d’activer cette fonction en suivant les instructions du guide de sécurité AOS 6.6.

Disk Health Monitor : Cette version améliore les vérifications de santé de disque existantes et le nettoyage de données en continu pour réagir plus rapidement à un signal de santé de disque. La fonction de surveillance de la santé des disques (DHM) effectue des vérifications de santé SMART périodiques sur les disques d’un cluster et vous alerte lorsqu’un disque est sur le point de tomber en panne. Cette fonction est activée dès la création d’un cluster et désactivée lors de la destruction d’un cluster. Si DHM détecte qu’un disque n’est pas en bonne santé, une alerte PhysicalDiskPredictiveFailure est générée, et celle-ci peut être consultée dans le tableau de bord des alertes de la console web Prism. Il y a une FAQ qui décrit le nouveau Disk Health Monitor et une KB qui décrit l’alerte et les moyens pour la résoudre : Alert – PhysicalDiskPredictiveFailure  .

Cross-vDisk Strips Inline Erasure Coding : Il est maintenant possible de configurer l’Erasure Coding à travers des Strips vDisk dans un conteneur de stockage. Dans ce type d’Erasure Coding en ligne, les Strips sont créées à l’aide des blocs de données à travers plusieurs vDisks. Nutanix recommande de configurer le type d’Erasure Coding en ligne comme des Strips de vDisk croisées pour les VMs qui nécessitent la data locality.

IP-less Communication Between NGT and CVM : Cette version supporte la communication sans IP entre NGT et CVM sur les clusters AHV. La communication sans IP améliore la sécurité de la liaison de communication, car elle ne nécessite pas que le CVM soit accessible par la VM via le réseau. Le service NGT communique avec le CVM via des connexions sans IP en utilisant le premier port série sur l’UVM. Si le CVM ne répond pas, NGT revient à la communication basée sur IP. Ce point devrait intéresser pas mal de client.

Native Encryption of Replication Traffic : Cette version supporte le chiffrement à la volée pour le trafic de réplication des Protection Domain. Le chiffrement est désactivé par défaut pour réduire la surcharge CPU pour les flux de données sur des connexions déjà chiffrés tels que les connexions VPN. La fonctionnalité s’active en ligne de commande.

Autonomous NearSync : Cette version supporte la planification de réplication NearSync autonome qui génère un flux continu d’instantanés. Le domaine de protection NearSync génère un flux d’instantanés locaux pour des créneaux de 15 minutes. Avec Autonomous NearSync, un widget vous permet de sélectionner un temps de synchronisation à la seconde près.

Service-level Network Traffic Segmentation in Nutanix Disaster Recovery : Il est maintenant possible d’isoler le trafic réseau du service Nutanix Disaster Recovery en cours d’exécution entre deux clusters Nutanix. La segmentation de trafic réseau améliore la sécurité, la résilience et les performances du cluster en isolant un sous-ensemble de trafic sur son propre réseau et nécessite une segmentation réseau physique sur les clusters.

Disaster Recovery of Volume Groups and Consistency Groups : Il est désormais possible de protéger les groupes de volumes et les groupes de cohérence avec les VMs dans Disaster Recovery. Seuls les réplications asynchrones entre les clusters Nutanix supportent la protection des groupes de volumes et de cohérence. Le mécanisme de basculement défini dans les plans de récupération orchestre la récupération de sinistre des entités protégées (groupes de volumes, groupes de cohérence et les VMs invitées associées).

Node Maintenance Mode for ESXi Nodes : L’interface utilisateur Prism prend à présent en charge la mise en mode maintenance “en douceur” des hôtes ESXi pour des raisons telles que les modifications de la configuration réseau d’un nœud, les mises à niveau ou remplacements de firmware manuels, l’entretien CVM ou toute autre opération d’entretien. Je ne sais pas ce qu’ils entendent par “en douceur”, il va falloir tester.

RDMA Pass-through Mechanism : Cette version supporte le RDMA Pass-through après la création d’un cluster via l’interface utilisateur Prism. Cela s’ajoute au RDMA Pass-through existant lors de l’installation de la fondation. Dans ce cas, le comportement suivant est applicable : Si le RDMA Pass-through est effectué lors de l’installation de la fondation : la CVM réserve l’intégralité de la NIC pour le passage de port RDMA. L’hôte ne peut pas utiliser le port NIC vide pour d’autres opérations, ni changer le port sélectionné. Si le RDMA Pass-through n’est pas effectué lors de l’installation de la fondation : le système vous offre une option pour réserver le port éligible pour RDMA. Cette fonctionnalité est disponible uniquement avec l’hyperviseur AHV.

Zero Touch RDMA (ZTR) Support : Zero Touch RDMA (ZTR) est un mécanisme de déploiement pour la configuration RDMA dans lequel le firmware de la carte réseau Mellanox gère toutes les configurations (contrôle de flux) sans intervention de l’utilisateur ou dépendance des profils de commutateur personnalisés ou de la compatibilité de commutateur. ZTR réduit la durée de déploiement de RDMA et n’exige pas le support des paramètres de contrôle de flux basé sur la priorité (PFC) et de notification de congestion bout-à-bout (ECN). La fonctionnalité ZTR est prise en charge avec les hyperviseurs ESXi et AHV.

Nutanix recommande d’utiliser ZTR seulement si des adaptateurs Ethernet NVIDIA Mellanox Connect X-5 (cartes réseau Cx5) sont disponibles dans votre configuration. Pour plus d’informations sur la compatibilité des cartes réseau pour la fonctionnalité ZTR, consultez la matrice de compatibilité des cartes réseau pour les fonctionnalités RDMA dans le guide de sécurité.

Securing AHV VMs with Virtual Trusted Platform Module (vTPM) : AHV vTPM est une émulation logicielle de la puce TPM 2.0 physique qui fonctionne comme un périphérique virtuel. Vous pouvez utiliser la fonctionnalité AHV vTPM pour sécuriser les machines virtuelles exécutant sur AHV en utilisant Prism Central.

Support for Cluster Resiliency Preference : Nutanix AOS fournit une capacité de résilience de cluster pour protéger vos clusters contre toutes les défaillances. L’opération de reconstruction nécessite un stockage supplémentaire sur le cluster et peut ne pas être nécessaire pour un cluster qui subit une maintenance planifiée. Pour de telles opérations de maintenance planifiées (comme les mises à niveau de logiciel ou de firmware), vous pouvez retarder le déclencheur de reconstruction en définissant la préférence de résilience en utilisant nCLI.

Unregister a Cluster from a Disconnected Prism Central : Il est maintenant possible de supprimer l’enregistrement d’un cluster de Prism Central même lorsque les deux entités ne sont plus connectées. Vous devez effectuer des étapes spécifiques sur Prism Central ainsi que sur Prism Element (cluster). On pouvait le faire en ligne de commande, on dirait que l’opération a été simplifié ici.

AOS Kernel Migrated to Upstream, Kernel.org Provided, Long Term Support (LTS) Kernel Branch :

La mise à niveau du noyau 5.10 LTS sur la machine de contrôle (CVM) fait partie de l’amélioration de la posture de sécurité du produit : Meilleur contrôle de la stratégie de mise à jour des correctifs Nutanix CVE. Rester à jour avec les correctifs de bogues du noyau en amont, les mises à jour des pilotes, etc. Meilleures performances pour la CVM.

Intelligent Distributed Disk Scrubbing : Avec cette fonctionnalité, AOS forme une vue globale des activités de nettoyage sur le cluster et sélectionne les données les plus vulnérables à valider en fonction des contraintes de calcul et d’E/S.

Enabled Server Side Session Management in Mercury : Cette version permet la gestion de session côté serveur dans Mercury pour fournir les améliorations suivantes par rapport à la gestion côté client : La déconnexion invalide les cookies. Vous pouvez invalider les cookies à tout moment. Les sessions utilisateur existantes sont déconnectées après la mise à niveau vers AOS 6.6 ou les versions ultérieures. Vous devez vous reconnecter après la mise à niveau. Le nombre maximum de sessions actives simultanées autorisées est de 1 000.

Improved Garbage Collection : Cette version introduit une nouvelle fonctionnalité qui supprime automatiquement les extents partielles des clusters qui ont un I/O fragmenté et ont des instantanés AOS pris de manière régulière. Par défaut, cette fonctionnalité empêche les d’extents partielles d’occuper plus de 10% de l’espace utilisé total dans vos clusters. Ce nombre peut être configuré en contactant le support Nutanix.

AOS 6.5.1 est disponible depuis quelques jours à peine, cette version introduit le support d’Hyper-V 2022 sur les plateformes NX.

La version d’AHV associée (AHV-20201105.30411) n’apporte qu’une correction de bug relative au Uncorrectable Error Correction Code (UECC).

Rien de très intéressant me direz-vous mais à partir de cette base vous pouvez upgrader en 20220304.242 soit la version AHV 8.0 dont voici quelques points :

  • support du vTPM pour les VMs AHV (enfin !)
  • support de Windows 11 dont 22H2: il faudra respecter les prérequis suivant mais l’ajout du vTPM était vraiment le point bloquant pour Windows 11 :
    • Secure boot activé
    • VirtIO 1.2.1
    • UEFI
    • vTPM
  • Support de Windows Sybsystem for Linux (WSL2)

En plus ce ça sous le capot, les performances de stockage ont été amélioré, les mesures par X-RAY indiquent une amélioration jusqu’à 15% pour les écritures aléatoires 8k et jusqu’à 3% pour la lecture-écriture en séquentielle pour des blocs de 1MB. Amélioration des performances spécialement en cas de forte densité de machines +22% sous VSIMax. Il semble y avoir pas mal d’autre points relatif à la récupération des performances perdu suite à la correction de problèmes de sécurité.

Les plus téméraires d’entre vous pourrons bénéficier dès maintenant de toutes ses améliorations, ou vous pouvez simplement attendre AOS 6.5.2 qui inclura AHV 8.0.

La nouvelle version Long Term Support d’AOS est disponible depuis cet été, je vais essayer ici de détailler toutes les optimisations et ajouts de fonctionnalités pour cette version majeure qui sera le socle pour les prochaines mois.

Improved Single vDisk Performance : Anciennement le contrôleur de stockage était monothreadé, avec AOS 6.5, même les VMs avec un seul contrôleur pourront tirer parti du multithreading ce qui améliore les performances pour les machines avec un seul gros vdisk.

Enhanced NearSync Replication Schedules for VStore Protection : La réplication NearSync peut maintenant descendre jusqu’à 20 secondes entre deux sites.

Storage Containers: Provision a Storage Container with Replication Factor 1 : Attendu depuis longtemps la possibilité de provisionner un conteneur de stockage avec une seule copie des données, c’est très économique en espace, mais évidemment c’est à réserver aux workloads qui ont leur propre mécanisme de redondance et protection de la donnée car en cas de défaillance la donnée ne sera plus disponible.

IPv6 Enablement in a Cluster : Possibilité d’activer l’IPv6 sur un cluster AHV avec la commande manage_ipv6, attention le cluster ne doit pas etre connecté à un Prism Central.

DR Dashboard: Monitoring and Reporting : depuis Leap, un dashboard permet de surveiller l’état de préparation des opérations de reprise, plusieurs vues sont disponibles et la génération de rapports détaillés sur la santé des réplications et des opérations est facilité.

Expand Cluster Redesign : Il est maintenant possible de préparer un nœud pour étendre un cluster puis de l’ajouter plus tard, ou bien procéder à l’extension immédiate comme précédemment. Cluster Expand prend maintenant en charge les clusters en LACP (AHV et Hyper-V) et l’ajout de Storage-Only node directement depuis l’interface.

Enhanced Asynchronous Replication Schedules : Je n’ai pas trouvé beaucoup d’informations sur ce point, mais il y a un nouveau mécanisme rétrocompatible qui améliore la planification des réplications asynchrones dans Leap.

Reserve Rebuild Capacity : Il est ici possible de cocher une case qui vous empêchera de remplir le stockage du cluster au-delà du seuil ou la reconstruction de la redondance n’est plus possible.

Mixed Storage Capacity Support for Hardware Swap : Permet de remplacer un disque dur par un autre de capacité supérieure, très utile lorsqu’un le fabricant n’a plus la référence d’origine en stock, et ça tombe très bien, j’ai justement eu le cas chez un client. La capacité globale du cluster ne sera pas augmentée à moins de remplacer tous les disques, le remplaçant est simplement pris en charge avec la capacité de celui qu’il remplace.

Rebuild Progress Indicator and ETA : Cette amélioration indique la progression de la reconstruction des données. Je trouve cette amélioration très pratique, d’un coup d’oeil sur le dashboard principal on peut obtenir une estimation du temps restant pour l’opération.

VSS Snapshot Backup type change : Modification du type de sauvegarde pour les snapshots VSS par défaut en VSS_BT_COPY à la place de VSS_BT_FULL.

Flow Networking with Virtual Private Cloud and Virtual Private Network Support : Il faudra probablement un article détaillé tant les améliorations sont nombreuses !

Recycle Bin: Clear Space Used by Recycle Bin : Vous pouvez supprimer le contenu de la corbeille depuis Prism. /!\ Il n’y a pas de corbeille pour les conteneurs en RF1.

Physically Isolate Backplane Traffic on Hyper-V : L’isolation physique du trafic backplane est maintenant disponible sur Hyper-V.

Ability to Upgrade Flow as an Independent Service : Flow peut être mis à jour via LCM, malgré cette indépendance, le service a quand même besoin d’être aligné sur les versions d’AOS et Prism Central pour des raisons de compatibilités.

Enhanced Security with Restricted Shell Access : Ajoute une fonctionnalité ou vous devez contacter le support Nutanix pour déverrouiller la configuration de sécurité et autoriser les modifications. Nouvelles restrictions pour le compte nutanix afin de forcer d’encourager les utilisateurs à utiliser le compte ‘admin’.

Dark Theme on Prism UI : Le thème sombre est disponible ainsi que la possibilité de s’appuyer sur le thème de votre OS pour choisir ce dernier.

Whole Node Maintenance Mode : il est maintenant possible de mettre en maintenance directement depuis l’interface Prism – AHV 6.5 – Putting a Node into Maintenance Mode (AHV) (nutanix.com)

VM Centric Storage Policy : Possibilité de gérer des stratégies d’optimisation de stockage depuis Prism Central, ces stratégies s’appliquent aux VMs, à la façon d’une Storage Policy VMware.

Space Reporting Enhancements in Storage Summary Widget : Depuis Prism Central le widget affiche plus de détail sur l’utilisation de l’espace de stockage.

NGT: Windows Performance Monitor (perfmon) Integration : ajout de deux métriques disponibles depuis perfmon hypervisor_cpu_usage_ppm qui indique le pourcentage de temps processeur de la machine et hypervisor_cpu_ready_time_ppm qui indique le pourcentage de ready time de la VM.

Support for In-place Entity Restore with Leap Recovery Points : Permet de restaurer une VM avec exactement les mêmes paramètres qu’elle avait sur l’AZ d’origine, les propriétés telles que l’UUID, le routage, la mac address, le hostname sont récupérés.

Support for Microsoft Windows Server 2022 : Pas grand-chose à ajouter….

Enhanced Cluster Expansion Capabilities : Possibilité d’ajouter plusieurs nœuds à la fois.

Network Segmentation Enhancements : beaucoup de petite amélioration sur la network segmentation qu’il faudra probablement décrire dans un article dédié, mais il est possible d’ajout un petit Pool d’ip plutôt que tout un subnet, il est possible d’activé la fonctionnalité dans un cluster ESX ou Hyper-V malgré un noeud storage-only nodes (car sous AHV), possibilité d’assigner les IP à chaque CVM. Et Enfin support de la fonctionnalité avec Hyper-V.

Optane Tier for NVMe : Reproduit l’architecture historique SSD + HDD avec des tiers de performances cette fois ci entre les disques Optane pour le tier 0 et les SSD NVMe pour le tier 1.

Removing Multiple Nodes from a Cluster : Permet de retirer plusieurs noeuds d’un cluster, le retrait est séquentiel mais les nœuds marqués pour suppression ne récupèrent pas de données.

Support for New Utility Actions for Playbook : Ajout de 3 nouvelles actions pour les playbooks :

  • Lookup Cluster Details
  • Lookup Host Details
  • Lookup VM Details

Support for SAML Users, SAML Groups and Organizational Units (OUs) : Ajout de la prise en charge des utilisateurs SAML, des groupes SAML et des OUs pour l’attribution des roles dans le RBAC de Prism Central.

Support for New CHAP Algorithms for Volumes : Pour les clients linux sur CentOS 8 ajout des algorithmes SHA1 et SHA256, Nutanix recommande de les utiliser pour authentification CHAP à la place des authentifications par défaut en MD5.

Support for Storage only Nodes When Expanding Clusters : Possibilité d’ajouter un Storage Only Node directement depuis prism.

Support for Restoring Network Configuration during Host Break-fix : capacité de sauvegarde de la configuration réseau d’un noeud pour éventuellement la restaurer en cas de problème. Je ne sais pas concrètement comment utiliser cette option pour le moment.

PagerDuty Integration with Prism : Permet de créer des Playbook avec de nouvelle action pour envoyer des alertes à PagerDuty.

AOS Data-in-Transit Encryption : Permet le chiffrement des données échangés entre les nœuds ce qui n’était pas le cas auparavant et nécessitait l’isolation de ces flux.

En plus voici les améliorations associé côté hyperviseur AHV

Memory Overcommit : Vous allez enfin pouvoir allouer plus de RAM que ce dont vos serveurs disposent réellement, il y a pas mal de limitation, mais c’est une très bonne étape et cela fait un moment que l’on attendait cette fonctionnalité !

ADS Support for VMs with Virtual GPUs : Acropolis Dynamic Scheduling (ADS), l’équivalent DRS côté AHV prend en charge les vGPU donc si d’autres noeuds du cluster ont des ressources vGPU disponiblent et qu’il n’y a pas d’affinité VM-Hote, il pourra équilibrer la charge grâce à la fonction « Live Migration of vGPU-enabled VM » disponible depuis la 5.18.1.

Live Migration of vGPU-enabled VMs : ajout le support des migrations à chaud de VMs avec vGPU entre clusters, les GPU passtrought ne sont pas supportés, la VM nécessite d’être protégé par une réplication synchrone pour être déplacé entre cluster, la cible doit disposer des profils de ressources GPU adéquate et la VM ne peut pas être protégé en HA.

AHV VM templates : Nouvelle capacité disponible depuis Prism Central qui permet de gérer les templates, il faudra que j’approfondisse ce point par un petit article.

Category-based Host affinity policy : Permet de gérer les affinités entre VM et Hôte depuis Prism Central à l’aide des catégories.

Support for Separate Flow Networking based VPC Traffic : Permet de séparer le trafic des VMs à l’aide de Virtual Private CLoud (VPC) Flow plutot que les virtual switches.

Improved live migration of VMs : Je n’ai pas trouvé le détail des mécanismes utilisés, mais le live migration est facilité pour les machines très consommatrices de RAM.

Enhanced fault detection for High Availability : Ajout de deux vérifications supplémentaire pour déterminer la santé d’un hôte – Corruption du file system root et si le boot du system est en lecture seule. Déclenchement du HA si le système détecte un de ces deux états ou la perte du heartbeat avec le management de l’hôte, si le serveur reste dans cet état 40 secondes, les VMs qu’il héberge sont automatiquement redémarrées sur d’autres nœuds.

IGMP Snooping : Amélioration de la gestion du trafic multicast d’AHV, IGMP snooping permet à l’hôte de surveiller les VMs qui ont besoin du trafic multicast et de ne l’envoyer qu’à celle-ci.

Switch Port Analyzer on AHV Hosts : Permet la récupération de tout le trafic d’une interface d’un hôte AHV pour le rediriger vers une VM, ce serait un peu l’équivalent d’un promiscuous mode d’un virtual switch VMware.

J’espère que ce tour d’horizon vous aura plus, j’ai mis beaucoup plus de temps que prévu pour consolider toutes ces informations, mais je pense qu’il sera utile à beaucoup d’entre vous.

J’ai fait le tour de tout ce qui concernait le DR dans la part I. Ici, je vais maintenant détailler les autres “petites nouveautés”.

Plus de détail sera apporté à la vue “Data Resiliency Status”. Je trouve que c’est pratique de retrouver l’information ici, rapidement, plutôt que d’aller chercher en ligne de commande. En image voici concrètement ce que cela donne pour un nœud en panne sur un cluster de 3 :

À savoir, le statut sera toujours noté “Computing” pendant un upgrade. J’avais déjà proposé une amélioration à ce sujet, pour mettre en sourdine les évènements liés à l’opération ce qui nous laisserait les logs plus lisibles, mais c’est en attente.

Ensuite, il y a un nouveau mécanisme d’optimisation concernant les snapshots, appelé Merge vBlock Metadata. Il permettra de limiter la perte d’IOPS avec les snapshots cumulatifs lorsque les metadatas ne proviennent pas du cache, ce qui arrive avec un changement de working set ou le reboot de stargate.

Dans le détail, lorsque nous avons une chaîne de snapshot, la donnée lue doit parfois traverser 6 entrées de vblock dans Cassandra contre 2 seulement avec les Merge vBlock. Concrètement, les gains sont de 30% sur de la lecture aléatoire au dixième snapshots et plus encore sur la relance d’un stargate.

Par contre, cette fonctionnalité est volontairement limitée aux clusters qui disposent de nœud d’une capacité de stockage entre 60 et 70TB. Cette limitation baissera avec le temps. Autre limitation, mais qui ne changera pas, Merged vblock est automatiquement désactivé s’il y a la de-duplication activée sur le conteneur. Bonne nouvelle cette technologie n’est pas soumise à un licensing particulier et tous les hyperviseurs pourront en bénéficier.

La fonctionnalité Rack Awareness est également disponible sur Hyper-V, donc tous les hyperviseurs sont maintenant supportés.

En 5.17, Nutanix Volumes supporte officiellement Windows Server 2019, idéal pour les serveurs bare metal et le Windows Failover Cluster.

Enfin la simplification du clustering avec Volumes qui supporte les réservations persistantes SCSI-3, qui évitera d’aller dans la VM pour réaliser la connexion iSCSI.

L’Erasure Coding est maintenant pleinement opérationnel avec Autonomous Extent Store (AES). Pour rappel AES introduit en 5.11 permet l’amélioration des performances en conservant une partie des metadatas sur le nœud qui exécute le worload. Nutanix Bible parle de METAdata locality, je trouve ça très explicite.

Pour terminer, le licensing pour Object est maintenant géré depuis Prism Central. Mercury sera la nouvelle passerelle API développé en C++ pour diverses optimisations et Prism Central pourra supporter jusqu’à 300 clusters (avec un noeud chacun) et 25 000 VMs. Uniquement pour les nouveaux déploiements de Prism Central, il y aura la possibilité d’améliorer les performances en répartissant la charge sur plusieurs vDisks.

N’hésitez pas à donner votre avis en commentaire, mais je trouve cette mise à jour impressionnante. Elle apporte une réponse à ce que pas mal de clients demandent depuis quelque temps. Même si tout n’est pas encore implémenté, les briques sont là et les prochaines versions viendront améliorer tout ça !

Je ne vais pas faire durer plus longtemps le suspense, la réplication synchrone est arrivée sur AHV ! Cette release est le grand pas en avant que beaucoup de clients attendaient pour tout ce qui concerne la reprise sur sinistre (Disaster Recover – DR).

À nous le RPO 0, la simplicité de configuration d’une seule stratégie qui protégerait toutes nos VMs Mission Critical ! Contrairement au métro cluster sur ESXi qui fonctionne par datastore, ici la granularité est à la VM. On peut la mettre en pause, la stopper et l’appliquer au travers de catégories.

Concernant les contraintes et prérequis un petit schéma vaut mieux que mille mots :

En premier lieu, il faut un Prism Central (PC) sur chaque site. Pour cette première version, seule la bascule non planifiée (unplanned failover) est supportée. La bascule planifiée viendra par la suite pour démontrer aux divers auditeurs que vous avez testé votre scénario de bascule. Si vous lancez quand même la bascule aujourd’hui pour tester, cela généra un split brain. Il est conseillé d’éteindre les VMs avant 😉

Dans la même veine, pas d’option pour un témoin (witness), mais c’est prévu. Le failback fonctionne de la même façon (unplanned failover, éteindre les VMs, récupérer depuis le dernier point de récupération ou plus loin dans le temps comme sur Metro).

Pour les environnements qui ne nécessitent pas un RPO 0, il y a le Near-Sync d’une à quatorze minutes. Near-Sync était déjà disponible au niveau des Protections Domains historiques. Il est ici question de l’implémentation dans Leap, le moteur de bascule utilisé pour XI Leap. Pas de changement concernant les anciens prérequis du Near-sync. Enfin, la protection ne concerne que 100 VMs pour le moment, et cela devrait rapidement doubler.

AOS 5.17 apporte aussi le support d’un seul Prism Central pour Leap, s’il est utilisé pour les réplications asynchrones donc tout ce qui est au-delà de l’heure. Pas de Cross-Hypervisor DR non plus, la source et la destination doivent avoir le même hyperviseur, enfin le PC et le Prism Element (PE) doivent être en 5.17 tous les deux et disposer du mappage réseau dans le plan de récupération.

Single PC support for Leap

Enfin pour Metro ESXi uniquement, le support du near-sync, alors là vous vous dites que j’ai bugué, moi aussi je suis resté bloqué un moment pour comprendre. En plus du Metro entre votre Site A et B, vous cumulez le NearSync avec un site C, et si vous avez un site D (Flush Flash uniquement) vous pouvez ajouter une réplication Async de 3 minutes au niveau du conteneur. Le tout pilotable avec Site Recovery Manager (SRM) de VMware, en plus de Prism Element ! Ce scénario ne devrait intéresser qu’un petit nombre de clients haut de gamme avec des besoins vraiment spécifiques.

Demandé par de nombreux clients qui ont à cœur la séparation de leur flux réseaux pour des questions de sécurité principalement, et qui avaient sûrement déjà isolé leur flux Volumes (iSCSI) depuis la 5.11, voici la segmentation réseau pour la Réplication. Nous aurons la possibilité de créer un nouveau réseau pour la réplication externe. Supporté par ESXi et AHV, ce n’est pas compatible Leap, mais uniquement sur les Protections Domains. Attention, cela concerne plutôt les nouvelles installations. Sinon vous devrez supprimer le site distant et le refaire après avoir créé la nouvelle VIP pour ce trafic.

CVM Network Isolation

À la façon d’un VMware SRM, nous pouvons maintenant faire du mappage d’adresse IP statique dans Leap, ainsi que lancer un script pendant la séquence de démarrage de la VM :

C’est fini pour les nouveautés spécifiques au DR, la suite ici dans la partie 2 .