J’ai fait le tour de tout ce qui concernait le DR dans la part I. Ici, je vais maintenant détailler les autres “petites nouveautés”.

Plus de détail sera apporté à la vue “Data Resiliency Status”. Je trouve que c’est pratique de retrouver l’information ici, rapidement, plutôt que d’aller chercher en ligne de commande. En image voici concrètement ce que cela donne pour un nœud en panne sur un cluster de 3 :

À savoir, le statut sera toujours noté “Computing” pendant un upgrade. J’avais déjà proposé une amélioration à ce sujet, pour mettre en sourdine les évènements liés à l’opération ce qui nous laisserait les logs plus lisibles, mais c’est en attente.

Ensuite, il y a un nouveau mécanisme d’optimisation concernant les snapshots, appelé Merge vBlock Metadata. Il permettra de limiter la perte d’IOPS avec les snapshots cumulatifs lorsque les metadatas ne proviennent pas du cache, ce qui arrive avec un changement de working set ou le reboot de stargate.

Dans le détail, lorsque nous avons une chaîne de snapshot, la donnée lue doit parfois traverser 6 entrées de vblock dans Cassandra contre 2 seulement avec les Merge vBlock. Concrètement, les gains sont de 30% sur de la lecture aléatoire au dixième snapshots et plus encore sur la relance d’un stargate.

Par contre, cette fonctionnalité est volontairement limitée aux clusters qui disposent de nœud d’une capacité de stockage entre 60 et 70TB. Cette limitation baissera avec le temps. Autre limitation, mais qui ne changera pas, Merged vblock est automatiquement désactivé s’il y a la de-duplication activée sur le conteneur. Bonne nouvelle cette technologie n’est pas soumise à un licensing particulier et tous les hyperviseurs pourront en bénéficier.

La fonctionnalité Rack Awareness est également disponible sur Hyper-V, donc tous les hyperviseurs sont maintenant supportés.

En 5.17, Nutanix Volumes supporte officiellement Windows Server 2019, idéal pour les serveurs bare metal et le Windows Failover Cluster.

Enfin la simplification du clustering avec Volumes qui supporte les réservations persistantes SCSI-3, qui évitera d’aller dans la VM pour réaliser la connexion iSCSI.

L’Erasure Coding est maintenant pleinement opérationnel avec Autonomous Extent Store (AES). Pour rappel AES introduit en 5.11 permet l’amélioration des performances en conservant une partie des metadatas sur le nœud qui exécute le worload. Nutanix Bible parle de METAdata locality, je trouve ça très explicite.

Pour terminer, le licensing pour Object est maintenant géré depuis Prism Central. Mercury sera la nouvelle passerelle API développé en C++ pour diverses optimisations et Prism Central pourra supporter jusqu’à 300 clusters (avec un noeud chacun) et 25 000 VMs. Uniquement pour les nouveaux déploiements de Prism Central, il y aura la possibilité d’améliorer les performances en répartissant la charge sur plusieurs vDisks.

N’hésitez pas à donner votre avis en commentaire, mais je trouve cette mise à jour impressionnante. Elle apporte une réponse à ce que pas mal de clients demandent depuis quelque temps. Même si tout n’est pas encore implémenté, les briques sont là et les prochaines versions viendront améliorer tout ça !

Je ne vais pas faire durer plus longtemps le suspense, la réplication synchrone est arrivée sur AHV ! Cette release est le grand pas en avant que beaucoup de clients attendaient pour tout ce qui concerne la reprise sur sinistre (Disaster Recover – DR).

À nous le RPO 0, la simplicité de configuration d’une seule stratégie qui protégerait toutes nos VMs Mission Critical ! Contrairement au métro cluster sur ESXi qui fonctionne par datastore, ici la granularité est à la VM. On peut la mettre en pause, la stopper et l’appliquer au travers de catégories.

Concernant les contraintes et prérequis un petit schéma vaut mieux que mille mots :

En premier lieu, il faut un Prism Central (PC) sur chaque site. Pour cette première version, seule la bascule non planifiée (unplanned failover) est supportée. La bascule planifiée viendra par la suite pour démontrer aux divers auditeurs que vous avez testé votre scénario de bascule. Si vous lancez quand même la bascule aujourd’hui pour tester, cela généra un split brain. Il est conseillé d’éteindre les VMs avant 😉

Dans la même veine, pas d’option pour un témoin (witness), mais c’est prévu. Le failback fonctionne de la même façon (unplanned failover, éteindre les VMs, récupérer depuis le dernier point de récupération ou plus loin dans le temps comme sur Metro).

Pour les environnements qui ne nécessitent pas un RPO 0, il y a le Near-Sync d’une à quatorze minutes. Near-Sync était déjà disponible au niveau des Protections Domains historiques. Il est ici question de l’implémentation dans Leap, le moteur de bascule utilisé pour XI Leap. Pas de changement concernant les anciens prérequis du Near-sync. Enfin, la protection ne concerne que 100 VMs pour le moment, et cela devrait rapidement doubler.

AOS 5.17 apporte aussi le support d’un seul Prism Central pour Leap, s’il est utilisé pour les réplications asynchrones donc tout ce qui est au-delà de l’heure. Pas de Cross-Hypervisor DR non plus, la source et la destination doivent avoir le même hyperviseur, enfin le PC et le Prism Element (PE) doivent être en 5.17 tous les deux et disposer du mappage réseau dans le plan de récupération.

Single PC support for Leap

Enfin pour Metro ESXi uniquement, le support du near-sync, alors là vous vous dites que j’ai bugué, moi aussi je suis resté bloqué un moment pour comprendre. En plus du Metro entre votre Site A et B, vous cumulez le NearSync avec un site C, et si vous avez un site D (Flush Flash uniquement) vous pouvez ajouter une réplication Async de 3 minutes au niveau du conteneur. Le tout pilotable avec Site Recovery Manager (SRM) de VMware, en plus de Prism Element ! Ce scénario ne devrait intéresser qu’un petit nombre de clients haut de gamme avec des besoins vraiment spécifiques.

Demandé par de nombreux clients qui ont à cœur la séparation de leur flux réseaux pour des questions de sécurité principalement, et qui avaient sûrement déjà isolé leur flux Volumes (iSCSI) depuis la 5.11, voici la segmentation réseau pour la Réplication. Nous aurons la possibilité de créer un nouveau réseau pour la réplication externe. Supporté par ESXi et AHV, ce n’est pas compatible Leap, mais uniquement sur les Protections Domains. Attention, cela concerne plutôt les nouvelles installations. Sinon vous devrez supprimer le site distant et le refaire après avoir créé la nouvelle VIP pour ce trafic.

CVM Network Isolation

À la façon d’un VMware SRM, nous pouvons maintenant faire du mappage d’adresse IP statique dans Leap, ainsi que lancer un script pendant la séquence de démarrage de la VM :

C’est fini pour les nouveautés spécifiques au DR, la suite ici dans la partie 2 .

Si comme moi, vous avez un environnement Nutanix CE Nested avec peu de puissance, il n’est pas forcement évident d’héberger une VM Prism Central sur celui-ci, j’ai tenté l’opération à plusieurs reprises et j’ai systématiquement eu un kernel panic sur la VM.

J’ai donc installé le dernier Prism Central sur une autre infrastructure et je souhaite maintenant y connecter la Community Edition. Pour information cette configuration n’est vraiment pas idéale car de nombreuses options de Prism Central ne seront pas disponibles s’il n’est pas hébergé sur le cluster Nutanix.

Normalement il suffit simplement de cliquer sur Register or create new

Comme dit précédemment le Prism Central est déjà installé, je cherche simplement à m’y connecter.

Un résumé de l’impact de l’intégration du Prism Element à Prism central apparaît.

Je rentre les informations de connexion, puis je valide la connexion.

Malheureusement l’opération ne s’exécute pas entièrement.

L’opération échoue dès la vérification des prérequis avec le message d’erreur : The AOS version 2019.11.22 of this cluster is not compatible with the Prism Central version 5.11.2.1

The AOS version 2019.11.22 of this cluster is not compatible with the Prism Central version 5.11.2.1

Pour éviter cette erreur, il faut modifier le fichier json de compatibilité sur la VM Prism Central.

Le fichier se trouve à l'emplacement : 
~/prism/webapps/PrismGateway/WEB-INF/classes/prism_central_compatibility.json

J'en fait une copie par sécurité :
cp ~/prism/webapps/PrismGateway/WEB-INF/classes/prism_central_compatibility.json ~/prism/webapps/PrismGateway/WEB-INF/classes/prism_central_compatibility.json.bck

 puis je modifie comme suit :

{"minimum":"5.5","maximum":"2019.11.22","exceptions":{"versions":["5.6","5.8"]}}

Une fois le fichier modifié et sauvegardé, je retente l’opération qui cette fois est un succès.

Le Prism Element de la Comunity Edition est maintenant connecté à la dernière version en date de Prism Central !

Post-install

CVM

  • Ajout vlan tag : change_cvm_vlan 50
  • enlever vlan tag : change_cvm_vlan 0
  • change rf d’un container : ncli container edit rf=3 name=container_name
  • check du br0 : allssh manage_ovs show_uplinks
  • 10G uniquement dans le br0 : allssh manage_ovs --interfaces 10g update_uplinks
  • ncli cluster set-timezone timezone=Europe/Paris
  • cluster -s 192.168.0.110,192.168.0. 111,192.168.0.112 create
  • /etc/sysconfig/network-scripts/ifcfg-eth0

AHV

  • Changer le vlan d’AHV: ovs-vsctl set port br0 tag=50
  • retirer le vlan: ovs-vsctl set port br0 tag=0
  • chemin des fichiers conf réseaux : /etc/sysconfig/network-scripts/ifcfg-br0 puis Sudo systemctl restart network.service
  • Renommage AHV : /etc/sysconfig/network et /etc/hostname puis reboot du noeud
  • acli vm.list power_state=on
  • acli vm.shutdown
  • acli vm.off
  • Changement de vlan pour VM : acli vm.nic_get VMNAME -> acli vm.nic_update VMNAME MACADDRESS network=NETWORKDESTINATION
  • éteindre AFS : afs > infra.stop * puis infra.start *
  • changement d’interface active : ovs-appctl bond/set-active-passive br0-up eth3
  • Fallback vers active-backup : ovs-vsctl set port br0-up other_config:lacp-fallback- ab=true
  • En fonction du switch OVS LACP timer : ovs-vsctl set port br0-up other_config:lacp-time=fast
  • ncli cluster set-timezone timezone=Europe/Paris
  • ovs-vsctl show
  • ethtool eth0
  • ifup eth0 – ifdown eth0

ESX

  • Création portgroup : esxcli network vswitch standard portgroup add --portgroup-name=VM_VLAN_50 --vswitch-name=vSwitch0
  • Changement vlan portgroup : esxcfg-vswitch -p “VM_VLAN_50” -v 50 vSwitch0
  • Assigner VM : Get-VM toto| Get-NetworkAdapter | Set-NetworkAdapter -StartConnected $true -NetworkName “$DRNetWorkLabel” -Confirm:$false -RunAsync

Prism Central

  • Application Deployement Error -> cluster --cluster_function_list="multicluster" -s [ip_address_PrismCentralVM] create
  • Reset Admin password : ncli user reset-password user-name="admin" password="Enter_New_Password" (c’est étrange mais parfois un peu long a prendre en compte)
  • add DNS parfois manuel obligatoire ncli cluster add-to-name-servers servers="192.168.0.50"
  • allssh sudo faillock --user admin --reset
  • ncli cluster set-timezone timezone=Europe/Paris

Diagnostique

CVM

  • passer une commande sur toutes les CVM : allssh
  • passer une commande sur tous les hôtes depuis une cvm : hostssh
  • verifier le vlan des cvm : hostssh “ovs-vsctl show | grep vnet[0-1] -A2”
  • cluster status | grep -v UP
  • ncli -v
  • nodetool -h 0 ring
  • ncli cluster get-domain-fault-tolerance-status type=node
  • allssh df -h
  • Verif latence entre les CVMs : tailf ~nutanix/data/logs/sysstats/ping_cvm_hosts.INFO
  • connexion à l’hôte depuis la CVM : ssh root@192.168.5.1
  • hostssh ipmitool lan print | grep “==\|IP Address\|MAC Address”
  • conf matériel : ncc hardware_info show_hardware_info

AHV

  • Change Buffer RX size AHV : si ethtool -S eth0 | grep -i error donne des rx_missed_errors ethtool -g eth0, voir le max possible puis ethtool -G eth0 rx 4096 ce n’est plus la recommandation du support
  • pb de disque : df -h voir cd data/logs tail hades.out voir cat hades.out | grep -C enfin restart hades pour voir le nouveau disque
  • verif latence entre les hotes : tailf ~nutanix/data/logs/sysstats/ping_hosts.INFO
  • connexion à la CVM depuis l’hôte ssh nutanix@192.168.5.254
  • virsh list – virsh start
  • conf dhcp iDrac : ipmitool lan set 1 ipsrc dhcp
  • reset impi : ipmitool mc reset cold

LCM

  • url par defaut : http://download.nutanix.com/lcm/2.0

Avec le téra offert pour chaque cluster Nutanix, l’occasion de mettre en place ce serveur de fichiers distribués à la sauce Nutanix était trop tentante. Nous allons tester celui-ci histoire de voir s’il pourrait répondre à nos besoins pour une partie des profils d’utilisateurs VDI Xendesktop.

Lire la suite