J’ai récemment obtenu la certification Nutanix Certified Master – Multi Cloud Infrastructure, l’occasion pour moi de revenir sur mon parcours de certification Nutanix.

Ma première sur le sujet remonte en 2018 avec la Nutanix Platform Professional, à l’époque, l’examen se passait déjà en ligne, avec la possibilité d’utiliser internet et la documentation, ce qui se rapproche plus de notre travail quotidien avec google à porté de main. Finalement ce modèle a été abandonné, il posait aussi de vrais soucis, car l’identité de celui qui passait l’examen n’était pas vérifiée.

Ce point n’est aujourd’hui plus du tout un problème même si vous passez les examens à distances, car Nutanix s’appuie sur la plateforme PSI et vous allez voir qu’ils ne prennent pas ça à la légère, j’ai même le sentiment que c’est de plus en plus strict.

L’outil principal pour se former aujourd’hui est Nutanix University qui vient d’ailleurs de subir un petit lifting, le site est plus accessible et pratique à suivre, certaines sections sont traduites progressivement en français même si les examens se passent en anglais.

L’accès à la Nutanix University nécessite d’avoir un compte my.nutanix et la quasi-totalité du contenu est gratuit ! Il y a maintenant 4 niveaux d’expertises, dès 6 mois à 1 an d’expérience, jusqu’aux certifications les plus avancées. De nouveaux programmes ont fait leur apparition avec des parcours, orientés End User Computing, DevOps, Multicloud et Datacenter Services.

Lorsque vous aurez étudié tous les points d’un des plans de formations, essayez de parcourir l’ensemble des points des BluePrint de certifications: il s’agit de documents qui résument point par point ce qu’on attend de vous et ce que vous devez maîtriser pour la certification. C’est un outil indispensable, qui permet de savoir exactement ce qu’on attend de vous, ce que vous devrez réviser.

Ensuite, il est temps de s’inscrire et planifier votre certification (attention les horaires sont au format Anglais, si vous arrivez 30 minutes en retard, votre certif est fichue) . Pour passer l’examen à distance, vous devrez installer leur outil qui permet de surveiller votre machine afin d’éviter toute forme de tricherie ou d’enregistrement de la session.

N’hésitez pas à arriver 30 minutes avant le début de votre examen comme recommandé, car la procédure de sécurité peu être assez longue :

  • vérification de votre pièce d’identité.
  • Vérification de la salle, avec votre webcam, vous allez devoir montrer, les 4 murs, un bureau vide, avec un seul moniteur, pas d’enceintes.

Concernant les conditions, si quelqu’un rentre dans la pièce, l’examen est un échec, pensez à vous enfermer. Vous ne devez pas avoir de stylo, ni de téléphone, ni de smartwatch, ni d’écouteurs. Il est interdit de manger même un chewing-gum ou un bonbon, boire, parler, de chuchoter, il ne faut pas se masquer la bouche, j’ai par exemple l’habitude de me coiffer la barbe pendant que je réfléchis, et le surveillant m’a déjà mis l’examen en pause pour me demander d’arrêter de masquer ma bouche.

Avec plus d’une dizaine de certifications, j’ai exploré les différentes branches que ce soit celles orientées administration, architecture, mais aussi avant-vente ou service. Ayant participé à de nombreuses bêtas et c’est devenu pour moi un moyen de régulièrement mettre à jour mes connaissances, car les innovations apparaissent très régulièrement. Comme beaucoup d’éditeurs, l’obtention d’une certification débloque le badge associé sur Acclaim, ce service permet entre autres, la vérification d’authenticité et de la date d’obtention de la certification, voici ma page pour se faire une idée : https://www.youracclaim.com/users/matthieu-gioia/badges

Je ne peux qu’encourager les plus curieux d’entre vous à essayer le nouveau parcours Nutanix Certicied Associate, qui est le programme pour commencer à bâtir une carrière dans la technologie multicloud.

Je ne vais pas faire durer plus longtemps le suspense, la réplication synchrone est arrivée sur AHV ! Cette release est le grand pas en avant que beaucoup de clients attendaient pour tout ce qui concerne la reprise sur sinistre (Disaster Recover – DR).

À nous le RPO 0, la simplicité de configuration d’une seule stratégie qui protégerait toutes nos VMs Mission Critical ! Contrairement au métro cluster sur ESXi qui fonctionne par datastore, ici la granularité est à la VM. On peut la mettre en pause, la stopper et l’appliquer au travers de catégories.

Concernant les contraintes et prérequis un petit schéma vaut mieux que mille mots :

En premier lieu, il faut un Prism Central (PC) sur chaque site. Pour cette première version, seule la bascule non planifiée (unplanned failover) est supportée. La bascule planifiée viendra par la suite pour démontrer aux divers auditeurs que vous avez testé votre scénario de bascule. Si vous lancez quand même la bascule aujourd’hui pour tester, cela généra un split brain. Il est conseillé d’éteindre les VMs avant 😉

Dans la même veine, pas d’option pour un témoin (witness), mais c’est prévu. Le failback fonctionne de la même façon (unplanned failover, éteindre les VMs, récupérer depuis le dernier point de récupération ou plus loin dans le temps comme sur Metro).

Pour les environnements qui ne nécessitent pas un RPO 0, il y a le Near-Sync d’une à quatorze minutes. Near-Sync était déjà disponible au niveau des Protections Domains historiques. Il est ici question de l’implémentation dans Leap, le moteur de bascule utilisé pour XI Leap. Pas de changement concernant les anciens prérequis du Near-sync. Enfin, la protection ne concerne que 100 VMs pour le moment, et cela devrait rapidement doubler.

AOS 5.17 apporte aussi le support d’un seul Prism Central pour Leap, s’il est utilisé pour les réplications asynchrones donc tout ce qui est au-delà de l’heure. Pas de Cross-Hypervisor DR non plus, la source et la destination doivent avoir le même hyperviseur, enfin le PC et le Prism Element (PE) doivent être en 5.17 tous les deux et disposer du mappage réseau dans le plan de récupération.

Single PC support for Leap

Enfin pour Metro ESXi uniquement, le support du near-sync, alors là vous vous dites que j’ai bugué, moi aussi je suis resté bloqué un moment pour comprendre. En plus du Metro entre votre Site A et B, vous cumulez le NearSync avec un site C, et si vous avez un site D (Flush Flash uniquement) vous pouvez ajouter une réplication Async de 3 minutes au niveau du conteneur. Le tout pilotable avec Site Recovery Manager (SRM) de VMware, en plus de Prism Element ! Ce scénario ne devrait intéresser qu’un petit nombre de clients haut de gamme avec des besoins vraiment spécifiques.

Demandé par de nombreux clients qui ont à cœur la séparation de leur flux réseaux pour des questions de sécurité principalement, et qui avaient sûrement déjà isolé leur flux Volumes (iSCSI) depuis la 5.11, voici la segmentation réseau pour la Réplication. Nous aurons la possibilité de créer un nouveau réseau pour la réplication externe. Supporté par ESXi et AHV, ce n’est pas compatible Leap, mais uniquement sur les Protections Domains. Attention, cela concerne plutôt les nouvelles installations. Sinon vous devrez supprimer le site distant et le refaire après avoir créé la nouvelle VIP pour ce trafic.

CVM Network Isolation

À la façon d’un VMware SRM, nous pouvons maintenant faire du mappage d’adresse IP statique dans Leap, ainsi que lancer un script pendant la séquence de démarrage de la VM :

C’est fini pour les nouveautés spécifiques au DR, la suite ici dans la partie 2 .

Si comme moi, vous avez un environnement Nutanix CE Nested avec peu de puissance, il n’est pas forcement évident d’héberger une VM Prism Central sur celui-ci, j’ai tenté l’opération à plusieurs reprises et j’ai systématiquement eu un kernel panic sur la VM.

J’ai donc installé le dernier Prism Central sur une autre infrastructure et je souhaite maintenant y connecter la Community Edition. Pour information cette configuration n’est vraiment pas idéale car de nombreuses options de Prism Central ne seront pas disponibles s’il n’est pas hébergé sur le cluster Nutanix.

Normalement il suffit simplement de cliquer sur Register or create new

Comme dit précédemment le Prism Central est déjà installé, je cherche simplement à m’y connecter.

Un résumé de l’impact de l’intégration du Prism Element à Prism central apparaît.

Je rentre les informations de connexion, puis je valide la connexion.

Malheureusement l’opération ne s’exécute pas entièrement.

L’opération échoue dès la vérification des prérequis avec le message d’erreur : The AOS version 2019.11.22 of this cluster is not compatible with the Prism Central version 5.11.2.1

The AOS version 2019.11.22 of this cluster is not compatible with the Prism Central version 5.11.2.1

Pour éviter cette erreur, il faut modifier le fichier json de compatibilité sur la VM Prism Central.

Le fichier se trouve à l'emplacement : 
~/prism/webapps/PrismGateway/WEB-INF/classes/prism_central_compatibility.json

J'en fait une copie par sécurité :
cp ~/prism/webapps/PrismGateway/WEB-INF/classes/prism_central_compatibility.json ~/prism/webapps/PrismGateway/WEB-INF/classes/prism_central_compatibility.json.bck

 puis je modifie comme suit :

{"minimum":"5.5","maximum":"2019.11.22","exceptions":{"versions":["5.6","5.8"]}}

Une fois le fichier modifié et sauvegardé, je retente l’opération qui cette fois est un succès.

Le Prism Element de la Comunity Edition est maintenant connecté à la dernière version en date de Prism Central !

Post-install

CVM

  • Ajout vlan tag : change_cvm_vlan 50
  • enlever vlan tag : change_cvm_vlan 0
  • change rf d’un container : ncli container edit rf=3 name=container_name
  • check du br0 : allssh manage_ovs show_uplinks
  • 10G uniquement dans le br0 : allssh manage_ovs --interfaces 10g update_uplinks
  • ncli cluster set-timezone timezone=Europe/Paris
  • cluster -s 192.168.0.110,192.168.0. 111,192.168.0.112 create
  • /etc/sysconfig/network-scripts/ifcfg-eth0

AHV

  • Changer le vlan d’AHV: ovs-vsctl set port br0 tag=50
  • retirer le vlan: ovs-vsctl set port br0 tag=0
  • chemin des fichiers conf réseaux : /etc/sysconfig/network-scripts/ifcfg-br0 puis Sudo systemctl restart network.service
  • Renommage AHV : /etc/sysconfig/network et /etc/hostname puis reboot du noeud
  • acli vm.list power_state=on
  • acli vm.shutdown
  • acli vm.off
  • Changement de vlan pour VM : acli vm.nic_get VMNAME -> acli vm.nic_update VMNAME MACADDRESS network=NETWORKDESTINATION
  • éteindre AFS : afs > infra.stop * puis infra.start *
  • changement d’interface active : ovs-appctl bond/set-active-passive br0-up eth3
  • Fallback vers active-backup : ovs-vsctl set port br0-up other_config:lacp-fallback- ab=true
  • En fonction du switch OVS LACP timer : ovs-vsctl set port br0-up other_config:lacp-time=fast
  • ncli cluster set-timezone timezone=Europe/Paris
  • ovs-vsctl show
  • ethtool eth0
  • ifup eth0 – ifdown eth0

ESX

  • Création portgroup : esxcli network vswitch standard portgroup add --portgroup-name=VM_VLAN_50 --vswitch-name=vSwitch0
  • Changement vlan portgroup : esxcfg-vswitch -p “VM_VLAN_50” -v 50 vSwitch0
  • Assigner VM : Get-VM toto| Get-NetworkAdapter | Set-NetworkAdapter -StartConnected $true -NetworkName “$DRNetWorkLabel” -Confirm:$false -RunAsync

Prism Central

  • Application Deployement Error -> cluster --cluster_function_list="multicluster" -s [ip_address_PrismCentralVM] create
  • Reset Admin password : ncli user reset-password user-name="admin" password="Enter_New_Password" (c’est étrange mais parfois un peu long a prendre en compte)
  • add DNS parfois manuel obligatoire ncli cluster add-to-name-servers servers="192.168.0.50"
  • allssh sudo faillock --user admin --reset
  • ncli cluster set-timezone timezone=Europe/Paris

Diagnostique

CVM

  • passer une commande sur toutes les CVM : allssh
  • passer une commande sur tous les hôtes depuis une cvm : hostssh
  • verifier le vlan des cvm : hostssh “ovs-vsctl show | grep vnet[0-1] -A2”
  • cluster status | grep -v UP
  • ncli -v
  • nodetool -h 0 ring
  • ncli cluster get-domain-fault-tolerance-status type=node
  • allssh df -h
  • Verif latence entre les CVMs : tailf ~nutanix/data/logs/sysstats/ping_cvm_hosts.INFO
  • connexion à l’hôte depuis la CVM : ssh root@192.168.5.1
  • hostssh ipmitool lan print | grep “==\|IP Address\|MAC Address”
  • conf matériel : ncc hardware_info show_hardware_info

AHV

  • Change Buffer RX size AHV : si ethtool -S eth0 | grep -i error donne des rx_missed_errors ethtool -g eth0, voir le max possible puis ethtool -G eth0 rx 4096 ce n’est plus la recommandation du support
  • pb de disque : df -h voir cd data/logs tail hades.out voir cat hades.out | grep -C enfin restart hades pour voir le nouveau disque
  • verif latence entre les hotes : tailf ~nutanix/data/logs/sysstats/ping_hosts.INFO
  • connexion à la CVM depuis l’hôte ssh nutanix@192.168.5.254
  • virsh list – virsh start
  • conf dhcp iDrac : ipmitool lan set 1 ipsrc dhcp
  • reset impi : ipmitool mc reset cold

LCM

  • url par defaut : http://download.nutanix.com/lcm/2.0

En tant qu’ancien “Admin Citrix”, j’ai tout de suite été intéressé par Frame. Quelle était cette solution dont je n’avais jamais entendu parler avant le rachat par Nutanix et qui semblait proposer une offre à la “Citrix Cloud” ? J’ai enfin eu le temps de regarder de plus près et de voir si le produit tient ses promesses !

Lire la suite