J’ai encore eu la chance d’assister à l’événement Nutanix européen, après Barcelone avec VMware en début de mois. Novembre à été très riche en annonces.

Pas moins de 3500 personnes ont fait le déplacement à Londres en cette fin de mois pour assister aux annonces de Nutanix. Je vais vous résumer la traditionnelle keynote qui a officiellement inauguré ces quelques jours.

Après une vidéo d’introduction sur les notions de libertés, Nutanix tient à nous rappeler que l’entreprise est maintenant un éditeur tourner à 100% sur le software. Vous êtes libre d’installer leur produit sur le matériel de votre choix, de vous interfacer avec le cloud de votre choix, mais aussi de choisir l’hyperviseur de votre choix. S’en suit un show footballistique et Michael Ballack, ancien capitaine de l’équipe nationale d’Allemagne arrive sur scène pour faire le coup d’envoi de cette Keynote. Il passe le relais à Ben Gibson Chielf Marketing Officer, très content de nous annoncer que Gartner a positionné Nutanix en “haut à droite” dans le Magic Quandrant des infrastructures hyperconvergées.

Lire la suite

Alors que les upgrades AHV sont habituellement beaucoup plus calmes que les upgrades ESXi sur la plateforme Nutanix, je me retrouve ce matin avec une mise à jour figée vers 5.5.2. Les détails de tâches indiquent que l’opération est en cours, mais elle traîne vraiment depuis un long moment.

Le détail de la tâche en cours correspond à la mise en maintenance de l’hôte afin de déplacer les VMs qu’il héberge pour le redémarrer sans impact :

En vérifiant l’état des hôtes sur le cluster, je m’aperçois qu’il y a bien un nœud en maintenance (schedulable à False), mais ce n’est pas celui dont la mise à jour est en cours. Je le sort de maintenance, puis je rajoute celui qui est censé y être.

acli
host.list
host.exit_maintenance_mode fqdn.server
host.list #verifier l'etat de l'hôte
host.enter_maintenance_mode fqdn.server

Après cette opération, les VMs ont été déplacés automatiquement à chaud et le nœud AHV est passé en maintenance, ce qui a débloqué le reste du processus de patching.

Les nouveaux nœuds Nutanix ont été réceptionnés. Ils sont maintenant rackés, câblés en datacenter, prêts à être ajoutés aux clusters existants.

Afin de réaliser l’opération d’installation, le réseau est configuré en “access” sur le même VLAN que mes autres CVM. Je modifierai la configuration après l’ajout du noeud.

Autre prérequis l’iDrac (oui, ce sont des serveurs Dell) est sur le même plan d’adressage que les autres IPMI, déjà en place dans le cluster.

J’ai déjà eu le problème avec un iDrac sur un autre VLAN et on obtient une erreur : “Failed to perform network validation !”

Je prépare mes adresses IP et je suis enfin prêt pour l’Expand Cluster.

Comme le réseau est correctement configuré, le nouveau nœud est disponible.

Je renseigne les champs pour les adresses IP qui permettent aisément la configuration de plusieurs nœuds à la fois, si les adresses se suivent.

Concernant la détection automatique des masques de sous-réseau, je pense qu’il y a un souci comme vous pouvez le voir sur la capture. Ils ne sont jamais corrects, mais l’installation se poursuit sans encombre.

La deuxième étape consiste à ré-imager l’hôte avec le même hyperviseur que les autres membres du cluster, dans mon cas ESXi.

Ici, on constate que la version n’est pas tout à fait la même. Je procéderai avec VMware Update Manager pour l’application des derniers correctifs et venir au même niveau que le cluster. Je procède à la phase de vérification en cliquant sur “Run Checks”.

 

 

SI la vérification est concluante…

 

…il est temps de cliquer sur “Expend Cluster”.

 

L’opération est assez longue, elle contient une multitude de sous-tâches.

L’ajout du nœud a pris une heure et s’est terminé correctement. Il me reste maintenant à configurer l’hyperviseur et le cluster profitera rapidement d’une ressource supplémentaire pour repartir la charge.

Encore une fonctionnalité de Prism très pratique. L’important est de bien respecter les prérequis et l’extension du cluster sera réalisée en quelques clics seulement.

Dans la série “One Click” sur Nutanix, je vais tester aujourd’hui l’extension de RAM des CVM.

Je n’avais jamais eu l’opportunité de tester cette option relativement récente de Prism “Configure CVM” :

Un menu déroulant permet de choisir la quantité de RAM allouée aux CVM :

Une fois la sélection effectuée, toutes les CVM impactées sont listées :

On valide en cliquant sur “Apply”, puis un dernier avertissement nous prévient que Prism pourrait être temporairement indisponible :

On valide sur “Yes”, puis l’opération débute :

La tâche se déroule avec succès, sans encombre…

Les CVM sont maintenant à 32GB de RAM.

Encore une option qui simplifie la vie. Je vais bientôt recevoir de nouveau nœud donc prochainement “OneClick ExpandCluster”.

Une des rares opérations pas vraiment transparente lorsque l’on administre des noeuds Nutanix avec ESXi comme hyperviseur concerne la mise en maintenance.

Comme vous le savez la CVM est liée au stockage local de l’hôte et ne sera pas déplacé par un vMotion pour la mise en maintenance, il faut donc l’eteindre.

Oui mais comment ? Pendant longtemps je pensais à tort qu’un “Shut Down Guest OS” était suffisant, qu’un hook avait été mis en place dans la CVM pour intercepter ce type d’ordre et proceder proprement à l’extinction. (Et en discutant autour de moi, je n’étais pas le seul à penser ça)

Sur les conseils d’un contact Nutan, j’ai ouvert un ticket au support pour en avoir le coeur net et il n’en ai rien, la seule méthode supportée consiste à se connecter à la CVM et executer la commande :

cvm_shutdown -P now

qui permet de réellement prévenir les autres noeuds du cluster que la CVM n’est plus disponible et ce point n’est pas présent via VMware.

Je vous met en lien les références Nutanix :

Shutting Down a Node in a Cluster (vSphere Web Client)

et aussi

Shutting down all nodes in a cluster for maintenance or relocation