Je l’ai déjà indiqué dans un précédent article, je ne suis pas un spécialiste du matériel Dell et le client n’en dispose que pour nos clusters Nutanix.

Voici le script que j’utilise pour configurer les noeuds en mode “Maximum Performance”.

Si vous débutez comme moi sur le sujet, je vous conseille mon précédent article qui décrit en détail l’installation de l’outil de configuration distant RACADM (Remote Access Controller Admin).

#Chargement Cmdlet Nutanix
asnp nutanix*
 
#Choix du cluster
$Cluster = Read-host "IP address of the Nutanix cluster to update"

$iDracPwd = Read-host "iDrac root Password"
 
Connect-NTNXCluster $Cluster -AcceptInvalidSSLCerts -UserName:Admin -ForcedConnection   


Get-NTNXHost | select name,ipmiaddress,managementservername
 
$IPMIs = (Get-NTNXHost).ipmiaddress
 
foreach ($IPMI in $IPMIS) {
 
write-host "Modification des parametres BIOS du noeud $IPMI"
 
racadm.exe -r "$IPMI" -u root -p $iDracPwd set bios.SysProfileSettings.SysProfile Custom
racadm.exe -r "$IPMI" -u root -p $iDracPwd set bios.SysProfileSettings.ProcPwrPerf MaxPerf
racadm.exe -r "$IPMI" -u root -p $iDracPwd jobqueue create BIOS.setup.1-1
 
Cette commande permet d'avoir un retour sur la configuration du parametre	
#racadm.exe -r "$IPMI" -u root -p $iDracPwd get bios.SysProfileSettings.ProcPwrPerf
 
}
 
exit

Ce script ne contient pas la phase de redémarrage nécessaire à la prise en compte des paramètres, comme il s’agit de clusters Nutanix.

Petit lien aide mémoire : Cet article m’a sauvé durant une upgrade, merci MigrationKing.

Pour une raison inconnue une des CVM était restée en mode maintenance.

https://blog.migrationking.com/2016/04/how-to-fix-nutanix-cvm-being-stuck-in.html

Alors que les upgrades AHV sont habituellement beaucoup plus calmes que les upgrades ESXi sur la plateforme Nutanix, je me retrouve ce matin avec une mise à jour figée vers 5.5.2. Les détails de tâches indiquent que l’opération est en cours, mais elle traîne vraiment depuis un long moment.

Le détail de la tâche en cours correspond à la mise en maintenance de l’hôte afin de déplacer les VMs qu’il héberge pour le redémarrer sans impact :

En vérifiant l’état des hôtes sur le cluster, je m’aperçois qu’il y a bien un nœud en maintenance (schedulable à False), mais ce n’est pas celui dont la mise à jour est en cours. Je le sort de maintenance, puis je rajoute celui qui est censé y être.

acli
host.list
host.exit_maintenance_mode fqdn.server
host.list #verifier l'etat de l'hôte
host.enter_maintenance_mode fqdn.server

Après cette opération, les VMs ont été déplacés automatiquement à chaud et le nœud AHV est passé en maintenance, ce qui a débloqué le reste du processus de patching.

Les nouveaux nœuds Nutanix ont été réceptionnés. Ils sont maintenant rackés, câblés en datacenter, prêts à être ajoutés aux clusters existants.

Afin de réaliser l’opération d’installation, le réseau est configuré en “access” sur le même VLAN que mes autres CVM. Je modifierai la configuration après l’ajout du noeud.

Autre prérequis l’iDrac (oui, ce sont des serveurs Dell) est sur le même plan d’adressage que les autres IPMI, déjà en place dans le cluster.

J’ai déjà eu le problème avec un iDrac sur un autre VLAN et on obtient une erreur : “Failed to perform network validation !”

Je prépare mes adresses IP et je suis enfin prêt pour l’Expand Cluster.

Comme le réseau est correctement configuré, le nouveau nœud est disponible.

Je renseigne les champs pour les adresses IP qui permettent aisément la configuration de plusieurs nœuds à la fois, si les adresses se suivent.

Concernant la détection automatique des masques de sous-réseau, je pense qu’il y a un souci comme vous pouvez le voir sur la capture. Ils ne sont jamais corrects, mais l’installation se poursuit sans encombre.

La deuxième étape consiste à ré-imager l’hôte avec le même hyperviseur que les autres membres du cluster, dans mon cas ESXi.

Ici, on constate que la version n’est pas tout à fait la même. Je procéderai avec VMware Update Manager pour l’application des derniers correctifs et venir au même niveau que le cluster. Je procède à la phase de vérification en cliquant sur “Run Checks”.

 

 

SI la vérification est concluante…

 

…il est temps de cliquer sur “Expend Cluster”.

 

L’opération est assez longue, elle contient une multitude de sous-tâches.

L’ajout du nœud a pris une heure et s’est terminé correctement. Il me reste maintenant à configurer l’hyperviseur et le cluster profitera rapidement d’une ressource supplémentaire pour repartir la charge.

Encore une fonctionnalité de Prism très pratique. L’important est de bien respecter les prérequis et l’extension du cluster sera réalisée en quelques clics seulement.

Dans la série “One Click” sur Nutanix, je vais tester aujourd’hui l’extension de RAM des CVM.

Je n’avais jamais eu l’opportunité de tester cette option relativement récente de Prism “Configure CVM” :

Un menu déroulant permet de choisir la quantité de RAM allouée aux CVM :

Une fois la sélection effectuée, toutes les CVM impactées sont listées :

On valide en cliquant sur “Apply”, puis un dernier avertissement nous prévient que Prism pourrait être temporairement indisponible :

On valide sur “Yes”, puis l’opération débute :

La tâche se déroule avec succès, sans encombre…

Les CVM sont maintenant à 32GB de RAM.

Encore une option qui simplifie la vie. Je vais bientôt recevoir de nouveau nœud donc prochainement “OneClick ExpandCluster”.