Je l’ai déjà indiqué dans un précédent article, je ne suis pas un spécialiste du matériel Dell et le client n’en dispose que pour nos clusters Nutanix.

Voici le script que j’utilise pour configurer les noeuds en mode “Maximum Performance”.

Si vous débutez comme moi sur le sujet, je vous conseille mon précédent article qui décrit en détail l’installation de l’outil de configuration distant RACADM (Remote Access Controller Admin).

#Chargement Cmdlet Nutanix
asnp nutanix*
 
#Choix du cluster
$Cluster = Read-host "IP address of the Nutanix cluster to update"

$iDracPwd = Read-host "iDrac root Password"
 
Connect-NTNXCluster $Cluster -AcceptInvalidSSLCerts -UserName:Admin -ForcedConnection   


Get-NTNXHost | select name,ipmiaddress,managementservername
 
$IPMIs = (Get-NTNXHost).ipmiaddress
 
foreach ($IPMI in $IPMIS) {
 
write-host "Modification des parametres BIOS du noeud $IPMI"
 
racadm.exe -r "$IPMI" -u root -p $iDracPwd set bios.SysProfileSettings.SysProfile Custom
racadm.exe -r "$IPMI" -u root -p $iDracPwd set bios.SysProfileSettings.ProcPwrPerf MaxPerf
racadm.exe -r "$IPMI" -u root -p $iDracPwd jobqueue create BIOS.setup.1-1
 
Cette commande permet d'avoir un retour sur la configuration du parametre	
#racadm.exe -r "$IPMI" -u root -p $iDracPwd get bios.SysProfileSettings.ProcPwrPerf
 
}
 
exit

Ce script ne contient pas la phase de redémarrage nécessaire à la prise en compte des paramètres, comme il s’agit de clusters Nutanix.

J’ai rarement eu l’occasion de travailler sur du matériel DELL et actuellement en dehors de quelques nœuds Nutanix, le client est plutôt HPE.

Mais avec les campagnes de patching pour corriger un tout petit problème de rien du tout (merci Intel), tout le monde doit s’y coller.

Je ne maîtrise pas spécialement ce type de matériel donc voici le résultat de mes recherches pour automatiser les mises à jours BIOS et iDRAC de ces serveurs :

Première étape, j’ai récupéré les binaires de Dell EMC OpenManage DRAC Tools, includes RACADM, v9.1.0 ici.

RACADM est l’outil qui permet les manipulations en ligne de commande, plus d’informations sur sa documentation ici.

Après un process d’installation des plus classiques, je récupère les fichiers pour réaliser l’upgrade sur mes serveurs.

C’est aussi simple que chez la concurrence, ça se passe sur le site Dell support.

Avec l’aide du précieux “Service tag”,  j’ai directement accès à la page produit de mon serveur, direction “Drivers & downloads” pour consulter la liste des drivers disponibles et compatibles.

Lire la suite

Petit lien aide mémoire : Cet article m’a sauvé durant une upgrade, merci MigrationKing.

Pour une raison inconnue une des CVM était restée en mode maintenance.

https://blog.migrationking.com/2016/04/how-to-fix-nutanix-cvm-being-stuck-in.html

1- libérer le disque

L’intérêt d’un article dédié à l’extension de mon cluster vSAN m’a semblé limité tellement l’opération semble simple: ajouter l’hôte au cluster, puis réclamer les disques afin de les ajouter au cluster vSAN. Mais comme j’ai réutilisé l’un de mes ESXi, j’ai eu quelques petits soucis :

Malgré la réinstallation de l’hyperviseur j’avais encore quelques problèmes et afin d’ajouter des disques à un cluster vSAN, il est indispensable que ceux-ci soient vierges de toutes partitions.

Je pensais m’en sortir rapidement avec quelques lignes de partedUtil

partedUtil getptbl "/vmfs/devices/disks/t10.ATA_____Samsung_SSD _850_EVO_500GB_______________S21JNXBGC05991J_____"

ce qui m’affichait les partitions du disque :

60801 255 63 976773168
1 64 8191 C12A7328F81F11D2BA4B00A0C93EC93B systemPartition 128
5 8224 520191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
6 520224 1032191 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
7 1032224 1257471 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0
8 1257504 1843199 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0
9 1843200 7086079 9D27538040AD11DBBF97000C2911D1B8 vmkDiagnostic 0
2 7086080 15472639 EBD0A0A2B9E5443387C068B6B72699C7 linuxNative 0

puis PartedUtil delete pour supprimer la partition en ajoutant son numéro à la fin :

partedUtil delete /vmfs/devices/diskst10.ATA_____Samsung_SSD_850_EVO_500GB_______________S21JNXBGC05991J_____ 1

Deux partitions revenaient avec un message d’erreur :

Error: Read-only file system during write on /dev/disks/t10.ATA_____Samsung_SSD_                                  850_EVO_500GB_______________S21JNXBGC05991J_____

Heureusement ou hélas pour certain, je ne suis le premier à avoir ce problème et un très bon post de la communauté VMware m’a apporté la solution, je vais poursuivre pour les non-anglophones.

Lire la suite

Le groupe d’utilisateurs VMware fait son comeback ! Et pas à moitié. Au programme, deux pointures : Duncan EPPING, célèbre pour son site yellow-bricks.com et Frank DENNEMAN, récemment co-auteur de deux bibles VMware vSphere 6.5 Host Resources Deep Dive et VMware vSphere 6.7 Clustering Deepdive.

De nombreux partenaires ont répondu présent pour la renaissance de l’événement, en vrac : Zerto – Rubrik – NetApp HCI – EasyVirt – ProphetStor et Pure Storage. Le tout dans les nouveaux bureaux d’OVH à Paris Batignolles.

banner_bottom_sponsor.jpg

Je ne sais pas pour vous, mais moi, j’ai vraiment hâte d’y être car le VMware User Group, VMUG de son petit nom, c’est l’occasion d’échanger avec tout ce beau monde, mais aussi et surtout entre utilisateurs !

Pour la petite histoire, la communauté VMUG chapeaute tous les groupes d’utilisateurs VMUG à l’échelle mondiale. Pas moins de 36 événements sont planifiés en septembre par les différents groupes d’utilisateurs locaux.

On se retrouve donc le 20 septembre pour une demi-journée qui sera riche en rencontres, en instructions, et en échanges.

Le lien détaillé de l’événement avec le programme c’est ici, le lien pour l’inscription ici et le Twitter pour ne rien louper c’est @VMUGFR.