Post-install
CVM
- Ajout vlan tag : change_cvm_vlan 50
- enlever vlan tag : change_cvm_vlan 0
- change rf d’un container : ncli container edit rf=3 name=container_name
- check du br0 : allssh manage_ovs show_uplinks
- 10G uniquement dans le br0 :
allssh manage_ovs --interfaces 10g update_uplinks
- ncli cluster set-timezone timezone=Europe/Paris
- cluster -s 192.168.0.110,192.168.0. 111,192.168.0.112 create
- /etc/sysconfig/network-scripts/ifcfg-eth0
AHV
- Changer le vlan d’AHV: ovs-vsctl set port br0 tag=50
- retirer le vlan: ovs-vsctl set port br0 tag=0
- chemin des fichiers conf réseaux : /etc/sysconfig/network-scripts/ifcfg-br0 puis Sudo systemctl restart network.service
- Renommage AHV : /etc/sysconfig/network et /etc/hostname puis reboot du noeud
- acli vm.list power_state=on
- acli vm.shutdown
- acli vm.off
- Changement de vlan pour VM : acli vm.nic_get VMNAME -> acli vm.nic_update VMNAME MACADDRESS network=NETWORKDESTINATION
- éteindre AFS : afs > infra.stop * puis infra.start *
- changement d’interface active : ovs-appctl bond/set-active-passive br0-up eth3
- Fallback vers active-backup : ovs-vsctl set port br0-up other_config:lacp-fallback- ab=true
- En fonction du switch OVS LACP timer : ovs-vsctl set port br0-up other_config:lacp-time=fast
- ncli cluster set-timezone timezone=Europe/Paris
- ovs-vsctl show
- ethtool eth0
- ifup eth0 – ifdown eth0
ESX
- Création portgroup :
esxcli network vswitch standard portgroup add --portgroup-name=VM_VLAN_50 --vswitch-name=vSwitch0
- Changement vlan portgroup : esxcfg-vswitch -p “VM_VLAN_50” -v 50 vSwitch0
- Assigner VM : Get-VM toto| Get-NetworkAdapter | Set-NetworkAdapter -StartConnected $true -NetworkName “$DRNetWorkLabel” -Confirm:$false -RunAsync
Prism Central
- Application Deployement Error ->
cluster --cluster_function_list="multicluster" -s [ip_address_PrismCentralVM] create
- Reset Admin password :
ncli user reset-password user-name="admin" password="Enter_New_Password"
(c’est étrange mais parfois un peu long a prendre en compte) - add DNS parfois manuel obligatoire
ncli cluster add-to-name-servers servers="192.168.0.50"
allssh sudo faillock --user admin --reset
- ncli cluster set-timezone timezone=Europe/Paris
Diagnostique
CVM
- passer une commande sur toutes les CVM : allssh
- passer une commande sur tous les hôtes depuis une cvm : hostssh
- verifier le vlan des cvm : hostssh “ovs-vsctl show | grep vnet[0-1] -A2”
- cluster status | grep -v UP
- ncli -v
- nodetool -h 0 ring
- ncli cluster get-domain-fault-tolerance-status type=node
- allssh df -h
- Verif latence entre les CVMs : tailf ~nutanix/data/logs/sysstats/ping_cvm_hosts.INFO
- connexion à l’hôte depuis la CVM : ssh root@192.168.5.1
- hostssh ipmitool lan print | grep “==\|IP Address\|MAC Address”
- conf matériel : ncc hardware_info show_hardware_info
AHV
Change Buffer RX size AHV : si ethtool -S eth0 | grep -i error donne des rx_missed_errors ethtool -g eth0, voir le max possible puis ethtool -G eth0 rx 4096ce n’est plus la recommandation du support- pb de disque : df -h voir cd data/logs tail hades.out voir cat hades.out | grep -C enfin restart hades pour voir le nouveau disque
- verif latence entre les hotes : tailf ~nutanix/data/logs/sysstats/ping_hosts.INFO
- connexion à la CVM depuis l’hôte ssh nutanix@192.168.5.254
- virsh list – virsh start
- conf dhcp iDrac : ipmitool lan set 1 ipsrc dhcp
- reset impi : ipmitool mc reset cold
LCM
- url par defaut : http://download.nutanix.com/lcm/2.0