Différences entre les versions de « Kvm cluster »

De BlaxWiki
Aller à la navigationAller à la recherche
 
(5 versions intermédiaires par le même utilisateur non affichées)
Ligne 10 : Ligne 10 :
  * ricci : S'occupe de synchroniser la configuration du cluster sur les différents noeuds.  
  * ricci : S'occupe de synchroniser la configuration du cluster sur les différents noeuds.  


== Configuration ==
= Configuration =
La configuration du cluster se trouve dans le fichier /etc/cluster/cluster.conf.  
La configuration du cluster se trouve dans le fichier /etc/cluster/cluster.conf.  


Ligne 54 : Ligne 54 :


== Commandes ==
== Commandes ==
* Prise en compte d'une nouvelle configuration au cluster : cman_tool version -r
* Prise en compte d'une nouvelle configuration au cluster : cman_tool version -r (ne pas oublier le numero de revision avant)
* Liste des éléments du cluster : clustat
* Liste des éléments du cluster : clustat
* Stopper un service du cluster : clusvcadm -s <nom_service> (nom service correspond au retour de clustat, en général vm:$nomdelavm)
* Pour les commandes de gestion des vm dans le cluster voir [https://{{SERVERNAME}}/index.php?title=Kvm_Gestion_des_VM_en_cluster cette page]
* Relancer un service du cluster : clusvcadm -R <nom_service>
 
* Réallouer un service sur un autre noeud : clusvcadm -r <nom_service> -m <nom_noeud>
= Crash du cluster =
* Migrer une VM d'un noeud à l'autre : clusvcadm -M <nom_service> -m <nom_noeud>
<pre>
* Disable d'un service : clusvcadm -d <nom_service>
Par sécurité lors d'un reboot de serveur, le cluster ne remonte pas automatiquement et il faut le lancer à la main sous certaine condition. Est-ce que les services suivants sont
* Enable d'un service : clusvcadm -e <nom_service>
arrêtés ? :
* Migration live hors cluster : virsh migrate --live <$nom_vm> qemu+ssh://<$hostname_autre_hyperviseur>/system
    cman
* Migration hors cluster avec pause de la VM : virsh migrate --persistent <$nom_vm> qemu+ssh://<$hostname_autre_hyperviseur>/system
    rgmanager
    corosync
    fenced
    dlm_controld
    gfs_controld
    /usr/sbin/cimserver
    /usr/sbin/oddjobd
    /usr/sbin/saslauthd
    ricci
    clvmd
</pre>
 
Si ils sont arrétés, il faut déja s'assurer que la partie drbd est fonctionnelle, c'est [https://{{SERVERNAME}}/index.php/Drbd#Crash_Drbd ici], puis après relancer
les services dans cet ordre :
<pre>
# service cman start
# service clvmd start
# service rgmanager start
# service ricci start
</pre>
[[Catégorie:Virtualisation]]
[[Catégorie:Virtualisation]]

Version actuelle datée du 5 juin 2013 à 16:32

Introduction[modifier]

La Cluster Suite RedHat est un ensemble de service permettant de faire tourner des applications en haute disponibilité. Les clusters peuvent être composés de 2 à N noeuds. Le rôle principal est de vérifier le bon fonctionnement des noeuds et des services qui tournent dessus. En cas de dysfonctionnement d'un noeud ou d'une ressource (ex: montage nfs, SAN, réseau, etc...), le cluster va le détecter et faire le nécessaire pour rétablir automatique le service impacté.

Différents daemon doivent tourner pour le faire fonctionner le cluster :

* cman : S'occupe de vérifier l'état des différents noeuds du cluster
* rgmanager : S'occupe de vérifier l'étât des différents services et des ressources associées.
* ricci : S'occupe de synchroniser la configuration du cluster sur les différents noeuds. 

Configuration[modifier]

La configuration du cluster se trouve dans le fichier /etc/cluster/cluster.conf.

A savoir[modifier]

* Chaque noeud du cluster a un droit de vote. 
* Il est nécessaire d'avoir au moins X votes pour former le cluster, c'est le quorum. 
* Au démarrage, un noeud va prévenir les autres qu'il est vivant et vote. 
* Dans le cas où le nombre de vote nécessaire pour établir le quorum n'est pas atteint, le cluster ne fonctionnera pas. 
* Un noeud peut avoir plusieurs droits de vote. 

Vérification de la configuration actuelle du cluster[modifier]

# cman_tool status
Version: 6.2.0
Config Version: 16
Cluster Name: metiercsn001
Cluster Id: 12929
Cluster Member: Yes
Cluster Generation: 32
Membership state: Cluster-Member
Nodes: 2
Expected votes: 1
Total votes: 2
Node votes: 1
Quorum: 1
Active subsystems: 9
Flags: 2node
Ports Bound: 0 11 177
Node name: kvm1_node.metier.csn.notaires
Node ID: 1
Multicast addresses: 239.192.50.179
Node addresses: 10.250.250.33

Les données à vérifier sont :

Nodes: 2 <= Nombre de Node dans le cluster
Expected votes: 1 <= Nombre de vote nécessaire pour former le quorum
Total votes: 2 <= Nombre de vote actuel
Node votes :1 <= Droit de vote du noeud
Quorum: 2 <= Nombre de vote actuel dans le quorum

Commandes[modifier]

  • Prise en compte d'une nouvelle configuration au cluster : cman_tool version -r (ne pas oublier le numero de revision avant)
  • Liste des éléments du cluster : clustat
  • Pour les commandes de gestion des vm dans le cluster voir cette page

Crash du cluster[modifier]

Par sécurité lors d'un reboot de serveur, le cluster ne remonte pas automatiquement et il faut le lancer à la main sous certaine condition. Est-ce que les services suivants sont 
arrêtés ? :
    cman
    rgmanager
    corosync
    fenced
    dlm_controld
    gfs_controld
    /usr/sbin/cimserver
    /usr/sbin/oddjobd
    /usr/sbin/saslauthd
    ricci
    clvmd 

Si ils sont arrétés, il faut déja s'assurer que la partie drbd est fonctionnelle, c'est ici, puis après relancer les services dans cet ordre :

# service cman start
# service clvmd start
# service rgmanager start
# service ricci start