Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
wiki:cluster:presentation [2015/08/28 11:54] 127.0.0.1 modification externe |
wiki:cluster:presentation [2020/09/05 17:51] (Version actuelle) nierquick [Tableau] |
||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
+ | <WRAP center round alert 60%> | ||
+ | N' | ||
+ | </ | ||
+ | |||
+ | ===== Cluster MiNET ===== | ||
+ | |||
+ | ==== Présentation du projet ==== | ||
+ | |||
+ | Traditionnellement à MiNET les machines virtuelles étaient sur Xen. Avec cette solution, il n'y avait aucun management global des VMs, de l' | ||
+ | |||
+ | Maintenant avec le projet **Cluster**, | ||
+ | * Machines neuves achetées pour l' | ||
+ | * Le risque de perte de VM est encore diminué par l' | ||
+ | * Virtualisation plus légères que Xen | ||
+ | * Proxmox permet d' | ||
+ | * Possibilité de migrer les VM y compris à chaud | ||
+ | * Grâce à la création d'un cluster DEV (ou membre) chacun peut créer sa VM pour faire des tests. | ||
+ | |||
+ | En 2018, insolentbacon a offert 4 HP Proliants à l' | ||
+ | Nous sommes passés d'un cluster à 32 CPUs avec 120GiO de RAM (en DDR2) à un cluster avec 100CPUs avec ~256GiO de RAM (en DDR3). | ||
+ | |||
+ | Une tour à aussi été ajoutée au U7, elle est dans le cluster et normalement presque rien ne tourne dessus. Elle sert juste en temps que témoin, en effet, pour garantir de la haute disponibilité il nous faut **au moins** 3 machines. Voir [[https:// | ||
+ | |||
+ | ==== Architecture ==== | ||
+ | |||
+ | Comme évoqué plus haut il y a deux cluster, séparés dans des vlans différents. | ||
+ | L'un est destiné aux services en production et l' | ||
+ | |||
+ | Contrairement à Proxmox 1, il n'y a plus de master dans les clusters Proxmox >=2. Vous pouvez vous connecter à n' | ||
+ | |||
+ | ^ Cluster | ||
+ | | Production | ||
+ | | Production | ||
+ | | Production | ||
+ | | Développement | ||
+ | | Développement | ||
+ | |||
+ | Tous deux sont basés sur la solution **Proxmox VE**, voici de la documentation : | ||
+ | |||
+ | * [[http:// | ||
+ | * [[https:// | ||
+ | |||
+ | |||
+ | Proxmox est installé sur chaque machine HP ProLiant DL585 G7 (et sur une tour au U7). Mais il y a deux dernières machines que j'ai oubliées de vous présenter ... | ||
+ | |||
+ | **Atlas, Callisto et Phobos** ! Des serveurs de stockage que nous utilisons pour stocker les VM et CT. Les données des VM sont accédées par les machines du cluster via RBD. C'est également sur celles ci que nous faisons des backups de ces VM (via fonctionnalités de RBD). Quelques VM qui sont stockées sur les serveurs du cluster sont cependant stockées sur les serveurs de calcul proxmox (local-lvm). | ||
+ | |||
+ | Ces serveurs sont actuellement basé sur //Debian//, et font partie d'un cluster [[wiki: | ||
+ | |||
+ | |||
+ | ==== Informations supplémentaires ==== | ||
+ | |||
+ | Pour ne pas faire trop long, voici quelques liens vers : | ||
+ | * [[.: | ||
+ | * [[.: | ||
+ | * [[.: | ||
+ | * [[.: | ||
+ | * [[.: | ||
+ | * [[.: | ||
+ | |||
+ | ==== Architecture de MiNET ==== | ||
+ | |||
+ | Comme vous l'avez compris, on a 3 serveurs pour le calcul et 3 serveurs pour le stockage, cependant un élément est limitant pour la disponibilité du stockage et du calcul. | ||
+ | |||
+ | Le routeur et le switchs-serveurs-u1 ne sont pas redondés, ce qui fait que si le routeur vient à s' | ||
+ | |||
+ | Une des solutions serait de redonder le routeur pour les connexions entre les deux salles U1, salle serveur et U7. Ainsi on pourrait perdre le routeur ou le switch qui le redonde et avoir les machines qui peuvent encore communiquer, | ||
+ | |||
+ | Voici le schéma actuel : | ||
+ | {{ : | ||
+ | |||
+ | Voici le schéma dans lequel on redonde le routeur grâce au switch U1 en utilisant le spanning-tree : | ||
+ | {{ : | ||
+ | |||
+ | <WRAP center round important 60%> | ||
+ | On fera attention à la configuration du spanning tree pour que le routeur ne soit pas exclu et qu'on se retrouve avec deux réseaux séparés, et d' | ||
+ | |||
+ | Point également important, nous utilisons un spanning tree par vlan, donc on peut très bien envisager d' | ||
+ | </ | ||
+ | |||
+ | |||
+ | Sachant qu'il reste des fibres de disponibles entre le U1 et le U7, et qu'il reste des fibres disponibles entre la salle serveurs et le U1. Cela est possible. | ||
+ | |||
+ | Cependant il faut savoir qu'on ne peut pas pour l' | ||
+ | |||
+ | Il existe une autre solution qui est de relier les serveurs entre eux et de leur donner un travail de commutation : on fait un bridge (linux ou Open Vswitch au choix) et on relie physiquement les serveurs entre eux (Topologie en Ring). Attention cependant à la gestion des vlans et au protocole de spanning tree utilisé. | ||
+ | Voici la [[https:// |