WikiMiNET

La documentation technique et administrative

Outils pour utilisateurs

Outils du site


wiki:cluster:presentation

Différences

Ci-dessous, les différences entre deux révisions de la page.

Lien vers cette vue comparative

Les deux révisions précédentes Révision précédente
Prochaine révision
Révision précédente
wiki:cluster:presentation [2018/06/17 19:00]
varens [Architecture]
wiki:cluster:presentation [2020/09/05 17:51] (Version actuelle)
nierquick [Tableau]
Ligne 30: Ligne 30:
 Contrairement à Proxmox 1, il n'y a plus de master dans les clusters Proxmox >=2. Vous pouvez vous connecter à n'importe quelle machine, par exemple : Contrairement à Proxmox 1, il n'y a plus de master dans les clusters Proxmox >=2. Vous pouvez vous connecter à n'importe quelle machine, par exemple :
  
-^ Cluster ^ Nom ^ Ip ^ +^ Cluster        ^ Nom         ^ Ip               
-| Production | Atlantis| 192.168.102.160 | +| Production     | Atlantis    | 192.168.102.160  
-| Production | Discovery| 192.168.102.161 |  +| Production     | Discovery   | 192.168.102.161  
-| Production | Houston| 192.168.102.162 | +| Production     | Houston     | 192.168.102.162  
-| Développement | Challenger | 192.168.103.206 | +| Développement  | Challenger  | 192.168.103.206  | 
 +| Développement  | rosetta     | 192.168.103.2    |
  
 Tous deux sont basés sur la solution **Proxmox VE**, voici de la documentation : Tous deux sont basés sur la solution **Proxmox VE**, voici de la documentation :
Ligne 44: Ligne 45:
 Proxmox est installé sur chaque machine HP ProLiant DL585 G7 (et sur une tour au U7). Mais il y a deux dernières machines que j'ai oubliées de vous présenter ... Proxmox est installé sur chaque machine HP ProLiant DL585 G7 (et sur une tour au U7). Mais il y a deux dernières machines que j'ai oubliées de vous présenter ...
  
-**Atlas, Callisto et Phobos** ! Des serveurs de stockage que nous utilisons pour stocker les VM et CT. Les données des VM sont accédées par les machines du cluster via RBD. C'est également sur celles ci que nous faisons des backups de ces VM (via fonctionnalités de RBD) et des quelques VM qui sont stockées sur les serveurs du cluster (via sauvegardes Proxmox).+**Atlas, Callisto et Phobos** ! Des serveurs de stockage que nous utilisons pour stocker les VM et CT. Les données des VM sont accédées par les machines du cluster via RBD. C'est également sur celles ci que nous faisons des backups de ces VM (via fonctionnalités de RBD). Quelques VM qui sont stockées sur les serveurs du cluster sont cependant stockées sur les serveurs de calcul proxmox (local-lvm).
  
 Ces serveurs sont actuellement basé sur //Debian//, et font partie d'un cluster [[wiki:cluster:ceph|Ceph]] Ces serveurs sont actuellement basé sur //Debian//, et font partie d'un cluster [[wiki:cluster:ceph|Ceph]]
Ligne 58: Ligne 59:
   * [[.:proxmox:template|Créer un template OpenVZ]]   * [[.:proxmox:template|Créer un template OpenVZ]]
   * [[.:proxmox:dev_to_prod|Migrer]] ses vms du **dev** à la **prod**.   * [[.:proxmox:dev_to_prod|Migrer]] ses vms du **dev** à la **prod**.
 +
 +==== Architecture de MiNET ====
 +
 +Comme vous l'avez compris, on a 3 serveurs pour le calcul et 3 serveurs pour le stockage, cependant un élément est limitant pour la disponibilité du stockage et du calcul.
 +
 +Le routeur et le switchs-serveurs-u1 ne sont pas redondés, ce qui fait que si le routeur vient à s'arrêter, les machines ne pouvant plus parler entre elles, elles suivent leur comportement normal c'est à dire elles s'éteignent. En fait cela sert à ce qu'un serveur qui se voit comme isolé ne fasse pas de splitbrain avec les autres (calcul comme stockage).
 +
 +Une des solutions serait de redonder le routeur pour les connexions entre les deux salles U1, salle serveur et U7. Ainsi on pourrait perdre le routeur ou le switch qui le redonde et avoir les machines qui peuvent encore communiquer, un schéma vaut mieux qu'un long discours :
 +
 +Voici le schéma actuel :
 +{{ :wiki:cluster:reseau_actuel.jpg?600 |}}
 +
 +Voici le schéma dans lequel on redonde le routeur grâce au switch U1 en utilisant le spanning-tree :
 +{{ :wiki:cluster:reseau_spanning-tree.jpg?600 |}}
 +
 +<WRAP center round important 60%>
 +On fera attention à la configuration du spanning tree pour que le routeur ne soit pas exclu et qu'on se retrouve avec deux réseaux séparés, et d'inclure en priorité le routeur : il ne faut pas que tout le trafic de tous les vlans passe par le switch-serveur-u1
 +
 +Point également important, nous utilisons un spanning tree par vlan, donc on peut très bien envisager d'utiliser ce spanning tree uniquement pour le réseau de stockage ou de calcul (102), on est finalement assez libre
 +</WRAP>
 +
 +
 +Sachant qu'il reste des fibres de disponibles entre le U1 et le U7, et qu'il reste des fibres disponibles entre la salle serveurs et le U1. Cela est possible.
 +
 +Cependant il faut savoir qu'on ne peut pas pour l'instant redonder les connexions entre le routeur et les batîments (je vous conseille de regarder sur place et de regarder les plans [[wiki:reseau:externe:disi|Le réseau de la DISI]])
 +
 +Il existe une autre solution qui est de relier les serveurs entre eux et de leur donner un travail de commutation : on fait un bridge (linux ou Open Vswitch au choix) et on relie physiquement les serveurs entre eux (Topologie en Ring). Attention cependant à la gestion des vlans et au protocole de spanning tree utilisé.
 +Voici la [[https://pve.proxmox.com/wiki/Open_vSwitch|doc proxmox sur les Open Vswitch]].
wiki/cluster/presentation.1529254800.txt.gz · Dernière modification: 2020/06/27 18:15 (modification externe)