Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente | ||
wiki:cluster:ceph [2018/06/16 21:28] insolentbacon |
wiki:cluster:ceph [2020/06/27 18:16] (Version actuelle) |
||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== Ceph ====== | ====== Ceph ====== | ||
- | À MiNET, depuis 2018, on utilise un cluster [[https:// | + | Avant de zoulouter sur ceph merci de consulter la [[http:// |
+ | |||
+ | Il y aussi la [[https:// | ||
+ | |||
+ | À MiNET, depuis 2018, on utilise un cluster [[https:// | ||
Ceph est une technologie de stockage développée par Red Hat (et d' | Ceph est une technologie de stockage développée par Red Hat (et d' | ||
+ | |||
+ | |||
+ | ===== Politique de sauvegarde ===== | ||
+ | |||
+ | Nous n' | ||
+ | |||
+ | La politique que nous avons choisie est la suivante : une sauvegarde tous les : | ||
+ | * **6 heures**, à 5h,11h,17h et 23h, on en conserve **24**, on couvre donc 6 jours (ce qui permet de couvrir les WE y compris prolongés) | ||
+ | * **jours**, à 3h, on en conserve **21**, on couvre donc 21 jours (ce qui permet de couvrir les vacances de 2 semaines) | ||
+ | * **semaines**, | ||
+ | * **mois**, à 1h le 1er du mois, on en conserve **12**, on couvre donc 1 an (ce qui permet d' | ||
+ | |||
+ | Elles sont monitorées via Zabbix et [[https:// | ||
+ | ===== Ceph ===== | ||
D' | D' | ||
Ligne 21: | Ligne 39: | ||
[[http:// | [[http:// | ||
- | ![Schéma RADOS](http:// | + | {{ : |
Nous avons donc plein d'OSD (un par disque) qui sont dans un gros cluster Ceph. Nous avons un __mon__ par machine de stockage qui permettent ensemble de gérer le cluster et d'y accéder. | Nous avons donc plein d'OSD (un par disque) qui sont dans un gros cluster Ceph. Nous avons un __mon__ par machine de stockage qui permettent ensemble de gérer le cluster et d'y accéder. | ||
Ligne 29: | Ligne 47: | ||
Au moment où vous voulez accéder au disque de la VM XYZ, vous contactez les //mon//s pour qu'ils vous transmettent toutes les informations sur la topologie du cluster. Avec ces information, | Au moment où vous voulez accéder au disque de la VM XYZ, vous contactez les //mon//s pour qu'ils vous transmettent toutes les informations sur la topologie du cluster. Avec ces information, | ||
- | Concrètement, | + | Concrètement, |
En fait, plus précieusement, | En fait, plus précieusement, | ||
| | ||
+ | |||
+ | ===== La réplication ===== | ||
+ | |||
+ | La réplication des données est vraiment le truc le plus essentiel dans notre infra. On ne veut pas que si un disque meurt, on perde quoique ce soit. Pour ça, on a défini plusieurs replicas par pool. Typiquement, | ||
+ | |||
+ | Si un disque lâche, Ceph étant résilient, il va recopier (et répartir équitablement) toutes les placement groups qui étaient sur ce disque, sur tous les autres disques (en se servant des autres replicas). | ||
+ | |||
+ | La replication ne se fait pas totalement n' | ||
+ | |||
+ | On peut faire des trucs bien plus compliqués avec les ruleset, mais restons simple. Pour voir les ruleset | ||
+ | >ceph osd crush rule ls | ||
+ | |||
+ | puis (par exemple pour replicated_rule) | ||
+ | > ceph osd crush rule dump replicated_rule | ||
+ | |||
===== Les commandes usuelles ===== | ===== Les commandes usuelles ===== | ||
- | Lancez | + | Lancez |
> ceph status | > ceph status | ||
Permet de voir le status du cluster. (la commande la plus utile de toutes) | Permet de voir le status du cluster. (la commande la plus utile de toutes) | ||
+ | > ceph health detail | ||
+ | Permet de voir le détail, c'est cette commande qui permet d' | ||
> ceph -w | > ceph -w | ||
Ligne 49: | Ligne 84: | ||
Pour voir tous les OSDs | Pour voir tous les OSDs | ||
+ | |||
+ | > ceph mon stat | ||
+ | Permet de voir le cluster des mons | ||
> ceph osd lspools | > ceph osd lspools | ||
Ligne 61: | Ligne 99: | ||
Pour voir tous les snapshots d'un block device | Pour voir tous les snapshots d'un block device | ||
- | ==== Remplacer un disque défaillant ==== | ||
- | Voir [[wiki: | + | ==== Problèmes de PGs - Remplacer un disque défaillant ==== |
+ | |||
+ | Si vous avez des problèmes avec vos Placement Groups c'est peut-être qu'un disque est endommagé, vous pouvez allez voir [[wiki: | ||
+ | |||
+ | ===== À MiNET... ===== | ||
+ | |||
+ | {{ : | ||
+ | |||
+ | À MiNET, nous disposons de 3 serveurs qui agissent comme noeud Ceph: **Atlas**, **Callisto** et **Phobos**. Callisto est au U1 alors que Phobos & Atlas sont en salle serveur. | ||
+ | |||
+ | Dans chaque serveur, il y a 10 OSDs (liés à des disques de 2TB), un mon et un mgr. | ||
+ | |||
+ | **Attention: | ||
+ | Si jamais la salle serveur n'est plus alimentée: Phobos et Atlas s' | ||
+ | |||
+ | Pour qu'il soit encore en majorité il a fallut rajouter des MON sur d' | ||
+ | |||
+ | Ces MONs __ne sont pas des dans des VMs/CTs__, c'est normal ! Il faut qu'il puissent avoir une IP dans le 142, or, vu qu'on ne veut pas que les VMs puissent avoir une patte dans le 142, on a pas fait de bridge, et donc on a du mettre directement sur l' | ||
+ | |||
+ | {{ : | ||
+ | |||
+ | On voit bien sur ce schéma très propre, que si vous enlevez une salle (bulle bleue) il vous reste toujours 3 MONs sur 5! Vous avez donc la majorité | ||
+ | |||
+ | Si vous regardez / | ||
+ |