Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente Prochaine révision Les deux révisions suivantes | ||
wiki:cluster:ceph:remplacement_disque [2018/06/16 21:56] varens [Remplacer le disque] |
wiki:cluster:ceph:remplacement_disque [2018/07/21 17:45] sowarks |
||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== Remplacer un disque sur le cluster Ceph ====== | ====== Remplacer un disque sur le cluster Ceph ====== | ||
+ | |||
+ | <WRAP center round info 60%> | ||
+ | Sur phobos, il n'est pas possible de changer un disque à chaud, il faut donc reboot et aller sur le contrôleur SATA du serveur (F10 au démarrage), | ||
+ | </ | ||
<WRAP center round todo 60%> | <WRAP center round todo 60%> | ||
Ligne 27: | Ligne 31: | ||
Un petit '' | Un petit '' | ||
- | Parce qu'on aime les one-liners (pas sur qu'il fonctionne encore dans quelques années), en voici un qui à partir de l'OSD vous donne le disque associé (remplacer **X** par l'ID de l' | + | Parce qu'on aime les one-liners (pas sur qu'il fonctionne encore dans quelques années), en voici un qui à partir de l'OSD vous donne le disque associé (<color #ed1c24>remplacer **X** par l'ID de l'OSD</ |
< | < | ||
lsblk | grep -B1 $(ceph-volume lvm list | grep -A14 osd.X | tail -n1 \ | lsblk | grep -B1 $(ceph-volume lvm list | grep -A14 osd.X | tail -n1 \ | ||
Ligne 57: | Ligne 61: | ||
==== Si vous vous fichez des données sur le(s) disque(s) (grâce à votre politique de réplication) ==== | ==== Si vous vous fichez des données sur le(s) disque(s) (grâce à votre politique de réplication) ==== | ||
+ | Vous pouvez directement suivre l' | ||
+ | < | ||
+ | ceph-volume lvm prepare --osd-id {id} --data /dev/sdX --block.db /dev/sdY | ||
+ | </ | ||
- | ==== Si vous avez absolument besoin de récupérer des données sur le(s) disque(s) ==== | + | [[http:// |
+ | |||
+ | ==== Si vous avez absolument besoin de récupérer des données sur le(s) disque(s) (À MiNET si la réplication marche, on suit la partie précédente !!!) ==== | ||
+ | |||
+ | |||
+ | <WRAP center round important 60%> | ||
+ | Je répète : Si vous avez absolument besoin de récupérer des données sur le(s) disque(s) | ||
+ | </ | ||
Ligne 85: | Ligne 100: | ||
Ensuite on enlève l'OSD de la crushmap, pour que ceph déplace les objets qui étaient présents sur l'OSD ailleurs, grâce à la politique de réplication : les PGs présents sur le disque sont déplacés grâce aux réplicas. | Ensuite on enlève l'OSD de la crushmap, pour que ceph déplace les objets qui étaient présents sur l'OSD ailleurs, grâce à la politique de réplication : les PGs présents sur le disque sont déplacés grâce aux réplicas. | ||
- | < | + | < |
Encore une fois vous allez devoir attendre. Une fois que l' | Encore une fois vous allez devoir attendre. Une fois que l' | ||
- | < | + | < |
Puis le supprimer: | Puis le supprimer: | ||
- | < | + | < |
Ligne 103: | Ligne 118: | ||
< | < | ||
- | Si vous utilisez ceph-deploy merci de vous réferer au blog cité plus haut. | + | Si vous utilisez |
- | Vous pouvez donc lancer un : | + | /dev/sdX : votre nouveau disque |
- | < | + | |
- | Cela va vous donner l'ID de l'OSD qui devrait, si vous avez bien supprimé le précédent, | + | |
- | /dev/sdX : votre nouveau disque | ||
/dev/sdY : votre cache utilisé pour cet OSD | /dev/sdY : votre cache utilisé pour cet OSD | ||
< | < | ||
ceph-volume lvm zap /dev/sdX | ceph-volume lvm zap /dev/sdX | ||
- | ceph-volume lvm prepare --osd-id | + | ceph-volume lvm prepare --osd-id |
</ | </ | ||
- | Avec '' | + | Avec '' |
+ | |||
+ | Sinon si tout s'est bien passé | ||
< | < | ||
Et voilà ! | Et voilà ! | ||
- | + | --- // | |
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + | ||
- | + |