Ci-dessous, les différences entre deux révisions de la page.
Les deux révisions précédentes Révision précédente Prochaine révision | Révision précédente Prochaine révision Les deux révisions suivantes | ||
wiki:cluster:ceph:remplacement_disque [2018/06/16 21:22] varens [Remplacer le disque] |
wiki:cluster:ceph:remplacement_disque [2018/07/21 17:44] sowarks [Si vous avez absolument besoin de récupérer des données sur le(s) disque(s)] |
||
---|---|---|---|
Ligne 1: | Ligne 1: | ||
====== Remplacer un disque sur le cluster Ceph ====== | ====== Remplacer un disque sur le cluster Ceph ====== | ||
+ | |||
+ | <WRAP center round info 60%> | ||
+ | Sur phobos, il n'est pas possible de changer un disque à chaud, il faut donc reboot et aller sur le contrôleur SATA du serveur (F10 au démarrage), | ||
+ | </ | ||
<WRAP center round todo 60%> | <WRAP center round todo 60%> | ||
Ligne 27: | Ligne 31: | ||
Un petit '' | Un petit '' | ||
- | Parce qu'on aime les one-liners (pas sur qu'il fonctionne encore dans quelques années), en voici un qui à partir de l'OSD vous donne le disque associé (remplacer **X** par l'ID de l' | + | Parce qu'on aime les one-liners (pas sur qu'il fonctionne encore dans quelques années), en voici un qui à partir de l'OSD vous donne le disque associé (<color #ed1c24>remplacer **X** par l'ID de l'OSD</ |
< | < | ||
lsblk | grep -B1 $(ceph-volume lvm list | grep -A14 osd.X | tail -n1 \ | lsblk | grep -B1 $(ceph-volume lvm list | grep -A14 osd.X | tail -n1 \ | ||
Ligne 53: | Ligne 57: | ||
Pour vous aider il y a la documentation officielle de ceph : [[http:// | Pour vous aider il y a la documentation officielle de ceph : [[http:// | ||
- | Donc dans tous les cas, on commence par sortir l'OSD du cluster : | + | |
+ | |||
+ | ==== Si vous vous fichez des données sur le(s) disque(s) (grâce à votre politique de réplication) ==== | ||
+ | |||
+ | Vous pouvez directement suivre l' | ||
+ | < | ||
+ | ceph-volume lvm prepare --osd-id {id} --data /dev/sdX --block.db /dev/sdY | ||
+ | </ | ||
+ | |||
+ | [[http:// | ||
+ | |||
+ | ==== Si vous avez absolument besoin de récupérer des données sur le(s) disque(s) ==== | ||
+ | |||
+ | |||
+ | <WRAP center round important 60%> | ||
+ | Je répète : Si vous avez absolument besoin de récupérer des données sur le(s) disque(s) | ||
+ | </ | ||
+ | |||
+ | |||
+ | On commence par sortir l'OSD du cluster : | ||
< | < | ||
Ligne 77: | Ligne 100: | ||
Ensuite on enlève l'OSD de la crushmap, pour que ceph déplace les objets qui étaient présents sur l'OSD ailleurs, grâce à la politique de réplication : les PGs présents sur le disque sont déplacés grâce aux réplicas. | Ensuite on enlève l'OSD de la crushmap, pour que ceph déplace les objets qui étaient présents sur l'OSD ailleurs, grâce à la politique de réplication : les PGs présents sur le disque sont déplacés grâce aux réplicas. | ||
+ | < | ||
Encore une fois vous allez devoir attendre. Une fois que l' | Encore une fois vous allez devoir attendre. Une fois que l' | ||
- | < | + | < |
Puis le supprimer: | Puis le supprimer: | ||
- | < | + | < |
Ligne 95: | Ligne 118: | ||
< | < | ||
- | Vous pouvez donc lancer un : | + | Si vous utilisez **ceph-deploy** merci de vous réferer au blog cité plus haut. |
- | < | + | |
- | + | ||
+ | /dev/sdX : votre nouveau disque | ||
+ | /dev/sdY : votre cache utilisé pour cet OSD | ||
+ | < | ||
+ | ceph-volume lvm zap /dev/sdX | ||
+ | ceph-volume lvm prepare --osd-id OSD_ID --data /dev/sdX --block.db /dev/sdY | ||
+ | </ | ||
+ | Avec '' | ||
+ | Sinon si tout s'est bien passé : | ||
+ | < | ||
+ | Et voilà ! | ||
+ | --- // |