===== Organisation des pools des nouveaux NAS ===== Pour chaque NAS : * Nous avons nos données sur un pool de 7 disques de 2T en raidZ. Il porte sur chacun le nom raidZ. * Ce pool a un SSD de cache et deux de ZIL en Raid1 * Ainsi que deux disques systèmes en Raid1 ===== Et les datasets ===== On distingue au niveau des options trois types de datasets : * Catégorie 1 : ceux sur qui on écrit tout le temps. C'est ceux sur lesquels il y a les disques des VMs ainsi que les logs. * Catégorie 2 : ceux sur lesquels on écrit peu... On a activé la compression **lz4** dessus. * Catégorie 3 : ceux de backups . Ils reçoivent les snapshots des autres types de datasets afin d'assurer une certaine redondance des données, ainsi qu'un historique. Ils ont la compression **lz4** activée et sont en **read only**. ==== liste des datasets ==== **Scylla :** Catégorie 1 : * raidZ/dev : les disques du cluster de dev * raidZ/scylla_prod : les disques de prod stockés sur Scylla * raidZ/log_scylla : les logs des proxys stockés sur Scylla Catégorie 2 : * raidZ/backup_sql : le backup de nos sql * raidZ/iso : les isos du cluster Catégorie 3 : * raidZ/log_charybde_back : backup des logs proxys sur Charybde. * raidZ/prod_charybde_back : backup des disques de production sur Charybde. **Charybde :** Catégorie 1 : * raidZ/prod_charybde : les disques du cluster de production sur Charybde * raidZ/log_charybde : les logs proxys sur Charybde. Catégorie 2 : * raidZ/backup : les dumps des machines du cluster (stockées en local...) * raidZ/depots : le montage NFS pour stocker les dépots MiNET Catégorie 3 : * raidZ/scylla_prod_back : sauvegarde de la prod de Scylla * raidZ/log_scylla_back : sauvegarde des logs de Scylla * raidZ/dev_back : sauvegarde du dev * raidZ/backup_sql_back : sauvegarde des sauvegardes de notres SQL (oui on est un brin parano...)