
Administration Ceph – Niveau 1
Apprenez à déployer un cluster Cephadm de 3 nœuds, à administrer les services MON / MGR / OSD et à assurer la haute disponibilité de vos données.
Objectifs de la formation
- Comprendre l’architecture Ceph : MON, MGR, OSD, RGW, CephFS
- Déployer un cluster Cephadm pas-à-pas (bootstrap, ajout de nœuds)
- Gérer les OSD, les placement groups et les pools (réplication vs erasure coding)
- Effectuer les tâches courantes d’administration : rebalance, scrubbing, reweight, pg autoscaler
- Découvrir les interfaces RBD, RGW et CephFS
- Mettre en place la surveillance (Dashboard, Prometheus, Grafana, Alertmanager)
- Appliquer les meilleures pratiques de sauvegarde, mise à jour et troubleshooting
Public concerné
Admins systèmes, ingénieurs stockage, architectes cloud débutant sur Ceph.
Prérequis
- Maîtrise de l’environnement Linux (ligne de commande, gestion de services)
- Notions fondamentales de réseaux TCP/IP (MTU, VLAN, routage)
- Connaissance de base des concepts de stockage bloc & fichier
Programme détaillé
Jour 1 – Fondamentaux & déploiement
-
Introduction au stockage distribué
-
Limitations RAID / SAN traditionnels
-
Positionnement de Ceph dans l’écosystème Cloud-Native
-
-
Architecture Ceph 17 → 18 (Reef → Squid)
-
Rôles MON, MGR, OSD, MDS, RGW
-
Cluster Map, CRUSH, PG, heartbeats
-
-
Lab : préparation des hôtes
-
Réseau public vs cluster, time-sync, tuning sysctl
-
-
Bootstrap Cephadm
-
Téléchargement de l’image, script
cephadm bootstrap
-
Ajout d’hôtes, activation du Dashboard
-
-
Validation santé
-
ceph -s
,ceph orch status
, alertes initiales
-
Jour 2 – Stockage & services
-
Gestion des OSD
-
LVs, partitions, device classes (SSD/HDD/NVMe)
-
Flags
out
,in
,destroyed
,safe-to-destroy
-
-
CRUSH map avancée
-
Buckets, rules, device weights
-
Simulation
crushtool
-
-
Pools et PG
-
Calcul
pg_num
, autoscaler, souci de small-PG -
Réplication vs erasure coding (EC k/m), overhead, performance
-
-
Interfaces client
-
RBD : map, snapshot, clone
-
RGW : configuration S3, tenants, quotas
-
CephFS : MDS, sub-volumes
-
-
Lab pratique
-
Création de pools répliqués/EC, bench
rados bench
, test RBD
-
Jour 3 – Opérations & haute dispo
-
Surveillance et alerting
-
Dashboard, Prometheus, Grafana, Alertmanager
-
Alertes critiques et scripts webhook
-
-
Maintenance et upgrades
-
Rolling update avec
ceph orch upgrade
-
Flags
noout
,norebalance
,norecover
-
-
Sauvegarde & récupération
-
rbd mirror
, snapshots RGW, export OSD,cephfs-journal-tool
-
-
Haute disponibilité & bonnes pratiques
-
Quorum, failure domains, Stretch cluster, Multi-site RGW
-
Sécurité : encryption at rest, réseaux dédiés, firewalling
-
-
Troubleshooting
-
Logs
cephadm logs
,ceph daemon ...
-
Outils :
ceph tell
,ceph-objectstore-tool
, GDB on OSD
-
-
Examen pratique & clôture
-
Déploiement complet, résolution d’incident simulé, Q&A
-
Certification
À l'issue de cette formation, vous recevrez une attestation de participation délivrée par ECINTELLIGENCE.
Autres formations qui pourraient vous intéresser
Prêt à développer vos compétences ?
Rejoignez des centaines de professionnels qui ont fait confiance à ECINTELLIGENCE pour leur montée en compétences.
Voir toutes nos formations