Administration Ceph – Niveau 1
Formation en ligne
3 jours

Administration Ceph – Niveau 1

Apprenez à déployer un cluster Cephadm de 3 nœuds, à administrer les services MON / MGR / OSD et à assurer la haute disponibilité de vos données.

Objectifs de la formation

  • Comprendre l’architecture Ceph : MON, MGR, OSD, RGW, CephFS
  • Déployer un cluster Cephadm pas-à-pas (bootstrap, ajout de nœuds)
  • Gérer les OSD, les placement groups et les pools (réplication vs erasure coding)
  • Effectuer les tâches courantes d’administration : rebalance, scrubbing, reweight, pg autoscaler
  • Découvrir les interfaces RBD, RGW et CephFS
  • Mettre en place la surveillance (Dashboard, Prometheus, Grafana, Alertmanager)
  • Appliquer les meilleures pratiques de sauvegarde, mise à jour et troubleshooting

Public concerné

Admins systèmes, ingénieurs stockage, architectes cloud débutant sur Ceph.

Prérequis

  • Maîtrise de l’environnement Linux (ligne de commande, gestion de services)
  • Notions fondamentales de réseaux TCP/IP (MTU, VLAN, routage)
  • Connaissance de base des concepts de stockage bloc & fichier

Programme détaillé

Jour 1 – Fondamentaux & déploiement

  1. Introduction au stockage distribué

    • Limitations RAID / SAN traditionnels

    • Positionnement de Ceph dans l’écosystème Cloud-Native

  2. Architecture Ceph 17 → 18 (Reef → Squid)

    • Rôles MON, MGR, OSD, MDS, RGW

    • Cluster Map, CRUSH, PG, heartbeats

  3. Lab : préparation des hôtes

    • Réseau public vs cluster, time-sync, tuning sysctl

  4. Bootstrap Cephadm

    • Téléchargement de l’image, script cephadm bootstrap

    • Ajout d’hôtes, activation du Dashboard

  5. Validation santé

    • ceph -s, ceph orch status, alertes initiales

Jour 2 – Stockage & services

  1. Gestion des OSD

    • LVs, partitions, device classes (SSD/HDD/NVMe)

    • Flags out, in, destroyed, safe-to-destroy

  2. CRUSH map avancée

    • Buckets, rules, device weights

    • Simulation crushtool

  3. Pools et PG

    • Calcul pg_num, autoscaler, souci de small-PG

    • Réplication vs erasure coding (EC k/m), overhead, performance

  4. Interfaces client

    • RBD : map, snapshot, clone

    • RGW : configuration S3, tenants, quotas

    • CephFS : MDS, sub-volumes

  5. Lab pratique

    • Création de pools répliqués/EC, bench rados bench, test RBD

Jour 3 – Opérations & haute dispo

  1. Surveillance et alerting

    • Dashboard, Prometheus, Grafana, Alertmanager

    • Alertes critiques et scripts webhook

  2. Maintenance et upgrades

    • Rolling update avec ceph orch upgrade

    • Flags noout, norebalance, norecover

  3. Sauvegarde & récupération

    • rbd mirror, snapshots RGW, export OSD, cephfs-journal-tool

  4. Haute disponibilité & bonnes pratiques

    • Quorum, failure domains, Stretch cluster, Multi-site RGW

    • Sécurité : encryption at rest, réseaux dédiés, firewalling

  5. Troubleshooting

    • Logs cephadm logs, ceph daemon ...

    • Outils : ceph tell, ceph-objectstore-tool, GDB on OSD

  6. Examen pratique & clôture

    • Déploiement complet, résolution d’incident simulé, Q&A

Certification

À l'issue de cette formation, vous recevrez une attestation de participation délivrée par ECINTELLIGENCE.

1250 EUR

par participant

Durée

3 jours

Modalité

Formation en ligne

Prochaine session

Sur demande

Demander un devis

Autres formations qui pourraient vous intéresser

Prêt à développer vos compétences ?

Rejoignez des centaines de professionnels qui ont fait confiance à ECINTELLIGENCE pour leur montée en compétences.

Voir toutes nos formations

Nathan

Assistant virtuel ECINTELLIGENCE