1
0
mirror of https://gitlab.com/free_zed/free_zed.gitlab.io.git synced 2024-06-01 22:02:28 +00:00

Add ceph notes

This commit is contained in:
Freezed 2022-04-05 23:53:48 +02:00
parent 0beb678916
commit b589f13f6c

View File

@ -0,0 +1,69 @@
Title: Ceph, le stockage du futur
Date: 2022-04-03 12:00
Summary: Présentation de Ceph, une plateforme libre de stockage distribué.
Category: Bloc-notes
Tags: talk, jdll, lyon, storage, ceph
Status: Published
Lang: fr
### [Ceph, le stockage du futur](https://pretalx.jdll.org/jdll2022/talk/SBZZGF/)
par [Gregory Colpart](http://www.gcolpart.com/) - 2022-04-03 12:0012:55 Salle des cultures
![logo JDLL 2022]({static}/img/jdll-2022.jpg)
Présentation de [Ceph][ceph], une plateforme libre de stockage distribué.
[Ceph][ceph] est une plateforme libre de stockage distribué. [Ceph][ceph] permet de stocker des objets répartis sur plusieurs nœuds de façon redondante. Cela permet de multiples cas d'usage : archiver de grand volume de données (Po), partager des fichiers entre serveurs… mais surtout cela devient un outil de base des solutions libres de virtualisation/conteneurisation (KVM, Proxmox, OpenStack, Kubernetes…) et des solutions de « Cloud Storage » chez DigitalOcean, OVH, etc. Comment fonctionne Ceph en interne ? Revenons sur les mécanismes de base de la technologie : OSD, PG, monitor, etc. Comment utiliser Ceph concrètement ? Parlons de l'installation et l'utilisation en mode bloc (rdb) ou en mode filesystem (CephFS).
---
Notes personnelles:
- gérant [evolix](https://evolix.com/presentation.html)
- infogérant, hébergement, HA,
- Ceph = céphalopode
- historique stockage:
- main préhistorique, écriture mésopotamien, métiers a tisser, HDD, baie stockage
- NDB
- DRBD
- LVM
- ZFS, BTRFS
- GFS, Lustre, GlusterFS, ...
- disque distribué auto-réparant
- historique Ceph:
- [Sage Weil][sage_weil]
- co-fondateur [DreamHost][dreamhost] en 97
- these [_Ceph: Reliable, Scalable, and High-Performance Distributed Storage_][these]
- co-fondateur [Inktank Storage][inktank] en
- racheté par RedHat en 2014
- LGPL / github / Linux / freeBSD
- Concept
- fiable, pas de SPOF, zero downtime
- extensible
- cas d'usage
- CERN big bang III
- gros volumes
- partage multi-serveur
- stockage objet compatible S3
- **OSD**: _Object Storage Device_
- **PG**: _Placement Group_
- 128 a 1024 PGs par pool
- PG repartit sur 3 OSD
- Pool
- plusieurs pool par cluster
- 1 pool par usage
- 1 pool par type de disque (SSD, HDD, ...)
- mode réplication ou _erasure coding_
- Accès
- _file_: cephFS
- _block_
- _object_ (compatible S3)
- Comment ça marche
- des démons
[ceph]: https://ceph.io/en/
[sage_weil]: https://en.wikipedia.org/wiki/Sage_Weil
[dreamhost]: https://www.dreamhost.com/
[these]: https://ceph.io/assets/pdfs/weil-thesis.pdf
[inktank]: https://en.wikipedia.org/wiki/Inktank_Storage