mirror of
https://gitlab.com/free_zed/free_zed.gitlab.io.git
synced 2024-06-17 14:12:31 +00:00
73 lines
3.0 KiB
Markdown
73 lines
3.0 KiB
Markdown
Title: Ceph, le stockage du futur
|
||
Date: 2022-04-03 12:00
|
||
Summary: Présentation de Ceph, une plateforme libre de stockage distribué.
|
||
Category: Bloc-notes
|
||
Tags: talk, jdll, lyon, storage, ceph
|
||
Status: Published
|
||
Lang: fr
|
||
|
||
### [Ceph, le stockage du futur](https://pretalx.jdll.org/jdll2022/talk/SBZZGF/)
|
||
|
||
par [Gregory Colpart](http://www.gcolpart.com/) - 2022-04-03 12:00–12:55 Salle des cultures
|
||
|
||
![logo JDLL 2022]({static}/img/jdll-2022.jpg)
|
||
|
||
Présentation de [Ceph][ceph], une plateforme libre de stockage distribué.
|
||
|
||
[Ceph][ceph] est une plateforme libre de stockage distribué. [Ceph][ceph] permet de stocker des objets répartis sur plusieurs nœuds de façon redondante. Cela permet de multiples cas d'usage : archiver de grand volume de données (Po), partager des fichiers entre serveurs… mais surtout cela devient un outil de base des solutions libres de virtualisation/conteneurisation (KVM, Proxmox, OpenStack, Kubernetes…) et des solutions de « Cloud Storage » chez DigitalOcean, OVH, etc. Comment fonctionne Ceph en interne ? Revenons sur les mécanismes de base de la technologie : OSD, PG, monitor, etc. Comment utiliser Ceph concrètement ? Parlons de l'installation et l'utilisation en mode bloc (rdb) ou en mode filesystem (CephFS).
|
||
|
||
_[MàJ du 3/10/22]:_ [Lien vers la captation vidéo][captation]
|
||
|
||
---
|
||
|
||
Notes personnelles:
|
||
|
||
- gérant [evolix](https://evolix.com/presentation.html)
|
||
- infogérant, hébergement, HA,
|
||
- Ceph = céphalopode
|
||
- historique stockage:
|
||
- main préhistorique, écriture mésopotamien, métiers a tisser, HDD, baie stockage
|
||
- NDB
|
||
- DRBD
|
||
- LVM
|
||
- ZFS, BTRFS
|
||
- GFS, Lustre, GlusterFS, ...
|
||
- disque distribué auto-réparant
|
||
- historique Ceph:
|
||
- [Sage Weil][sage_weil]
|
||
- co-fondateur [DreamHost][dreamhost] en 97
|
||
- these [_Ceph: Reliable, Scalable, and High-Performance Distributed Storage_][these]
|
||
- co-fondateur [Inktank Storage][inktank] en
|
||
- racheté par RedHat en 2014
|
||
- LGPL / github / Linux / freeBSD
|
||
- Concept
|
||
- fiable, pas de SPOF, zero downtime
|
||
- extensible
|
||
- cas d'usage
|
||
- CERN big bang III
|
||
- gros volumes
|
||
- partage multi-serveur
|
||
- stockage objet compatible S3
|
||
- **OSD**: _Object Storage Device_
|
||
- **PG**: _Placement Group_
|
||
- 128 a 1024 PGs par pool
|
||
- PG repartit sur 3 OSD
|
||
- Pool
|
||
- plusieurs pool par cluster
|
||
- 1 pool par usage
|
||
- 1 pool par type de disque (SSD, HDD, ...)
|
||
- mode réplication ou _erasure coding_
|
||
- Accès
|
||
- _file_: cephFS
|
||
- _block_
|
||
- _object_ (compatible S3)
|
||
- Comment ça marche
|
||
- des démons
|
||
|
||
[captation]: https://www.videos-libr.es/w/8eh1ikxAD2PBNWjB6ew8gV
|
||
[ceph]: https://ceph.io/en/
|
||
[sage_weil]: https://en.wikipedia.org/wiki/Sage_Weil
|
||
[dreamhost]: https://www.dreamhost.com/
|
||
[these]: https://ceph.io/assets/pdfs/weil-thesis.pdf
|
||
[inktank]: https://en.wikipedia.org/wiki/Inktank_Storage
|