mirror of
https://gitlab.com/free_zed/free_zed.gitlab.io.git
synced 2024-06-01 22:02:28 +00:00
✨ Add ceph notes
This commit is contained in:
parent
0beb678916
commit
b589f13f6c
69
content/jdll-lyon-2022-ceph.md
Normal file
69
content/jdll-lyon-2022-ceph.md
Normal file
|
@ -0,0 +1,69 @@
|
|||
Title: Ceph, le stockage du futur
|
||||
Date: 2022-04-03 12:00
|
||||
Summary: Présentation de Ceph, une plateforme libre de stockage distribué.
|
||||
Category: Bloc-notes
|
||||
Tags: talk, jdll, lyon, storage, ceph
|
||||
Status: Published
|
||||
Lang: fr
|
||||
|
||||
### [Ceph, le stockage du futur](https://pretalx.jdll.org/jdll2022/talk/SBZZGF/)
|
||||
|
||||
par [Gregory Colpart](http://www.gcolpart.com/) - 2022-04-03 12:00–12:55 Salle des cultures
|
||||
|
||||
![logo JDLL 2022]({static}/img/jdll-2022.jpg)
|
||||
|
||||
Présentation de [Ceph][ceph], une plateforme libre de stockage distribué.
|
||||
|
||||
[Ceph][ceph] est une plateforme libre de stockage distribué. [Ceph][ceph] permet de stocker des objets répartis sur plusieurs nœuds de façon redondante. Cela permet de multiples cas d'usage : archiver de grand volume de données (Po), partager des fichiers entre serveurs… mais surtout cela devient un outil de base des solutions libres de virtualisation/conteneurisation (KVM, Proxmox, OpenStack, Kubernetes…) et des solutions de « Cloud Storage » chez DigitalOcean, OVH, etc. Comment fonctionne Ceph en interne ? Revenons sur les mécanismes de base de la technologie : OSD, PG, monitor, etc. Comment utiliser Ceph concrètement ? Parlons de l'installation et l'utilisation en mode bloc (rdb) ou en mode filesystem (CephFS).
|
||||
|
||||
---
|
||||
|
||||
Notes personnelles:
|
||||
|
||||
- gérant [evolix](https://evolix.com/presentation.html)
|
||||
- infogérant, hébergement, HA,
|
||||
- Ceph = céphalopode
|
||||
- historique stockage:
|
||||
- main préhistorique, écriture mésopotamien, métiers a tisser, HDD, baie stockage
|
||||
- NDB
|
||||
- DRBD
|
||||
- LVM
|
||||
- ZFS, BTRFS
|
||||
- GFS, Lustre, GlusterFS, ...
|
||||
- disque distribué auto-réparant
|
||||
- historique Ceph:
|
||||
- [Sage Weil][sage_weil]
|
||||
- co-fondateur [DreamHost][dreamhost] en 97
|
||||
- these [_Ceph: Reliable, Scalable, and High-Performance Distributed Storage_][these]
|
||||
- co-fondateur [Inktank Storage][inktank] en
|
||||
- racheté par RedHat en 2014
|
||||
- LGPL / github / Linux / freeBSD
|
||||
- Concept
|
||||
- fiable, pas de SPOF, zero downtime
|
||||
- extensible
|
||||
- cas d'usage
|
||||
- CERN big bang III
|
||||
- gros volumes
|
||||
- partage multi-serveur
|
||||
- stockage objet compatible S3
|
||||
- **OSD**: _Object Storage Device_
|
||||
- **PG**: _Placement Group_
|
||||
- 128 a 1024 PGs par pool
|
||||
- PG repartit sur 3 OSD
|
||||
- Pool
|
||||
- plusieurs pool par cluster
|
||||
- 1 pool par usage
|
||||
- 1 pool par type de disque (SSD, HDD, ...)
|
||||
- mode réplication ou _erasure coding_
|
||||
- Accès
|
||||
- _file_: cephFS
|
||||
- _block_
|
||||
- _object_ (compatible S3)
|
||||
- Comment ça marche
|
||||
- des démons
|
||||
|
||||
[ceph]: https://ceph.io/en/
|
||||
[sage_weil]: https://en.wikipedia.org/wiki/Sage_Weil
|
||||
[dreamhost]: https://www.dreamhost.com/
|
||||
[these]: https://ceph.io/assets/pdfs/weil-thesis.pdf
|
||||
[inktank]: https://en.wikipedia.org/wiki/Inktank_Storage
|
Loading…
Reference in New Issue
Block a user