1
0
mirror of https://gitlab.com/free_zed/free_zed.gitlab.io.git synced 2024-06-17 14:12:31 +00:00
free_zed.gitlab.io/content/jdll-lyon-2022-ceph.md
2022-10-03 01:26:05 +02:00

73 lines
3.0 KiB
Markdown
Raw Permalink Blame History

This file contains invisible Unicode characters

This file contains invisible Unicode characters that are indistinguishable to humans but may be processed differently by a computer. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

This file contains Unicode characters that might be confused with other characters. If you think that this is intentional, you can safely ignore this warning. Use the Escape button to reveal them.

Title: Ceph, le stockage du futur
Date: 2022-04-03 12:00
Summary: Présentation de Ceph, une plateforme libre de stockage distribué.
Category: Bloc-notes
Tags: talk, jdll, lyon, storage, ceph
Status: Published
Lang: fr
### [Ceph, le stockage du futur](https://pretalx.jdll.org/jdll2022/talk/SBZZGF/)
par [Gregory Colpart](http://www.gcolpart.com/) - 2022-04-03 12:0012:55 Salle des cultures
![logo JDLL 2022]({static}/img/jdll-2022.jpg)
Présentation de [Ceph][ceph], une plateforme libre de stockage distribué.
[Ceph][ceph] est une plateforme libre de stockage distribué. [Ceph][ceph] permet de stocker des objets répartis sur plusieurs nœuds de façon redondante. Cela permet de multiples cas d'usage : archiver de grand volume de données (Po), partager des fichiers entre serveurs… mais surtout cela devient un outil de base des solutions libres de virtualisation/conteneurisation (KVM, Proxmox, OpenStack, Kubernetes…) et des solutions de « Cloud Storage » chez DigitalOcean, OVH, etc. Comment fonctionne Ceph en interne ? Revenons sur les mécanismes de base de la technologie : OSD, PG, monitor, etc. Comment utiliser Ceph concrètement ? Parlons de l'installation et l'utilisation en mode bloc (rdb) ou en mode filesystem (CephFS).
_[MàJ du 3/10/22]:_ [Lien vers la captation vidéo][captation]
---
Notes personnelles:
- gérant [evolix](https://evolix.com/presentation.html)
- infogérant, hébergement, HA,
- Ceph = céphalopode
- historique stockage:
- main préhistorique, écriture mésopotamien, métiers a tisser, HDD, baie stockage
- NDB
- DRBD
- LVM
- ZFS, BTRFS
- GFS, Lustre, GlusterFS, ...
- disque distribué auto-réparant
- historique Ceph:
- [Sage Weil][sage_weil]
- co-fondateur [DreamHost][dreamhost] en 97
- these [_Ceph: Reliable, Scalable, and High-Performance Distributed Storage_][these]
- co-fondateur [Inktank Storage][inktank] en
- racheté par RedHat en 2014
- LGPL / github / Linux / freeBSD
- Concept
- fiable, pas de SPOF, zero downtime
- extensible
- cas d'usage
- CERN big bang III
- gros volumes
- partage multi-serveur
- stockage objet compatible S3
- **OSD**: _Object Storage Device_
- **PG**: _Placement Group_
- 128 a 1024 PGs par pool
- PG repartit sur 3 OSD
- Pool
- plusieurs pool par cluster
- 1 pool par usage
- 1 pool par type de disque (SSD, HDD, ...)
- mode réplication ou _erasure coding_
- Accès
- _file_: cephFS
- _block_
- _object_ (compatible S3)
- Comment ça marche
- des démons
[captation]: https://www.videos-libr.es/w/8eh1ikxAD2PBNWjB6ew8gV
[ceph]: https://ceph.io/en/
[sage_weil]: https://en.wikipedia.org/wiki/Sage_Weil
[dreamhost]: https://www.dreamhost.com/
[these]: https://ceph.io/assets/pdfs/weil-thesis.pdf
[inktank]: https://en.wikipedia.org/wiki/Inktank_Storage