Stockage distribué 2026. Un guide technique (controversé)

 

Une autre année vivante, une autre année à regarder l’industrie du stockage distribué se surpasser en créativité commerciale. Si 2024 était l’année où tout le monde a découvert qu’il fallait du “stockage pour l’IA” (spoiler : c’est le même vieux stockage, mais plus cher), 2025 est l’année où MinIO a décidé de s’immoler publiquement tandis qu’IBM et Red Hat continuent de facturer des millions pour avoir apposé leur logo sur Ceph.

Attends, les courbes arrivent.

Le drame de l’année : MinIO passe en “mode maintenance” (lire : mode abandon).

Si tu n’as pas suivi le feuilleton MinIO, laisse-moi te donner un peu de contexte. MinIO était le stockage d’objets open source que tout le monde déployait. Simple, rapide, compatible avec S3. Tu le mettais en place et en service en 15 minutes. C’était le WordPress du stockage objet.

Eh bien, en décembre 2025, un commit silencieux dans le README a tout changé : “Ce projet est actuellement en maintenance et n’accepte pas de nouvelles modifications”. Pas d’annonce. Pas de guide de migration. Pas d’adieu. Juste un commit et un au revoir très au revoir.

La communauté, sans surprise, s’est enflammée. Un développeur a parfaitement résumé la situation : “Une mise à jour silencieuse du README vient de mettre fin à l’ère de MinIO en tant que moteur S3 open-source par défaut”.

Mais cela ne s’est pas fait du jour au lendemain. MinIO poursuivait depuis des années une stratégie “open source mais sans en faire trop” :

  • 2021: Passage silencieux d’Apache 2.0 à AGPL v3 (pas d’annonce, pas de PR, rien)
  • 2022-2023: Campagnes agressives contre Nutanix et Weka pour “violation de licence”.
  • Février 2025: la console Web, la gestion des seaux et la réplication sont supprimées de la version communautaire.
  • Octobre 2025: arrête de distribuer des images Docker
  • Décembre 2025: Mode maintenance

Le message est clair : si tu veux MinIO pour de vrai, paie. Leur produit AIStor pour les entreprises commence à 96 000 €/an pour 400 TiB. Pour 1 PB, nous parlons de plus de 244 000 €/an.

La leçon à en tirer ? En 2025, l'”Open Source” sans gouvernance ouverte ne vaut rien. MinIO était une entreprise avec un produit open source, pas un projet communautaire. La différence est importante.

Pendant ce temps, Ceph continue de nager paisiblement.

Pendant que MinIO s’autodétruisait, Ceph fêtait sa 20e version stable : Tentacle (v20.2.0), sortie en novembre 2025. Le projet accumule plus d’un exaoctet de stockage déployé à l’échelle mondiale sur plus de 3 000 clusters.

L’élément le plus intéressant de Tentacle est FastEC (Fast Erasure Coding), qui améliore les performances des petites lectures et écritures de 2x à 3x. Cela rend l’erasure coding enfin viable pour les charges de travail de fichiers froids non purs. Avec un profil EC 6+2, tu peux désormais obtenir environ 50 % des performances de la réplication 3 tout en utilisant seulement 33 % de l’espace.

Pour ceux d’entre nous qui entendent depuis des années que “le codage par effacement est lent pour la production”, cela change vraiment la donne.

D’autres nouvelles de Tentacle :

  • Prise en charge intégrée de SMB via Samba Manager
  • Groupes de passerelles NVMe/TCP avec prise en charge de plusieurs espaces de noms
  • Authentification OAuth 2.0 sur le tableau de bord
  • Répertoires CephFS insensibles à la casse (enfin)
  • ISA-L remplace Jerasure (qui a été abandonné)

Le Crimson OSD (basé sur Seastar pour l’optimisation NVMe) est encore en avant-première technique. Il n’est pas prêt pour la production, mais la feuille de route est prometteuse.

Les chiffres qui comptent

Bloomberg exploite plus de 100 Po dans des grappes Ceph. Elle est membre Diamant de la Fondation Ceph et son responsable de l’ingénierie du stockage fait partie du conseil d’administration. DigitalOcean possède plus de 54 Po dans 37 clusters de production. Le CERN maintient 50+ PBs dans plus de 10 clusters.

Et voici la partie intéressante : ZTE Corporation fait partie des 3 premiers contributeurs mondiaux à Ceph et est numéro 1 en Chine. Son produit TECS CloveStorage (basé sur Ceph) est déployé dans plus de 320 projets NFV dans le monde, notamment chez China Mobile, izzi Telecom (Mexique) et Deutsche Telekom.

Le secteur des télécommunications est la superpuissance secrète de Ceph. Alors que les vendeurs d’entreprise te vendent des appareils coûteux, les opérateurs télécoms utilisent Ceph en production à grande échelle.

Le cirque des vendeurs : payer pour tes propres logiciels gratuits.

C’est là que ça devient intéressant (et j’irais même jusqu’à dire un peu absurde).

IBM Fusion : deux saveurs, un même objectif

IBM propose deux produits sous la marque Fusion :

  • IBM Fusion HCI: utilise IBM Storage Scale ECE (l’ancien GPFS/Spectrum Scale). Système de fichiers parallèle propriétaire avec codage d’effacement distribué. Appareil hyperconvergé qui évolue de 6 à 20 nœuds.
  • IBM Fusion SDS: utilise OpenShift Data Foundation (ODF), qui est… roulement de tambour…. Ceph packagé par Red Hat.

Oui, tu as bien lu. IBM te vend Ceph sous un autre nom. Red Hat l’emballe sous forme d’ODF, IBM le met dans Fusion SDS, et tu paies la prime d’entreprise.

Les revendications de performances d’IBM Fusion HCI sont impressionnantes sur les fiches techniques : accélération de 90x sur les requêtes S3 avec mise en cache locale, performances équivalentes à celles de Databricks Photon à 60 % du coût, etc.

Mais voici la question que personne ne pose : quelle est la part de technologie et quelle est la part de matériel bien dimensionné avec la bonne configuration ?

Parce que GPFS/Storage Scale est un excellent système de fichiers parallèles. Personne ne le conteste. Mais il est aussi propriétaire, il te lie à IBM, et le coût de la licence peut être astronomique. Et quand IBM te vend Fusion SDS… ils te vendent Ceph sous leur nom de marque.

Red Hat : l’intermédiaire de l’open source

Red Hat Ceph Storage continue d’être la distribution de choix pour les entreprises. Ils offrent 36 mois d’assistance à la production plus 24 mois d’assistance étendue en option. Le produit est très bien, je ne vais pas mentir.

Mais le prix reflète la “taxe Red Hat”. Tu paies pour :

  • Paquets testés et certifiés
  • Assistance aux entreprises 24 heures sur 24, 7 jours sur 7
  • Cycles de vie prévisibles
  • Intégration d’OpenShift

Cela en vaut-il la peine ? Cela dépend. Si ton organisation a besoin d’un contrat d’assistance pour dormir tranquille, probablement oui. Et nous serions heureux de te le vendre, mais si tu as l’équipement technique nécessaire pour faire fonctionner Ceph en amont, tu n’en auras peut-être pas besoin.

SUSE : celui qui a quitté le navire

Rebondissement de l’année : SUSE s’est complètement retiré du marché des entreprises Ceph. Son produit SUSE Enterprise Storage (SES) a atteint la fin du support en janvier 2023. Après avoir acquis Rancher Labs en 2020, ils ont pivoté vers Longhorn pour le stockage natif de Kubernetes.

Si tu étais un client SES, tu es maintenant orphelin. Tes options sont de migrer vers Red Hat Ceph Storage, Canonical Charmed Ceph, community Ceph, ou de trouver un partenaire spécialisé pour t’aider.

Pure Storage et NetApp : l’autre côté du ring

Pure Storage a créé une catégorie appelée “Unified Fast File and Object” (UFFO) avec sa famille FlashBlade. Matériel impressionnant, performances constantes, prix premium. Son FlashBlade//S R2 peut atteindre 60 Po par cluster avec des modules DirectFlash de 150 To.

NetApp StorageGRID 12.0 met l’accent sur l’IA avec des améliorations de débit de 20x via une mise en cache avancée et la prise en charge de plus de 600 milliards d’objets dans un seul cluster.

Il s’agit dans les deux cas de solutions propriétaires qui concurrencent directement Ceph RGW dans l’espace de stockage objet compatible S3. Les performances sont excellentes, mais le verrouillage est total.

La question embarrassante : dois-tu vraiment payer cette prime ?

C’est ici que je mets mon chapeau d’ingénieur cynique.

Ceph upstream est extrêmement stable. Il compte 20 versions à son actif. Les projets de la Fondation Ceph incluent IBM, Red Hat, Bloomberg, DigitalOcean, OVHcloud et des dizaines d’autres. Le développement est actif, la communauté est forte et la documentation est abondante.

Alors pourquoi paierais-tu IBM ou Red Hat pour l’emballer ?

Raisons légitimes :

  • Ton organisation a besoin d’un contrat d’aide à la conformité ou d’une politique interne.
  • Tu n’as pas le personnel technique nécessaire pour faire fonctionner Ceph.
  • Tu as besoin de cycles de mise à jour prévisibles et testés.
  • Le coût du temps d’arrêt est plus élevé que le coût de la licence.

Des raisons moins légitimes :

  • “C’est ce que tout le monde fait.
  • “Personne n’a été licencié pour avoir acheté IBM/Red Hat”.
  • “Le fournisseur nous a dit que l’open source n’était pas pris en charge”.
  • Personne dans ton équipe n’a pris la peine d’apprendre Ceph pour de vrai.

Le vrai problème, c’est la connaissance. Ceph a une courbe d’apprentissage abrupte. Concevoir correctement un cluster, comprendre les cartes CRUSH, régler BlueStore, optimiser les groupes de placement… tout cela nécessite une formation sérieuse et une expérience pratique.

Mais une fois que tu as ces connaissances, tu as un contrôle total sur ton infrastructure. Tu ne dépends pas des cycles de publication des fournisseurs. Tu ne paies pas pour des “droits d’utilisation” de logiciels sous licence GPL. Tu n’es pas orphelin lorsque le fournisseur décide de se tourner vers un autre marché (n’est-ce pas, SUSE ?).

Allégations du fabricant et réalité

L’une des choses qui m’irritent le plus dans ce secteur est le nombre d’affirmations marketing qui sont acceptées sans poser de questions.

“Notre produit est 90x plus rapide” – Par rapport à quoi ? Dans quelle charge de travail ? Avec quelle configuration du concurrent ?

“Performances équivalentes à celles de [concurrent] à 60 % du coût” – Cela inclut-il les coûts de licence ? d’assistance ? de formation ? de personnel supplémentaire ?

“Enterprise-grade” – qu’est-ce que cela signifie exactement ? Parce que Ceph en amont est également de niveau entreprise au CERN, à Bloomberg et dans des centaines de télécoms.

En réalité, les performances du stockage distribué dépendent fortement de:

  • Conception correcte des clusters (domaines de défaillance, groupes de placement).
  • Matériel approprié (réseau 25/100GbE, NVMe avec protection contre la perte de puissance).
  • Configuration du système d’exploitation (IOMMU désactivé pour des performances optimales, régulateurs de CPU)
  • Réglage spécifique à la charge de travail (osd_memory_target, paramètres bluestore)

Un cluster Ceph bien conçu et géré par des personnes qui savent ce qu’elles font peut égaler ou battre de nombreuses solutions propriétaires. Le benchmark Clyso a atteint 1 TiB/s avec 68 serveurs Dell PowerEdge. IBM/Ceph a démontré plus de 450 000 IOPS sur un cluster à 4 nœuds avec 24 NVMe par nœud.

Peux-tu obtenir ces chiffres avec Ceph en amont ? Oui, si tu sais ce que tu fais.

Peux-tu les obtenir en achetant un appareil électroménager ? Oui, mais tu paieras beaucoup plus cher.

La démarche intelligente : le contrôle de ton infrastructure

Après 15 ans dans ce secteur, ma conclusion est simple :

L’option la plus intelligente pour la plupart des organisations est Ceph en amont avec une assistance et une formation spécialisées indépendantes.

Pourquoi ?

  1. Gouvernance de la fondation: Ceph est un projet de la Fondation Linux avec une gouvernance ouverte. MinIO ne peut pas se produire.
  2. Communauté active: des milliers de contributeurs, des versions régulières, des bugs corrigés rapidement.
  3. Pas de verrouillage: c’est ton cluster, ta configuration, ton code. Si demain tu décides de changer de partenaire d’assistance, tu ne perds rien.
  4. Coût total de possession réel: le logiciel est gratuit. Tu investis dans le matériel approprié et les connaissances (formation et assistance technique).
  5. Flexibilité totale: tu peux mettre à niveau quand tu le souhaites, et non pas lorsque le fournisseur sort la prochaine version packagée.

Le “mais” est évident : tu as besoin de connaissances techniques pour faire fonctionner tout cela. Et c’est là que de nombreuses organisations échouent. Elles déploient Ceph sans formation adéquate, le configurent mal, ont des problèmes de performance et concluent que “Ceph ne fonctionne pas” alors que le problème venait de la mise en œuvre.

Où trouver ces connaissances ?

Ceph est complexe. Mais il existe des chemins clairs :

La documentation officielle est très complète et s’est beaucoup améliorée. Le blog Ceph propose d’excellents approfondissements techniques.

Cephalocon est la conférence annuelle où tu peux apprendre de ceux qui exploitent Ceph à une échelle réelle (Bloomberg, CERN, DigitalOcean).

Une formation structurée avec des laboratoires pratiques est le moyen le plus efficace d’acquérir de réelles compétences. Tu n’apprends pas Ceph en lisant des diapositives ; tu l’apprends en cassant et en réparant des clusters.

L’assistance technique L3 assurée par des personnes qui vivent Ceph tous les jours te sort du pétrin quand les choses se compliquent en production. Parce que c’est le cas. Chez SIXE, nous avons passé des années à former des équipes techniques à Ceph et à fournir une assistance L3 aux organisations qui ont décidé de prendre le contrôle de leur infrastructure de stockage. Notre programme de formation Ceph couvre tout, de l’architecture de base aux opérations avancées, avec de véritables laboratoires pratiques. Et si tu as déjà Ceph en production et que tu as besoin d’une véritable assistance technique, notre support technique spécialisé est conçu exactement pour cela.

Nous venons également de lancer un programme de certification avec des badges sur Credly pour que ton équipe puisse démontrer ses compétences de manière tangible. Parce que dans ce secteur, “être Ceph” ne signifie pas la même chose pour tout le monde.

Conclusions pour 2026

  1. MinIO est mort pour une utilisation sérieuse. Cherche des alternatives. Ceph RGW, SeaweedFS, ou même le fork OpenMaxIO si tu es courageux.
  2. Les vendeurs te vendent ton propre logiciel gratuit avec une majoration. Dans certains cas, il est logique de payer pour cela. Il y en a beaucoup plus où ce n’est pas le cas.
  3. Ceph en amont est mature et prêt pour la production. Bloomberg, DigitalOcean, le CERN et plus de 320 projets de télécommunications ne peuvent pas tous se tromper.
  4. Le véritable coût du stockage distribué est la connaissance. Investis dans une formation et une assistance technique de qualité, et non dans des licences de logiciels qui sont déjà gratuits.
  5. Le contrôle de ton infrastructure a de la valeur. Demande aux clients de SUSE SES comment cela s’est passé lorsque le fournisseur a décidé d’abandonner le produit.
  6. La gouvernance du projet est aussi importante que la technologie. Fondation > entreprise avec produit open source.

2026 semble intéressant. FastEC va changer l’équation du codage par effacement. L’intégration de l’IA et du ML continuera de pousser à plus de performance. Et les fournisseurs vont continuer à essayer de te convaincre que tu as besoin de leur emballage premium… à tort ou à raison.

C’est à toi de décider. C’est la seule chose importante.

SIXE