Pourquoi votre RAG répond avec les données du mois dernier

RAG · IBM Fusion CAS

Pourquoi votre RAG répond avec les données du mois dernier.

Re-vectoriser des milliers de documents à chaque modification ne passe pas à l'échelle. IBM Fusion CAS intègre la vectorisation directement dans le stockage : les documents changent, les vecteurs se mettent à jour automatiquement.

7 min de lectureRAG · Stockage · Données non structurées

IBM Fusion CAS (Content Aware Storage) est une capacité intégrée à IBM Fusion qui vectorise, indexe et maintient à jour les documents directement dans la couche de stockage — sans déplacer de données ni reconstruire l'index vectoriel.

Si vous avez un pipeline RAG en production, vous avez probablement déjà rencontré ce problème : les documents changent, mais les vecteurs ne suivent pas. Le contrat a été amendé en mars, le chatbot répond encore avec la version de décembre. Ce n'est pas un défaut du modèle — c'est que personne n'a relancé l'ingestion. CAS résout exactement cela.

80–90%
Des données d'entreprise
sont non structurées
Source : IBM Redbooks
40%
Des prototypes IA
n'atteignent jamais la production
Qualité des données
0
Copies de données
nécessaires avec CAS
Ingestion zero-copy
01 · Le problème

Pourquoi les vecteurs d'un RAG deviennent-ils obsolètes ?

Entre 80 % et 90 % des données d'entreprise sont non structurées — PDF, documents scannés, tableurs, contrats, tickets de support. Dans un pipeline RAG classique, le flux pour les rendre accessibles à l'IA est : extraire les documents → les parser → générer des embeddings → les charger dans une base de données vectorielle → chercher quand une requête arrive. Ça fonctionne. Jusqu'à ce que les documents changent.

Manuels techniques versionnés, contrats avec avenants, rapports financiers trimestriels, tickets de support rouverts. À chaque modification, il faut relancer tout le pipeline. Avec des milliers de documents, cela implique des heures de GPU, un déplacement massif de données entre systèmes, et une équipe dédiée à surveiller le processus. Selon IBM, 40 % des prototypes d'IA n'atteignent jamais la production précisément à cause de problèmes de qualité et de disponibilité des données.

L'alternative habituelle : ne pas re-vectoriser. Et alors votre IA répond avec des informations vieilles de deux mois.

La faille de sécurité que personne ne voit

Dans la plupart des déploiements RAG, la vectorisation dilue les contrôles d'accès du document original. Le chatbot a accès à tout l'index vectoriel, et soudain un commercial peut extraire des informations financières auxquelles il ne devrait pas avoir accès parce que les ACL du fichier n'ont pas été propagées aux vecteurs. CAS résout ce problème : les vecteurs héritent des permissions du document source.

02 · La solution

Qu'est-ce qu'IBM Fusion CAS et à quoi sert-il ?

CAS (Content Aware Storage) est une capacité intégrée à IBM Fusion qui opère sur Storage Scale. Ce n'est pas un produit séparé. Le stockage passe d'un simple espace de conservation de bytes à un système qui comprend le contenu de chaque fichier : sa structure, sa sémantique et comment il a changé depuis son dernier traitement.

Architecture AI-Q Research Assistant avec IBM Fusion CAS — flux d'ingestion, vectorisation et requête RAG
Architecture AI-Q Research Assistant sur IBM Fusion — Source : IBM Community, Sandeep Zende
Capacité Pipeline RAG traditionnel IBM Fusion CAS
Déplacement de données
Copie vers système externe
Zero-copy sur place
Mise à jour des vecteurs
Ré-ingestion complète
Incrémentale automatique
Détection des changements
Manuel / cron
Temps réel
Contrôle d'accès sur vecteurs
Non propagé
ACL héritées
Accélération GPU
Inférence uniquement
Dès l'ingestion
Orchestration
Scripts + crons + files
Intégrée au stockage

Si vous utilisez déjà Docling (ou le portage de LibrePower pour IBM Power) avec Milvus et un LLM, vous n'avez pas besoin de CAS pour que cela fonctionne. Un déploiement avec quelques centaines de PDF qui changent peu se gère avec un pipeline orchestré et un cron. Le point de bascule arrive quand les documents se comptent par dizaines de milliers, changent quotidiennement et les contrôles d'accès sont critiques.

03 · Comment ça marche

Comment CAS traite-t-il les documents sans les sortir du stockage ?

Flux IBM Fusion CAS — ingestion et requête
📄
Un document arrive ou change dans Storage Scale PDF, scans, tableaux, contrats — CAS détecte l'événement automatiquement
Extraction et chunking sémantique accéléré par GPU OCR, reconnaissance de tableaux, analyse de layout — tout dans le stockage, sans copie
🧬
Génération d'embeddings avec NeMo Retriever Vectorisation sur GPU NVIDIA Blackwell — RTX PRO 6000, mise à l'échelle linéaire
🗄️
Indexation incrémentale dans la base vectorielle intégrée Seules les parties modifiées sont mises à jour — avec les ACL du document source héritées
🔁
Requête RAG : chercher → raisonner → affiner → répondre AI-Q Research Assistant : boucle itérative avec Nemotron + Llama-3, pas une réponse unique
↻ Boucle continue — les données sont automatiquement retraitées quand elles changent

La différence clé avec un pipeline conventionnel : il n'y a pas d'étape manuelle entre « le document a changé » et « l'index vectoriel reflète ce changement ». CAS comble cette lacune automatiquement, avec les GPU NVIDIA Blackwell qui accélèrent chaque phase — pas seulement l'inférence finale. Le débit d'ingestion et de requête évolue linéairement avec l'ajout de GPU NVIDIA RTX PRO 6000, selon les tests documentés dans le Redbook IBM sur la plateforme de données NVIDIA AI. Sur les benchmarks BEIR (le standard de l'industrie pour évaluer la recherche sémantique), CAS surpasse les systèmes de récupération d'information les plus avancés du marché.

04 · Déploiement

On-premise parce qu'il n'y a pas d'alternative

Toute l'architecture fonctionne on-premise. Ce n'est pas une préférence : si vos données sont soumises au RGPD, à l'EU AI Act, à la directive NIS2, à la réglementation bancaire de l'EBA ou aux exigences de données classifiées, les envoyer vers une API cloud pour les vectoriser n'est pas une option légale.

C'est la même philosophie que nous avons décrite en parlant de la construction d'une usine d'IA on-premise avec Ceph et Kubernetes, avec une différence : CAS intègre la préparation des données directement dans le stockage. Pas de cluster de traitement séparé à orchestrer, pas de files de messages entre le NAS et le pipeline, pas de buckets S3 temporaires.

Storage Scale vs Ceph : un nouvel argument

Si vous évaluez quel stockage vous convient pour les charges de travail IA — la décision entre Storage Scale et Ceph que nous avons traitée la semaine dernière — CAS fait pencher la balance. C'est une fonctionnalité qui n'existe que dans l'écosystème Storage Scale / Fusion et qui n'a pas d'équivalent direct dans Ceph ni dans aucun autre système de fichiers distribué aujourd'hui.

05 · Périmètre

Quand CAS a-t-il du sens par rapport à un pipeline RAG artisanal ?

CAS nécessite IBM Fusion sur OpenShift. Ce n'est pas un composant que vous branchez sur n'importe quelle infrastructure. Si votre RAG fonctionne bien avec Docling + Milvus + un cron, vous n'avez pas besoin de cela.

CAS a du sens lorsque plusieurs de ces conditions se combinent :

  • Volume important de documents non structurés qui changent fréquemment.
  • Exigences de contrôle d'accès granulaire — santé, banque, administration publique, juridique.
  • Infrastructure IBM existante ou en cours d'évaluation (Fusion, Storage Scale).
  • Besoin que l'index vectoriel soit toujours à jour sans intervention manuelle.
  • Souveraineté des données et conformité réglementaire européenne (RGPD, NIS2, EU AI Act).

Architecture RAG on-premise

Besoin de dimensionner une architecture IA sur Fusion ?

Chez SIXE, nous travaillons avec IBM Fusion, Storage Scale et des pipelines RAG en production. Décrivez-nous votre cas d'usage et nous vous aidons à concevoir la solution.

Serveurs et stockage en stock | Livraison < 30 jours

Disponibilité · Mai 2026

Serveurs et stockage en stock. Livrés en moins de 30 jours.

La crise d'approvisionnement en SSD et la demande croissante d'infrastructure pour l'IA portent les délais de livraison du secteur à 3–6 mois. Chez SIXE, nous avons du matériel disponible, nous le configurons en interne et nous le livrons en moins de 30 jours.

8 min de lectureStockage · Serveurs · Infrastructure

Si vous cherchez à acheter un serveur rack ou une baie de stockage entreprise et que votre fournisseur habituel vous annonce des semaines ou des mois de délai, ce n'est pas un cas isolé. C'est la nouvelle normalité.

La bonne nouvelle : nous avons du stock. Serveurs IBM Power10 et Power11, Dell PowerEdge, Lenovo ThinkSystem. Baies IBM FlashSystem sur toutes les gammes. Configurés par nos propres ingénieurs et prêts pour la production.

<30
Jours de livraison
garantie
3–6
Mois de délai moyen
du secteur
100%
Configuration
interne — sans intermédiaires
01 · Contexte

Pourquoi obtenir du matériel est un vrai problème en 2026

La crise d'approvisionnement en matériel ne s'est pas terminée avec la pandémie. Elle s'est transformée. En 2026, les puces ne manquent plus, mais la demande mondiale en capacité de calcul et de stockage pour l'IA absorbe la production de SSD, de mémoire et de composants serveur à un rythme que la chaîne d'approvisionnement ne peut pas suivre.

Les conséquences pour toute entreprise devant renouveler ou étendre son infrastructure on premise sont concrètes :

  • Projets de migration bloqués faute de matériel disponible.
  • Contrats de maintenance expirés sans équipement de remplacement en vue.
  • Extensions de capacité arrivant trop tard pour les engagements métier.
  • Prix en hausse sur le marché dû à la pénurie de SSD flash et NVMe.
Délais de livraison réels — secteur vs SIXE (mai 2026)
Stockage
all-flash
SIXE
FlashSystem
Serveur GPU
(IA)
SIXE
Serveurs
Serveur rack
x86
SIXE
Dell / Lenovo
Secteur — délai élevé
Secteur — variable
SIXE — stock propre
Fait essentiel

IBM conçoit et fabrique ses propres modules flash (FlashCore Modules). Contrairement à Dell, HPE ou NetApp — qui dépendent de fournisseurs tiers de SSD — IBM contrôle sa propre chaîne d'approvisionnement en stockage flash. Cela se traduit directement par des délais de livraison plus courts et prévisibles pour les Business Partners IBM comme SIXE.

02 · Stockage

Baies de stockage IBM FlashSystem en stock

S'il y a un produit où l'urgence est maximale et où l'avantage de livraison de SIXE fait la plus grande différence, c'est le stockage entreprise. La pénurie de SSD NVMe allonge les délais de toutes les baies all-flash du marché. Mais IBM fabrique ses propres unités flash — et cela nous permet d'avoir du stock quand les autres n'en ont pas.

Baies de stockage IBM FlashSystem — stockage flash all-flash NVMe avec FlashCore Modules de cinquième génération
IBM FlashSystem — génération 2026 avec FlashCore Module 5 (FCM5)

Entrée de gamme : FlashSystem 5015 et 5045

La porte d'entrée du stockage flash entreprise. Une baie 2U à double contrôleur avec compression, déduplication et analytique prédictive par IA incluse. Idéale pour le stockage PME, la sauvegarde ou la consolidation de charges de travail mixtes. Vérifier la disponibilité et les conditions.

Milieu de gamme : FlashSystem 5200 et nouveau 5600

Pour les entreprises qui ont besoin de performances réelles. Le nouveau FlashSystem 5600 intègre les FlashCore Modules de cinquième génération (FCM5) au format NVMe EDSFF avec des capacités allant jusqu'à 105 To par module. Détection de ransomware au niveau matériel en moins d'une minute, snapshots immuables (safe-guarded copies) et chiffrement au repos en standard.

Entreprise : FlashSystem 7200/7600 et 9600

Pour les environnements critiques : SAP HANA, bases de données Oracle, usines d'IA, HPC. La 9600 évolue jusqu'à des centaines de PB avec des latences inférieures à 100μs.

Protection anti-ransomware matérielle

Toutes les baies FlashSystem intègrent la détection de menaces au niveau des I/O, sous le système d'exploitation et le système de fichiers. Les safe-guarded copies créent des snapshots immuables qui ne peuvent être ni supprimés ni modifiés, même avec un accès root.

Au-delà des baies

Nous proposons également IBM Storage Scale (GPFS) pour le HPC et l'inférence IA, Storage Protect et Storage Defender pour la sauvegarde entreprise, et Storage Fusion pour les architectures Red Hat OpenShift et Kubernetes.

Conditions compétitives

En tant que Business Partner IBM direct, nous avons accès à des conditions que d'autres distributeurs ne peuvent pas offrir. Si vous avez déjà un devis d'un autre fournisseur, contactez-nous avant de décider — nous pouvons vous surprendre.

03 · Serveurs

Serveurs entreprise : IBM Power, Dell PowerEdge, Lenovo

IBM Power10
S1012, S1022, S1024, E1050, E1080. AIX, IBM i et Linux. PowerVM. Consolidation extrême.
En stock
IBM Power11
S1122, S1124, E1150, E1180. Nouvelle génération. IA intégrée et efficacité énergétique.
Nouveau 2026
Dell PowerEdge
T360 (serveur tour), R660, R760 (rack), XE9680 (8× GPU NVIDIA H100 pour l'IA).
En stock
Lenovo ThinkSystem
Serveurs x86 pour virtualisation, bases de données et applications entreprise.
En stock

IBM Power : fait tourner Linux exactement comme un serveur x86

C'est le point où beaucoup de clients hésitent. « Mais c'est du Power… ». Les serveurs IBM Power exécutent Red Hat, SUSE et Ubuntu nativement. Vous installez votre distribution Linux, lancez vos conteneurs, déployez OpenShift ou Kubernetes. L'expérience administrateur est identique.

La différence est en dessous. Un seul serveur Power10 ou Power11 consolide ce qui nécessitait auparavant quatre ou cinq racks de serveurs commodity. PowerVM virtualise avec une fiabilité que VMware ne peut plus promettre — ni facturer, depuis que Broadcom a changé le modèle de licences. Pour quiconque cherche une alternative à VMware sans repartir de zéro avec KVM, Power est l'option la moins risquée.

Dell et Lenovo : x86 quand x86 est la bonne réponse

Tout ne nécessite pas un Power. Pour un serveur tour de PME faisant tourner un ERP local, un Dell T360 résout le problème. Pour le centre de données, les serveurs rack R660 et R760 sont le standard du marché. Et si vous avez besoin d'un serveur GPU pour l'inférence IA on premise, le Dell XE9680 avec 8 GPU NVIDIA H100 est le serveur IA le plus polyvalent disponible aujourd'hui. Vérifier la disponibilité et les conditions.

04 · Catalogue

Ce que nous avons et à quoi ça sert

ProduitCas d'usageDisponibilité
FlashSystem 5015/5045
PME, sauvegarde, consolidation
En stock
FlashSystem 5200/5600
ERP, SAP, virtualisation, IA
En stock
FlashSystem 7600/9600
Mission critique, HPC, Oracle
En stock
Dell T360
Tour, PME, ERP, serveur de fichiers
En stock
Dell R660 / R760
Rack, virtualisation, SGBD
En stock
Dell XE9680
IA on premise, 8× NVIDIA H100
Sur demande
Power10 S1022/S1024
Linux, AIX, IBM i, consolidation
En stock
Power11 S1122/S1124
Nouvelle génération, IA intégrée
En stock
Lenovo ThinkSystem
x86 standard, gestion simplifiée
En stock

Vérifier la disponibilité et les conditions →

05 · Service

Nous ne livrons pas une boîte — nous livrons un système en production

Chaque projet matériel inclut la conception de la solution, la configuration et la validation dans nos locaux, l'installation sur site ou à distance, et le support après-vente. Nous n'expédions pas de matériel non configuré.

Nos ingénieurs — les mêmes qui dispensent la formation officielle IBM et assurent le support L2/L3 — connaissent chaque produit parce qu'ils travaillent avec au quotidien. Si vous devez migrer depuis VMware, depuis une baie d'un autre fabricant ou depuis un serveur en fin de support, nous nous en chargeons.

En option : contrats de maintenance annuels 8×5 ou 24×7 avec SLA garanti.

Sans intermédiaires

Nous sommes un Business Partner IBM direct. Pas de distributeurs, revendeurs ou couches intermédiaires entre votre projet et le fabricant. Cela signifie un accès direct au stock IBM, aux conditions partenaire, et la capacité d'escalader au support fabricant si nécessaire.


Vérifier la disponibilité

N'attendez pas que la chaîne d'approvisionnement empire.

Dites-nous ce dont vous avez besoin — serveur, stockage ou les deux — et nous confirmons la disponibilité et un délai réel sous 24 heures ouvrables.

Storage Scale vs Ceph pour l’inférence IA : comment choisir

Storage Scale vs Ceph · Inférence IA

Storage Scale vs Ceph pour l'inférence IA : comment choisir.

Nous déployons les deux. Nous les exploitons tous les deux en production depuis des années. Et non, la réponse n'est pas « utilisez les deux » : c'est comprendre ce que chacun fait bien, où chacun pèche, et lequel correspond à votre charge de travail.

12 min de lectureStockage · IA · Architecture

La même question revient sous différents déguisements : « Storage Scale ou Ceph pour l'inférence IA ? »

Nous sommes IBM Business Partner. Nous vendons Storage Scale. Nous dispensons aussi des formations Ceph et du conseil Ceph en production. Nous travaillons avec les deux au quotidien, donc ce qui suit vient de la construction d'architectures réelles — pas de la lecture de datasheets.

Voici ce que nous dirions à un client assis en face de nous pour concevoir son architecture de stockage pour l'inférence IA.

01 · En premier

Avant de choisir : ce que l'inférence IA attend du stockage

La plupart des gens commencent par le produit. Nous, on commence par le pattern d'accès, parce que c'est ça qui détermine si le choix fonctionne ou vous donne des migraines pendant des années.

Un environnement d'inférence réel — pas une démo Llama sur un laptop — ressemble à ça :

Ce qui vit sur votre stockage d'inférence
# Le plus lourd — lecture parallèle, beaucoup de nœuds models/llama-70b/ ← 40-140 Go en shards safetensors models/embedding/ ← petits mais accédés en permanence# RAG — des millions de petits fichiers, accès mixte rag/raw/ ← PDFs, emails, images, audio rag/parsed/ ← sortie Docling/OCR rag/chunks/ ← fragments, JSONL, parquet rag/embeddings/ ← vecteurs# Opérations — batch, logs, adapters batch-jobs/ ← entrée/sortie batch inference checkpoints/ ← adaptateurs LoRA, fine-tuning logs/ ← traçabilité, évaluation

Et tout ça est consommé par un zoo de processus : des nœuds GPU avec vLLM ou TGI, des nœuds CPU, Spark ou Ray en prétraitement, des pipelines Docling et OCR, la base vectorielle, des applications legacy qui entrent par NFS, et quelqu'un de la conformité qui veut voir un PDF depuis Windows en SMB.

Si votre setup ressemble à ça — beaucoup de consommateurs, beaucoup de protocoles, des données partagées — c'est ce pattern qui doit guider la décision. Pas le prix par To ni le logo du fournisseur.

02 · Storage Scale

Où Storage Scale gagne pour l'inférence IA

POSIX natif : vos frameworks attendent un répertoire, pas un bucket

Ça paraît évident jusqu'à ce que vous deviez le mettre en place. Regardez comment les outils que vous allez utiliser chargent les modèles :

Comment les frameworks réels chargent les modèles
# HuggingFace Transformers model = AutoModel.from_pretrained("/models/mistral-7b")# vLLM vllm serve /models/Meta-Llama-3-8B-Instruct# Triton Inference Server model_repository: /models/triton-repo/

Ils demandent un chemin. Un répertoire. Pas un endpoint S3. Storage Scale (anciennement GPFS) est un système de fichiers parallèle POSIX natif. Ce /models est un répertoire partagé que tous les nœuds lisent simultanément, avec un accès concurrent réel, sans copies intermédiaires. Rien à inventer.

IBM Storage Scale — documentation officielle

Zéro copie entre couches : l'argument le plus convaincant

Avec Ceph S3, le schéma typique pour servir un modèle : télécharger depuis le bucket → écrire sur disque local ou PVC → démarrer le moteur d'inférence → servir. Trois étapes avant la première requête. Et si vous avez 16 nœuds, les 16 téléchargent leur copie.

Avec Storage Scale, le moteur d'inférence pointe vers /gpfs/models/llama-70b/ et démarre. C'est tout. Pas de téléchargement, pas de cache, pas de « ce nœud a-t-il la dernière version ? ». Quand vous mettez le modèle à jour, vous le faites une fois et tous les nœuds le voient.

C'est particulièrement visible quand vous itérez — changement de modèles, test d'adaptateurs LoRA, rotation entre configurations. Avec le cache local, vous finissez par maintenir des scripts de synchronisation, de l'invalidation et du nettoyage de disque. Avec un système de fichiers parallèle, il n'y a rien à maintenir.

Multi-protocole sur le même fichier

C'est ce qui résout le casse-tête enterprise. Un même fichier dans Storage Scale peut être consommé par POSIX (nœud GPU), par S3 (app moderne), par NFS (équipe data), par SMB (quelqu'un sous Windows) et par CSI (pod Kubernetes). Le même fichier. Pas une copie par protocole. Pas un namespace différent par interface.

IBM implémente cela via Cluster Export Services (CES), qui expose l'accès S3, NFS et SMB sur les mêmes données du système de fichiers parallèle.

Métadonnées : quand vous avez des millions de petits fichiers

Le RAG enterprise, ce n'est pas « trois PDFs dans un bucket ». Ce sont des millions de documents, millions de chunks, millions d'embeddings, fichiers de configuration, index auxiliaires, shards, logs. Des opérations intensives sur de grands répertoires avec beaucoup de petits fichiers. Storage Scale résout ce problème dans les environnements HPC depuis des décennies — Summit, Sierra et d'autres supercalculateurs tournaient sur GPFS. CephFS peut gérer ça, mais d'après notre expérience, il faut beaucoup plus de travail de conception pour éviter les problèmes de performance.

03 · Ceph

Où Ceph gagne pour le stockage IA

Stockage objet massif : du vrai S3, pas du S3 en option

Ceph est né comme stockage distribué pour objets, blocs et fichiers. Son RGW (RADOS Gateway) fournit une API S3 complète, avec lifecycle policies, versioning, multi-tenancy, IAM — tout ce qu'il faut pour un object store sérieux. Ce n'est pas un accessoire. C'est le cœur du produit.

Si votre pipeline d'inférence est S3-natif — les modèles téléchargés depuis un bucket, les datasets lus par API, les résultats écrits comme objets — Ceph fait très bien le travail. Un cluster Ceph bien conçu scale horizontalement à des centaines de Po en ajoutant des nœuds commodity.

Coût par To : Ceph l'emporte nettement

Soyons directs : Storage Scale coûte plus cher. Il faut des licences IBM, du matériel avec des exigences spécifiques, et des gens qui savent l'opérer (il n'y en a pas beaucoup). Ceph tourne sur du matériel commodity, n'a pas de coût de licence logicielle, et une équipe avec une solide expérience Linux peut l'opérer.

Pour un client avec des pétaoctets de données dont la majorité sont « froides » — datasets d'entraînement, archives historiques, sauvegardes de modèles — ça n'a pas de sens de payer Storage Scale pour des To lus une fois par mois. Ceph avec un erasure coding bien configuré est la bonne réponse.

Kubernetes : Rook rend tout trivial

Pour les équipes qui vivent dans Kubernetes ou OpenShift, Ceph avec Rook est difficile à battre. Un opérateur qui donne RBD (ReadWriteOnce), CephFS (ReadWriteMany) et RGW (S3) depuis un seul cluster. OpenShift Data Foundation (ODF) est littéralement Ceph packagé par Red Hat.

Storage Scale a aussi CSI, mais Rook/Ceph est dans l'écosystème Kubernetes depuis plus longtemps et la communauté est bien plus large. Si votre équipe pense en opérateurs, en Helm charts et en GitOps, Ceph parle leur langue.

Stockage bloc pour VMs et bases de données

Si en plus de l'inférence vous faites tourner OpenStack, de la virtualisation ou avez besoin de volumes bloc pour des bases de données, le RBD de Ceph est ce qu'il y a de mieux. Storage Scale ne joue pas ici — ce n'est pas son terrain.

Échelle

Le CERN exploite plus de 60 Po sur Ceph en production, comme socle de son infrastructure OpenStack. Ils sont passés de quelques Po à l'échelle exabyte en une décennie, en ajoutant des nœuds sans rupture architecturale.

04 · Les limites

Ce que chacun fait mal — et que personne ne veut dire

C'est là que la plupart des articles restent vagues. Pas nous. Nous déployons les deux, et les deux ont des choses qui ne nous plaisent pas.

Ce qui ne nous plaît pas dans Storage Scale

  • C'est cher. Licences IBM, matériel avec des exigences spécifiques, et un rack avec Storage Scale ECE + GPUs représente un investissement conséquent. Pour un pilote IA ou une startup, ça n'a pas de sens.
  • L'exploitation demande un profil HPC. Ce n'est pas que ce soit difficile — c'est un monde différent du cloud-native. Si votre équipe vit dans Kubernetes et n'a jamais touché un système de fichiers parallèle, la courbe d'apprentissage est réelle.
  • S3 n'est pas son point fort. Storage Scale propose l'accès S3 via CES, et ça marche. Mais comparé au RGW de Ceph sur les fonctionnalités S3 pures — lifecycle, multi-tenancy, versioning avancé — Ceph a l'avantage.
  • Stockage bloc : quasi inexistant. Si vous avez besoin de RBD ou de volumes bloc pour des VMs, Storage Scale n'est pas votre outil.

Ce qui ne nous plaît pas dans Ceph

  • CephFS n'est pas GPFS. CephFS fonctionne, mais pour de nombreux clients concurrents faisant de l'I/O parallèle sur des millions de fichiers (le pattern classique IA/HPC), Storage Scale a considérablement plus d'expérience.
  • Le cache local ajoute de la complexité. Si vos modèles vivent dans S3, chaque nœud d'inférence télécharge sa copie. Avec 4 nœuds, c'est trivial. Avec 32, vous entretenez des scripts de synchronisation, contrôlez les versions du cache, et espérez que les disques locaux ne se remplissent pas.
  • Le multi-protocole n'est pas propre. Ceph parle RGW (S3), RBD (bloc), CephFS (fichier) et NFS (via Ganesha). Mais chaque protocole opère sur son propre pool ou namespace. Vous ne pouvez pas lire le même fichier en S3 et en NFS de façon transparente comme avec Storage Scale.
  • Métadonnées sous pression. Des opérations intensives sur des répertoires avec des millions de petits fichiers (le cas RAG) peuvent devenir un goulot d'étranglement dans CephFS si la conception n'est pas bonne.
Piège classique

Monter s3fs ou goofys pour donner une sémantique POSIX à Ceph S3 et pouvoir utiliser from_pretrained() directement. Techniquement ça marche. En production, la sémantique POSIX est partielle, les performances sont imprévisibles et les erreurs sont créatives. Nous ne le recommandons pas comme solution permanente.

05 · Le comparatif

Storage Scale vs Ceph pour le stockage IA : résumé

Critère Storage Scale Ceph
POSIX pour l'IA
Natif
CephFS
Object store S3
Via CES
Natif
Stockage bloc
Non
RBD
Chargement modèles partagé
Direct
Via cache
RAG / beaucoup de fichiers
Fort
Si S3
Multi-protocole / même fichier
Oui
Pas propre
Kubernetes
CSI
Rook
Coût par To
Élevé
Faible
Exploitation
HPC
SRE
Héritage IA/HPC
Décennies
Croissant

En résumé : Storage Scale gagne quand les données sont « vivantes » — beaucoup de processus lisant des modèles partagés, des pipelines POSIX, des environnements mixtes où Kubernetes coexiste avec des applications legacy. Ceph gagne quand les données sont des objets — S3 comme interface principale, modèles mis en cache localement, équipes cloud-native, budget serré.

Utiliser Storage Scale comme un object store bon marché, c'est jeter de l'argent. Essayer de faire de CephFS un système de fichiers parallèle HPC, c'est chercher les ennuis. Chacun est très bon dans ce qu'il fait.

06 · Notre avis

Ce que nous dirions à un client qui nous pose la question aujourd'hui

Si on nous pousse dans nos retranchements : pour l'inférence IA en environnement enterprise avec des données partagées et du RAG, Storage Scale pose moins de problèmes. Les modèles sont vivants, partagés, accessibles par le protocole dont chaque consommateur a besoin. Pas de scripts de synchronisation, pas de prières sur le cache.

Mais si votre pattern est vraiment cloud-native — pods stateless, S3 comme source de vérité, une équipe SRE qui sait exploiter Ceph — alors Ceph est la bonne réponse et vous coûtera considérablement moins cher. On ne le dit pas pour être polis : on l'a vu fonctionner comme ça en production de nombreuses fois.

Et si votre environnement traite des données sensibles sur IBM Power, s'intègre avec DB2 ou Oracle, et que l'inférence va cohabiter avec des charges HPC ou analytics — Storage Scale n'a pas de rival réel. C'est son terrain naturel. Storage Scale combiné avec Content-Aware Storage dans IBM Fusion commence à transformer le stockage en moteur actif de préparation de données pour le RAG.


Storage Scale ou Ceph ?

Ça dépend. Parlez-nous de votre cas et on vous dit lequel.

Nous exploitons les deux en production. Décrivez votre charge de travail et nous vous orienterons.

IBM Fusion et NVIDIA Blackwell : infrastructure IA et vector database

IBM Storage · NVIDIA · IA

IBM Fusion & NVIDIA Blackwell : le stockage devient un moteur de vector database pour l'IA.

GTC 2026 a révélé une alliance IBM-NVIDIA bien plus profonde qu'il n'y paraît. Fusion n'est plus du simple stockage pour conteneurs : avec Content-Aware Storage et les GPU Blackwell, le stockage devient un moteur actif de préparation de données pour l'IA — et notamment un moteur de vector database embarqué dans votre infrastructure.

8 min de lectureStockage · IA · Infrastructure

Le 16 mars, IBM montait sur scène à GTC 2026 à San José avec une annonce passée relativement inaperçue hors des cercles de stockage : une collaboration élargie avec NVIDIA couvrant les GPU Blackwell Ultra sur IBM Cloud, l'analytique de données native GPU, le traitement intelligent de documents et les déploiements on-premises pour les secteurs réglementés.

Trois semaines plus tard, IBM publiait un Redbook technique détaillant l'intégration de Storage Scale, Fusion et Content-Aware Storage (CAS) avec la NVIDIA AI Data Platform. Et récemment, IBM, NVIDIA et Samsung ont démontré un système CAS capable de gérer 100 milliards de vecteurs sur un seul serveur — ce qui positionne Fusion comme une infrastructure de vector database on-premises à l'échelle enterprise.

Qu'est-ce que cela signifie concrètement ? S'agit-il d'un vrai changement architectural ou de marketing de keynote ? Voici notre analyse.

L'annonce

GTC 2026 : IBM et NVIDIA passent à la vitesse supérieure sur l'IA enterprise

Ce qu'IBM a annoncé à GTC n'est pas un partenariat générique. Ce sont cinq axes de travail concrets qui affectent directement la façon dont les entreprises déploient une infrastructure IA on-premises :

  • GPU NVIDIA Blackwell Ultra sur IBM Cloud — disponibles depuis Q2 2026 pour l'entraînement à grande échelle, l'inférence haute performance et le raisonnement IA.
  • Content-Aware Storage (CAS) intégré dans la prochaine version de Fusion — le stockage cesse d'être passif et commence à traiter les données pour l'IA, y compris la vectorisation.
  • Red Hat AI Factory avec NVIDIA — OpenShift + GPU NVIDIA comme plateforme standardisée pour déployer l'IA en production.
  • IBM Consulting + NVIDIA Blueprints — services d'intégration pour passer de l'IA en pilote à l'IA en production.
  • Support de la NVIDIA AI Data Platform (AIDP) — un design de référence intégrant compute, réseau et stockage dans un système unifié pour l'IA.
Fuente: IBM Newsroom, 16 marzo 2026

Le point le plus impactant pour l'infrastructure on-premises : Fusion HCI intègre désormais des serveurs GPU avec NVIDIA H200 et RTX Pro 6000 Blackwell Edition. Ce n'est pas une feuille de route — le matériel est disponible. Chaque système supporte jusqu'à 4 serveurs GPU avec 8 cartes chacun.

Pour comprendre comment toutes les pièces s'assemblent, voici la stack complète qu'IBM a définie comme architecture de référence AIDP sur Fusion :

Rob Davis, VP Storage Networking Technology chez NVIDIA, a été direct : les agents IA ont besoin d'accéder, de rechercher et de traiter des données à grande échelle, et aujourd'hui ces étapes se déroulent dans des silos séparés. L'intégration de CAS avec NVIDIA orchestre données et compute via un réseau optimisé pour surmonter ces silos.

La technologie

Content-Aware Storage : quand le stockage comprend ce qu'il contient

C'est la partie la plus intéressante de l'annonce et la moins couverte. Jusqu'ici, le stockage enterprise était un dépôt passif : il conservait des fichiers et les servait sur demande. Pour faire du RAG (Retrieval-Augmented Generation) ou alimenter des modèles d'IA avec des données d'entreprise, vous aviez besoin d'un pipeline séparé qui extrayait les documents, les découpait en chunks, les vectorisait et les injectait dans une vector database externe.

CAS élimine ce pipeline externe. Il opère en deux phases — visualisé ci-dessous :

Phase 1 : Ingestion et préparation continues

CAS surveille des dossiers sur Storage Scale (ou sur stockage externe via AFM) et détecte les modifications en temps réel. Lorsqu'un document est modifié ou ajouté, CAS le traite automatiquement : extraction de contenu texte, tableaux, graphiques et images via NVIDIA NeMo Retriever, chunking sémantique, et conversion en embeddings haute dimension. Les vecteurs sont indexés dans une vector database gérée par CAS sur Storage Scale ECE.

Phase 2 : Requête et récupération

Lorsqu'un utilisateur ou un agent IA pose une question, CAS effectue une recherche sémantique, par mots-clés (BM25) ou hybride. Les résultats passent par un reranker NVIDIA optimisé pour la pertinence maximale. Le point critique : les vecteurs héritent des contrôles d'accès (ACL) des documents originaux. Si un utilisateur ne peut pas lire un fichier, il ne voit pas non plus ses vecteurs dans les résultats RAG.

Fuente: IBM Redbook MD248598 — Enabling AI Inference at Scale, abril 2026
Pourquoi c'est important

La plupart des déploiements RAG enterprise échouent sur deux points : les données deviennent obsolètes parce que personne ne met à jour la vector database, et il n'y a pas de contrôle d'accès sur les vecteurs. CAS résout les deux problèmes au niveau de l'infrastructure, pas de l'application. C'est un vrai changement de paradigme.

Démo IBM + NVIDIA + Samsung
100mil millones
de vecteurs sur un seul serveur avec compute et stockage découplés, indexation hiérarchique accélérée par GPU. À cette échelle, les indices RAG traditionnels deviennent ingérables.
Fuente: SDxCentral, abril 2026
Le matériel

H200, RTX Pro 6000 et Blackwell Ultra : quelle GPU va où

Il y a trois lignes de GPU NVIDIA dans l'écosystème IBM à ne pas confondre. Chacune a un rôle distinct — cliquez sur chaque onglet pour voir où elle se déploie et à quoi elle sert :

NVIDIA Blackwell Ultra
GTC 2026 · Cloud-first
IBM Cloud
DisponibilitéIBM Cloud · Q2 2026
Cas d'usageEntraînement à grande échelle, inférence haute performance, raisonnement IA
DéploiementCloud uniquement · pas d'option on-prem dans Fusion
IntégrationRed Hat AI Factory + serveurs VPC avec conformité réglementaire
Si votre charge de travail peut aller dans le cloud et que vous n'avez pas de contraintes de résidence de données, Blackwell Ultra sur IBM Cloud est l'option la plus puissante du catalogue. Mais si vos données ne peuvent pas quitter le périmètre, consultez les deux autres onglets.
NVIDIA H200
Hopper · Mémoire HBM3e étendue
Fusion HCI on-prem
DisponibilitéFusion HCI · Mai 2026
Cas d'usageEntraînement, fine-tuning et inférence lourde de LLM
Mémoire141 Go HBM3e · 4,8 To/s de bande passante
Configuration2 GPU par serveur · Jusqu'à 4 serveurs par rack
Maximum total32 GPU par système Fusion
La H200 est l'option pour l'entraînement sérieux on-premises. Sa mémoire HBM3e étendue par rapport à la H100 la rend idéale pour les grands modèles qui nécessitaient auparavant un sharding agressif. Dans Fusion HCI, elle accède directement à Storage Scale ECE via un réseau 200 GbE.
NVIDIA RTX Pro 6000
Blackwell Edition · Inférence + visualisation
Fusion + AIDP
DisponibilitéFusion HCI · Mai 2026
Cas d'usageInférence, RAG, vectorisation CAS, vector database, visualisation professionnelle
ArchitectureBlackwell Server Edition · 96 Go GDDR7
Configuration2 GPU par serveur · Jusqu'à 4 serveurs par rack
Stack AIDP+ BlueField-3 DPU · SuperNICs ConnectX-7/8
La RTX Pro 6000 Blackwell est la GPU de la stack AIDP de référence. Elle accélère le chunking sémantique et la vectorisation CAS — en clair, elle alimente votre vector database on-premises. Combinée au BlueField-3 DPU, elle décharge le traitement réseau et stockage du CPU principal. C'est la pièce clé pour le RAG enterprise en production.
Fuente: IBM Redbook MD248598 — Reference Stack AIDP
Ce qu'on ne voit pas dans les keynotes

Le BlueField-3 n'est pas qu'un NIC rapide. C'est un DPU (Data Processing Unit) qui décharge les opérations réseau, stockage et sécurité du CPU principal. Dans un système AIDP, les BlueField-3 accélèrent la communication entre Storage Scale et les GPU, réduisant la latence d'accès aux données pour l'inférence temps réel. C'est une pièce critique qui n'apparaît pas dans les keynotes mais qui fait la différence en performance réelle.

L'analyse

Ce que ça signifie pour l'IA on-premises

En assemblant toutes les pièces, le message d'IBM est clair : Fusion n'est plus un produit de stockage pour conteneurs. Si vous connaissez déjà IBM FlashSystem, C'est une plateforme IA on-premises intégrant compute (OpenShift), accélération (GPU NVIDIA), stockage intelligent (Storage Scale + CAS avec vector database intégrée) et réseau optimisé (Spectrum-X + BlueField-3) dans un appliance unifié.

Pour les organisations qui ne peuvent — ou ne veulent — pas envoyer leurs données dans le cloud, c'est significatif. En particulier dans trois scénarios :

Secteur réglementé

Banque, santé, administration publique. Les données ne peuvent pas quitter le périmètre. Avec Fusion HCI + CAS + GPU NVIDIA, vous pouvez faire du RAG d'entreprise sur des documents internes sans que rien ne sorte du rack. Et les ACL sont appliquées au niveau du vecteur — conformité intégrée, pas rapportée.

IA sur données propriétaires à grande échelle

IBM estime que 80 à 90 % des données d'entreprise sont non structurées. CAS convertit ce volume en données consommables par l'IA de façon continue et automatique, en alimentant une vector database toujours à jour. Ce n'est pas un projet ETL ponctuel — c'est une capacité permanente de l'infrastructure.

Alternative au cloud quand le TCO ne s'additionne pas

IBM répète le chiffre de performances équivalentes à Databricks à 60% du coût. C'est un benchmark interne sur des opérations sélectionnées, donc à prendre avec recul. Mais la logique économique de l'on-premises pour des charges prévisibles et à haut volume reste solide. Si vous savez que vous aurez 30 GPU tournant 24h/24, le TCO on-premises gagne généralement.

Notre lecture

Réel ou marketing ?

Un peu des deux, comme toujours. Ce qui est indiscutablement réel :

  • Le matériel existe y se puede comprar. Las H200 y RTX Pro 6000 están disponibles como servidores GPU para Fusion HCI. No es un roadmap.
  • CAS fonctionne. La démo à 100 milliards de vecteurs est vérifiable. Le Redbook détaille l'architecture étape par étape.
  • NVIDIA AIDP est un design de référence réel avec une adoption précoce en santé (UT Southwestern Medical Center) et en finance.
  • Red Hat AI Factory standardise le déploiement OpenShift + GPU comme plateforme IA — exactement ce que Fusion HCI livre comme appliance.

Ce qui mérite d'être nuancé :

  • CAS n'est pas encore en GA dans Fusion. IBM a dit Q2 2025, puis Q2 2026. Il est intégré dans Storage Scale depuis mars 2025, mais la version embarquée dans Fusion arrive encore.
  • Le chiffre des 60% de coût vs Databricks est un benchmark interne en conditions contrôlées. En production réelle, le bénéfice dépendra de votre charge de travail.
  • Fusion HCI n'est pas bon marché. Un rack avec GPU H200, 16 nœuds de stockage et licences OpenShift représente un investissement considérable. Cela a du sens pour les organisations avec des données sensibles et des charges prévisibles — pas pour un pilote IA.
Notre avis

Ce qui est le plus significatif dans cette vague, ce ne sont pas les GPU — tout le monde en a. C'est CAS. Que le stockage comprenne sémantiquement ce qu'il contient et maintienne une vector database à jour en temps réel avec des ACL héritées — c'est un vrai changement architectural. Si ça fonctionne comme promis (et les démos le suggèrent), ça résout les deux principaux problèmes du RAG enterprise : la fraîcheur des données et la sécurité des accès.

Cela dit, tout le monde n'a pas besoin de Fusion HCI pour en bénéficier. CAS vit dans Storage Scale, qui peut aussi être déployé en mode software-defined sur votre propre matériel. Et si votre volume de données ne justifie pas Storage Scale, Ceph avec un pipeline RAG conventionnel reste une alternative viable et plus économique. D'ailleurs, notre guide sur les agents IA avec n8n montre comment assembler un workflow RAG sans infrastructure lourde — comparez avec ce que Fusion propose pour voir ce qui correspond à votre contexte. Nous couvrons aussi le choix du stockage dans notre comparatif Ceph vs Storage Scale.

Comme toujours, la réponse dépend du volume, de la sensibilité des données et du budget. Nous vous aidons à l'évaluer.


Vous évaluez une infrastructure IA on-premises ?

Décrivez-nous votre cas d'usage. Nous vous aidons à dimensionner.

Fusion HCI, Fusion Software, Storage Scale standalone ou Ceph — selon ce dont vous avez besoin. Nous ne vendons pas une solution unique ; nous vous aidons à choisir la bonne.

Encore sur Informix 12.10 ? Lisez ceci

IBM Informix · Migration

Encore sur Informix 12.10 ? Lisez ceci.

Le support de 12.10 est terminé. Mais pendant ce temps, Informix a bien changé : conteneurs standalone pour Kubernetes, un moteur refondu en profondeur, sauvegarde native vers S3 et une certification qui change de version.

6 min de lectureBases de données · Cloud-native

En mars, Anup Nair — Principal Technical Product Manager d'Informix — a publié sur IBM TechXchange l'annonce de l'Informix Standalone Container. Des images enterprise-grade pour Kubernetes et OpenShift, avec support officiel, sans dépendre de Cloud Pak for Data. Le post cumule 13 vues et zéro commentaire. Presque personne ne l'a remarqué.

Et pourtant, c'est probablement le changement le plus significatif dans la façon de déployer Informix depuis son acquisition par IBM. Combiné avec la fin du support de 12.10, les nouveautés d'Informix 15 et la transition de la certification vers la v15, le paysage a changé. Voici le résumé.

Nouveautés Informix — conteneurs standalone, migration depuis 12.10 et formation officielle
L'annonce

Conteneurs standalone : ce qui a changé

Jusqu'à récemment, pour exécuter Informix en conteneurs avec support enterprise en production, le seul chemin officiel passait par Cloud Pak for Data (CP4D). Les images Docker Hub — désormais migrées vers l'IBM Container Registry (ICR) — étaient Developer Edition : adaptées au développement, sans support IBM en production.

L'Informix Standalone Container supprime cette dépendance :

  • Images production-grade pour Informix v14 et v15 sur IBM Container Registry.
  • Déploiement direct sur Kubernetes et OpenShift sans CP4D.
  • Support enterprise complet sous le contrat existant — pas un produit supplémentaire.
  • Mise à niveau de Developer vers Enterprise Edition en changeant l'image et en appliquant l'installer.
  • CASE bundles sur GitHub : ibm-informix-standalone.
Source : Anup Nair, IBM TechXchange Community, mars 2026

Concrètement, cela signifie intégrer Informix dans les pipelines CI/CD, démarrer des instances pour les tests automatisés, déployer avec des Helm Charts en hybrid-cloud et disposer d'environnements de développement identiques à la production. Daniel Weber, Informix Container Dev Lead, a fait la démonstration lors du Tech Talk IIUG d'avril.

C'est le type d'annonce qui ne fait pas les gros titres mais qui change la façon d'opérer un produit au quotidien.

La coupure

Informix 12.10 a perdu son support

Le 30 avril, IBM a achevé la transition d'Informix 12.10 vers le support étendu. Trois conséquences directes :

  • Plus de correctifs de sécurité. Toute vulnérabilité découverte reste non corrigée.
  • Plus de corrections de bogues. Le fixpack actuel est le dernier.
  • Support technique uniquement payant sous Extended Support, jusqu'en 2030.
Source : IBM Product Lifecycle — Informix 12.10

Le CSDK 4.10 (Client SDK) passe également en support étendu à la même date, ce qui affecte les drivers ESQL/C, ODBC et JDBC anciens.

12.10 a été publié en 2013. Treize ans de vie, c'est un cycle raisonnable. Mais de nombreux environnements de production tournent encore sous cette version parce que « ça marche » et qu'il n'y a jamais eu assez de pression pour migrer. Maintenant la pression existe — et elle coïncide avec un vrai chemin de modernisation : conteneurs, chiffrement natif, sauvegarde S3.

La décision

14.10 ou 15 : laquelle choisir pour migrer

Informix 15 (novembre 2024) est la première release majeure en plus de cinq ans, avec des changements profonds dans les structures internes du moteur : limites largement élargies (une partition peut contenir 140 billions de pages), chiffrement natif par dbspace, Wire Listener amélioré (MongoDB 3.2–4.2), sauvegarde native vers S3/Azure/IBM COS via ON-Bar, Helm Charts officiels et Java 11 obligatoire.

Informix 14.10xC13 (janvier 2026) est la dernière release de la branche 14.10 : améliorations d'archecker pour les SmartLOBs, Direct I/O pour les blocs 2K/4K et les corrections accumulées. Mature, éprouvée, conservatrice.

Stable · Éprouvé
Informix 14.10xC13
Janvier 2026 · Release mature
RisqueFaible
UpgradeIn-place depuis 12.10
DriversHaute compatibilité
Chiffrement dbspaceNon
Backup S3Pas natif
ConteneursStandalone ✓

Notre recommandation : si l'environnement est stable et que vous n'avez pas besoin des fonctionnalités de la v15, le chemin 12.10 → 14.10 est le plus sûr. Il laisse le temps à Informix 15 d'accumuler des fixpacks. Si c'est un nouveau projet ou si vous avez besoin du chiffrement natif, de la sauvegarde cloud ou du déploiement Kubernetes natif, allez directement vers la v15.

Ce que nous ne recommandons pas

Rester sur 12.10 en support étendu « en attendant de ne plus avoir le choix ». Le support étendu a une date de fin et plus vous attendez, moins vous aurez de flexibilité. Migrer dans l'urgence coûte cher. Migrer de manière planifiée est un projet maîtrisable.

L'équipe

Pourquoi former l'équipe est aussi important que migrer

Nous le constatons projet après projet. Une équipe met à jour Informix et continue d'opérer avec les mêmes procédures qu'il y a huit ans. Le serveur est en nouvelle version ; les compétences ne le sont pas.

La 14.10 a introduit AUTO_TUNE, qui rend inutiles de nombreux réglages manuels. La v15 change l'approche du chiffrement, de la sauvegarde et du déploiement. Et avec les conteneurs standalone, il y a un nouveau modèle opérationnel qui nécessite des compétences Kubernetes qu'un DBA classique n'a pas forcément. La documentation officielle se trouve dans le guide de déploiement conteneurisé d'Informix 15, mais la documentation ne remplace pas la formation pratique.

Nos formations Informix

Chez SIXE, nous dispensons la formation officielle IBM depuis plus de 15 ans. Nous avons mis à jour l'intégralité du programme Informix pour la v15 avec de nouveaux travaux pratiques et une documentation propriétaire.

Informix 15 & 14.10 System Administration (SIFMX819G) — 3 jours / 24 heures. De l'architecture du serveur au troubleshooting en production, avec un module de migration 12.10→14.10/15 et déploiement en conteneurs. Dispensé par des DBAs en activité sur une instance Informix 15 en direct.

Le catalogue complet Informix comprend l'administration système, l'administration de bases de données et des formations personnalisées pour la migration. En français, espagnol et anglais — en ligne, sur site, en session ouverte ou intra-entreprise.

Voir toutes les formations Informix →


Migration, conteneurs ou formation ?

Dites-nous quel Informix vous utilisez et nous vous indiquerons par où commencer.

Version actuelle, si vous envisagez les conteneurs, si votre équipe a besoin de formation avant de migrer la production. Sans discours commercial.

Stockage objet Ceph vs IBM COS : quand migrer et comment (2026)

Stockage objet · Avril 2026

IBM COS vs Ceph : quel stockage objet choisir, quand migrer et dans quel sens.

Trois chemins réalistes pour faire du stockage objet à l'échelle pétaoctet — et comment nous aidons nos clients à choisir le bon. Avec quinze ans de déploiements en production et trois cas réels sur la table.

Avril 202611 min de lectureInfrastructure · Open Source

En 2026, si vous gérez un déploiement de stockage objet de plusieurs pétaoctets et réfléchissez à ce que vous en ferez dans cinq ans, vous avez trois options réalistes : IBM Cloud Object Storage (l'héritier de Cleversafe), Ceph upstream soutenu par un partenaire, ou Ceph empaqueté commercialement — typiquement IBM Storage Ceph.

Notre préférence va à l'open source et nous le disons d'emblée pour ne faire perdre de temps à personne. Mais nous avons aussi recommandé IBM COS à des clients spécifiques en sachant que c'était la bonne réponse — et dissuadé des migrations qui nous auraient bien facturées mais compliqué la vie du client sans gain réel. Dans cet article, nous expliquons quand et pourquoi, avec des cas vécus.

Comparativa IBM COS vs IBM Storage Ceph vs Ceph upstream — criterios de elección para migración de object storage
Le contexte

Le contexte 2026, sans détours

Le marché du stockage objet on-premise se réorganise depuis trois ans. IBM a repositionné COS plusieurs fois depuis le rachat de Cleversafe en 2015 : d'abord comme produit autonome, ensuite poussé vers IBM Storage Ready Nodes, puis intégré dans le discours « cyber vault » du portfolio Storage Defender. Les clients historiques de Cleversafe — beaucoup d'entre eux avec des déploiements legacy de plus de dix ans sur du matériel Cisco UCS en fin de vie — se demandent quel est le chemin pour les cinq prochaines années avant qu'IBM change de message encore une fois.

Ceph, pendant ce temps, a fait le contraire. Il s'est consolidé. La version actuelle Tentacle (20.2.1, avril 2026) clôt un cycle de maturité entamé avec Reef et Squid. Les contributeurs actifs incluent le CERN, DigitalOcean, Bloomberg, OVH, Clyso, Red Hat/IBM et SUSE. Il est difficile de trouver un projet open source d'infrastructure avec autant d'activité soutenue.

Entre les deux se trouve IBM Storage Ceph : Ceph upstream empaqueté et supporté commercialement par IBM, successeur direct de Red Hat Ceph Storage depuis le rachat de Red Hat. Techniquement, c'est le même Ceph. Commercialement, c'est un abonnement avec SLA vendor tier-1. Il existe parce que certains clients ont des politiques internes ou des cahiers des charges qui exigent un support enterprise avec un nom connu, et que Ceph upstream « nu » ne passe pas ce filtre — même s'il est techniquement identique.

Trois produits, trois modèles commerciaux, trois profils clients distincts.

Les options

Les trois protagonistes

IBM COS
IDA breveté (SecureSlice), architecture fermée à trois couches, liste matérielle certifiée. Fort sur la conformité réglementaire avancée.
Propriétaire
IBM Cloud Object Storage
Héritier Cleversafe · ClevOS
LicencePropriétaire IBM
MatérielListe certifiée fermée
ProtocolesS3 / Swift
Coût 5 ansÉlevé
Lock-inÉlevé
Complexité opsFaible
IBM Storage Ceph
Ceph upstream avec abonnement IBM. Même code, SLA contractuel tier-1. Pour les clients dont le cahier des charges impose un fournisseur enterprise nommé.
Ceph + IBM
IBM Storage Ceph
Successeur Red Hat Ceph · ppc64le
LicenceAbonnement IBM
MatérielN'importe quel x86/ARM
ProtocolesS3 · RBD · CephFS · NVMe-oF
Coût 5 ansMoyen-élevé
Lock-inMoyen
Complexité opsMoyenne

Survolez chaque carte pour plus de détails · La « bonne » option dépend de la réalité opérationnelle de chaque client

Les trois fonctionnent. Les différences techniques qui importent ne tiennent pas à ce qu'ils font, mais à comment ils s'opèrent et combien ils coûtent sur cinq ans. Pour une comparaison approfondie de Ceph face à d'autres solutions de stockage distribué — Storage Scale, GPFS, NFS, SMB — nous avons un article dédié : IBM Storage Ceph vs Storage Scale, GPFS, GFS2, NFS et SMB.

Notre position

Pourquoi nous préférons l'open source

Ce n'est pas de l'idéologie. C'est le résultat de voir, projet après projet, qu'un client avec une bonne équipe interne ou un partenaire compétent obtient sur Ceph upstream la même stabilité opérationnelle que sur n'importe quelle alternative commerciale — avec beaucoup plus de liberté et à moindre coût.

Les arguments sont concrets. Le lock-in des produits propriétaires ne se limite pas au matériel — il concerne aussi la feuille de route. Si IBM repositionne COS encore une fois — et c'est arrivé plusieurs fois depuis 2015 — le client regarde le changement de loin. Avec Ceph, si votre distributeur commercial change de stratégie ou augmente ses prix, vous basculez vers upstream ou un autre distributeur sans migrer les données. La portabilité est réelle, pas un argument marketing. C'est ce que signifie concrètement la souveraineté numérique sur votre infrastructure de stockage.

La communauté est une garantie de continuité qu'un seul fabricant ne peut pas offrir. Un produit propriétaire dépend en dernière instance d'une feuille de calcul au siège du fabricant. Ceph a suffisamment de contributeurs institutionnels que si l'un part — ce qui est arrivé — le projet continue. Pour une infrastructure que vous allez exploiter quinze ou vingt ans, c'est déterminant.

La polyvalence architecturale se rentabilise d'elle-même. Stockage objet aujourd'hui, block demain pour un projet de virtualisation, fichier pour un cas d'usage ponctuel, NVMe-oF quand le besoin apparaît. Tout sur le même matériel, maintenu par la même équipe. COS ne fait bien que le stockage objet. Séparer les plateformes par protocole double les équipes, les procédures et les contrats de support.

La transparence opérationnelle est une autre forme de sécurité. Quand quelque chose casse dans Ceph, vous avez le code. Vous pouvez lire, auditer, déboguer, modifier, appeler un ingénieur qui comprend le commit à l'origine du bug. Quand quelque chose casse dans COS, vous ouvrez un ticket et attendez. Les deux approches sont légitimes. Pour des équipes techniques sérieuses, la première vaut plus qu'il n'y paraît dans une comparaison de features.

La nuance importante

L'open source n'est pas gratuit. Il est différent. Ce que vous économisez en licences, vous le dépensez en heures d'équipe — interne ou externalisée. Si vous n'avez ni l'équipe ni un partenaire qui joue ce rôle, l'équation peut s'inverser. C'est pourquoi la question opérationnelle compte autant que la question philosophique : qui opère ça au quotidien ?

Honnêteté technique

Quand IBM COS est la bonne réponse

Si nous étions des intégristes de l'open source, nous vendrions du vent — et il y en a déjà assez sur ce marché. COS est le bon choix pour un profil client assez précis.

Petites équipes opérationnelles sans compétences SDS, sans budget pour les recruter ni pour les externaliser durablement. La courbe d'apprentissage de Ceph est réelle, et si l'organisation ne peut pas l'assumer ni payer quelqu'un pour le faire à sa place, un produit empaqueté et opinionated comme COS réduit la surface de problèmes opérationnels.

Secteurs réglementés avec des exigences de conformité très spécifiques — WORM audité, rétention SEC 17a-4, Compliance Enabled Vaults, NENR. L'écosystème IBM est très mature sur ce terrain et les audits vont plus vite quand tout le stack vient du même fabricant avec des certifications déjà obtenues.

Politique d'entreprise « une seule gorge à serrer » avec préférence explicite pour le vendor tier-1. Il y a des organisations — banques conservatrices, administrations publiques, défense — où le CISO ou le responsable achats n'accepte pas une architecture sans une facture unique et un SLA contractuel. Discuter de l'extérieur avec cette politique est une perte de temps ; le bon réflexe est d'aider le client à choisir le produit empaqueté qui correspond le mieux.

Écosystème IBM déjà déployé. Si le client a déjà Spectrum Protect, Storage Defender, Fusion, Power ou Z, consolider le stockage objet dans le même périmètre vendor a une logique opérationnelle et commerciale.

Très grande échelle (hauts pétaoctets ou exaoctets) avec workload prévisible et stable, où la simplicité opérationnelle d'un produit mature compense le coût de la licence. Nous avons vu des clients avec plus d'un exaoctet sous support IBM pour qui migrer représenterait un projet de trois ans et des dizaines de millions d'euros — dans ces cas l'analyse est différente et la réponse est souvent de rester et d'optimiser.

Ce qui ne justifie pas de rester sur COS

L'inertie, la peur mal informée de l'open source, ou le fait de considérer la ligne de licence annuelle comme acquise sans la questionner. Ça, nous le questionnons systématiquement.

La majorité du marché

Quand Ceph upstream avec un bon partenaire est la réponse

C'est le scénario où nous pensons que se trouve la majorité du marché, même si celui-ci ne le sait pas toujours.

Profils où Ceph upstream s'impose clairement :

  • Client avec une équipe technique compétente en Linux et infrastructure, ou prêt à avoir un partenaire de support continu.
  • Échelle moyenne à grande, de centaines de TB à dizaines de PB, où l'abonnement commercial commence à peser sur le budget.
  • Besoin ou intention d'unifier stockage objet, block et fichier sur la même plateforme.
  • Renouvellement matériel en cours sans volonté de s'attacher à une liste certifiée d'un fabricant unique.
  • Intégration native avec Kubernetes via Rook, si une plateforme cloud-native est dans les plans.
  • Préférence, simplement, pour pouvoir voir ce qu'il y a sous le capot.

Il faut ici affronter un mythe qui circule depuis des années : que Ceph est difficile. C'est à moitié vrai. Ceph est complexe — comme l'est tout système distribué sérieux — mais il n'est ni chaotique ni instable. La différence entre un cluster Ceph qui donne du fil à retordre et un qui tourne des années sans incident ne tient pas au logiciel. Elle tient à la conception du déploiement, au tuning des placement groups et du balancer, au choix d'un matériel cohérent, à la supervision, et au fait d'avoir quelqu'un au bout du téléphone qui sait quoi faire quand quelque chose d'inhabituel apparaît dans ceph health detail.

Le problème n'est pas Ceph. Le problème est de déployer Ceph sans expertise. C'est un problème propre à toute infrastructure complexe, pas un défaut du produit.

La vraie question. Pas « est-ce que je peux m'en sortir seul avec Ceph ? », mais « ai-je quelqu'un — interne ou externe — qui me couvre ? ». Si oui, Ceph upstream offre le meilleur ratio coût/résultat du marché. Si non, il faut d'abord trouver ce quelqu'un avant de signer quoi que ce soit.

Un cluster Ceph bien opéré fonctionne aussi bien avec un support upstream plus un partenaire compétent qu'avec un abonnement enterprise. La vraie différence, c'est qui décroche le téléphone à trois heures du matin — et les partenaires qui font ce travail le décrochent aussi. Nous avons un article sur l'erreur Ceph la plus fréquente et comment la corriger si vous voulez voir concrètement comment nous travaillons.

L'option intermédiaire

IBM Storage Ceph : l'option intermédiaire

Nous allons être plus directs ici, parce que sur ce produit on écrit peu clairement.

IBM Storage Ceph est, techniquement, Ceph. Le même Ceph que vous téléchargez sur le site du projet. Empaqueté, testé, intégré avec des outils propres à IBM, supporté commercialement avec SLA, et certifié dans plusieurs environnements réglementés. C'est ce que vous payez. Techniquement, vous n'avez rien que vous ne pourriez avoir avec upstream.

Quand ça a du sens de le payer :

  • Appels d'offres publics ou privés qui imposent un fournisseur tier-1 avec support contractuel, sans marge de négociation.
  • Organisations où la politique achats oblige au support enterprise sans exception, et où il n'y a aucun moyen d'homologuer un partenaire externe comme alternative.
  • Clients qui ont déjà un ELA (Enterprise License Agreement) avec IBM et auxquels ajouter Storage Ceph au package revient moins cher que le prix catalogue.
  • Secteurs avec des audits où le nom du fabricant sur la facture raccourcit le processus.

Quand ça ne vaut pas la peine :

Dans pratiquement tous les autres cas. Si votre conformité ne vous y oblige pas et que vous avez un partenaire décent, payer un abonnement pour upstream est un surcoût évitable. Pour être concrets sans donner de chiffres officiels : à l'échelle de dizaines de pétaoctets, la différence entre abonnement commercial et partenaire de support sur upstream peut avoisiner des centaines de milliers d'euros par an. À l'échelle de l'exaoctet, on passe au million. Cet argent, pour la plupart des clients, vaut mieux réinvesti dans l'équipe, le matériel ou n'importe quoi d'autre.

Résumé sans fioritures. COS = produit complet, fournisseur unique, coût élevé, lock-in élevé, simplicité opérationnelle élevée. IBM Storage Ceph = Ceph de la communauté avec facture IBM, tranquillité contractuelle, coût moyen-élevé. Ceph upstream avec partenaire = contrôle maximal, coût faible, requiert de la maturité — interne ou empruntée.

Si votre réalité vous pousse vers le premier ou le deuxième, nous serons là pour vous aider à bien l'opérer. Mais la majorité des clients avec lesquels nous travaillons découvrent, après un assessment honnête, que le troisième leur convient mieux qu'ils ne le pensaient.

IA souveraine

Ceph comme infrastructure pour l'IA souveraine

Une précision qui revient de plus en plus dans les conversations avec nos clients : Ceph n'est pas seulement du stockage. C'est le backend de stockage des infrastructures d'IA souveraine on-premise à grande échelle.

Quand une organisation veut déployer un LLM privé — un grand modèle de langage hébergé entièrement dans sa propre infrastructure — ou construire une AI Factory souveraine, le stockage distribué est la couche qui le rend viable. Ceph avec son interface RGW compatible S3 est la solution standard pour servir des datasets d'entraînement, des checkpoints de modèles et des résultats d'inférence à des clusters GPU orchestrés avec Kubernetes. Pour servir les modèles en production, SIXE déploie vLLM ou llama.cpp selon la volumétrie, la latence requise et le matériel disponible — et Ceph est la couche qui garantit que vos données ne quittent pas votre réseau.

Même stack que le BSC

Les AI Factories du Barcelona Supercomputing Center et les infrastructures souveraines européennes fonctionnent avec Ceph + OpenStack + Kubernetes avec GPU Operator. Ce sont les mêmes technologies que SIXE déploie on-premise dans votre datacenter — pas dans le cloud de quelqu'un d'autre. Les données ne bougent pas. Le modèle non plus.

IBM COS, par son architecture propriétaire et sa liste de matériel certifié, n'est pas l'option habituelle pour ces architectures d'IA souveraine. Ceph si — et c'est là que nous voyons le plus de nouveaux projets en 2026.

Cas réels

Trois cas réels

Anonymisés, parce que les NDAs sont les NDAs. La morale est toujours la même : la bonne question n'est pas « lequel est le meilleur en abstrait » mais « lequel convient à cette réalité concrète ».

Cas réels · Trois profils, trois décisions différentes
A
Opérateur télécom européen · 50 PB · IBM COS → Ceph upstream
Le matériel Cisco UCS M4 arrivait en fin de vie et le renouvellement sur matériel certifié IBM était prohibitif. Le coût de licence COS était remis en question en interne depuis des années. Il y avait une intention stratégique de consolider stockage objet et block sur un seul stack pour la plateforme Kubernetes interne. Migration par phases sur dix-huit mois, avec une période de double fonctionnement pour valider les données critiques. Résultat : coût opérationnel total significativement réduit, équipe du client autonome au quotidien, SIXE comme support de second niveau. Trois ans plus tard, le cluster est toujours stable.
Matériel fin de vie Coût licence Consolidation K8s
B
Institution financière réglementée · 8 PB · Sont restés sur IBM COS
Nous avons été contactés pour évaluer une migration potentielle motivée par le coût des licences. Nous avons mené l'assessment complet. Notre recommandation a été de ne pas migrer : petite équipe opérationnelle sans budget ni culture pour absorber Ceph de façon autonome, exigences SEC 17a-4 avec Compliance Enabled Vaults profondément intégrées dans les audits annuels, et aversion au risque opérationnel — légitimement — élevée. Nous avons gagné moins que ce qu'une migration nous aurait rapporté, mais nous avons gagné un client de long terme. Nous avons continué à travailler avec eux sur l'optimisation du déploiement existant et la planification du prochain renouvellement matériel.
SEC 17a-4 Petite équipe Réponse : rester
C
Administration publique · 3 PB · Ceph self-managed → IBM Storage Ceph
Le client avait déployé Ceph en interne sans expertise suffisante et se retrouvait avec un cluster instable, des incidents récurrents qui avaient épuisé l'équipe opérationnelle. En parallèle, un nouveau cahier des charges exigeait un fournisseur tier-1 avec support par contrat, ce qui éliminait l'upstream comme option. Nous les avons accompagnés dans la migration vers IBM Storage Ceph, la stabilisation de l'environnement et la formation de l'équipe. Ils ont terminé avec un cluster sain et une équipe reposée. Ce n'était pas l'option la moins chère, mais c'était la seule possible compte tenu des contraintes externes.
Cahier des charges tier-1 Cluster instable → IBM Storage Ceph
Ce que personne ne dit

Ce que la plupart des comparatifs ne disent pas

Quatre choses qui n'apparaissent jamais dans les whitepapers des éditeurs et que nous avons vu faire trébucher de nombreuses équipes techniques.

Migrer à l'échelle pétaoctet ne consiste pas à copier des données

C'est migrer de la configuration : lifecycle policies, rétention, legal holds, ACLs, CORS, bucket policies, versioning, notifications d'événements, tagging, réplication. On migre le contexte autant que les octets. Un projet de migration mal cadré s'en aperçoit à mi-chemin et voit son calendrier doubler.

Le dialecte S3 n'est pas uniforme

Entre AWS S3, Ceph RGW et IBM COS, il y a des différences subtiles dans les headers, le comportement de LIST avec beaucoup d'objets, les cas limites de multipart upload, la sémantique du versioning. Les applications clientes ont parfois besoin d'ajustements. Il faut tester, pas supposer.

La protection des données change de philosophie selon le produit

L'IDA de COS, l'erasure coding de Ceph et la réplication triple traditionnelle ne sont pas interchangeables en termes de garanties de durabilité ni de profil de pannes qu'ils tolèrent. Traduire un IDA 10/8/7 de COS en un profil d'erasure coding Ceph demande du jugement, pas de l'arithmétique.

Le quotidien opérationnel est radicalement différent

Dans COS, vous diagnostiquez avec storagectl list et le shell d'administration du Manager. Dans Ceph avec ceph -s, ceph osd tree, ceph health detail, placement groups, OSDs, CRUSH maps. Reformer une équipe prend entre six et douze mois de transition effective. Il faut le budgéter — ça ne peut pas être une note de bas de page du projet.

Comment nous travaillons

Comment nous travaillons chez SIXE

Le schéma est simple et fonctionne depuis des années. D'abord un assessment : nous passons en revue l'architecture actuelle, les workloads réels, le profil de l'équipe opérationnelle, les contraintes réglementaires, le budget à trois ou cinq ans et les options techniques viables. Le livrable est une recommandation motivée avec des alternatives — et parfois c'est « restez où vous êtes ». Nous l'avons dit plus d'une fois.

Ensuite un design, s'il y a migration ou changement substantiel. Architecture cible, plan par phases, fenêtres opérationnelles, matrice de risques, runbooks. Deux migrations ne se ressemblent pas.

Puis l'exécution. Migration par phases avec double fonctionnement quand c'est possible, validation des données, QA fonctionnelle avec les applications clientes, ajustements fins post-bascule.

Et enfin le handover avec mentoring à l'équipe du client, plus un support technique Ceph continu si vous voulez que nous restions disponibles à moyen terme. Beaucoup de clients préfèrent ce modèle — SIXE comme extension de leur équipe — plutôt qu'un abonnement commercial traditionnel. C'est exactement ce qui rend Ceph upstream viable en production sérieuse. Pour les équipes qui souhaitent monter en compétence en interne, nous proposons le cours d'administration Ceph et le cours pratique IBM Storage Ceph.

Notre équipe diagnostique un DONT-START-DAEMON sur un slicestor ClevOS avec la même aisance qu'un placement group inactive+incomplete sur Ceph. Nous ne sommes pas un partenaire « d'IBM » ni « de Ceph ». Nous sommes un partenaire de stockage objet, et nous connaissons les trois options suffisamment bien pour recommander celle qui convient dans chaque situation.


Vous avez du stockage objet à revoir ?

Une conversation technique honnête, sans pitch commercial.

Dites-nous où vous en êtes — capacité, workloads, équipe, contraintes — et nous vous dirons ce qui a du sens. Si la réponse est « restez où vous êtes », nous vous le dirons aussi.

IBM DataStage : qu’est-ce que c’est, comment ça marche et pourquoi c’est toujours la référence ETL en 2026

Intégration de données · Avril 2026

Qu'est-ce qu'IBM DataStage et pourquoi il reste la référence ETL en entreprise en 2026.

Pendant que le marché de l'intégration de données se fragmente entre outils cloud-native, notebooks et orchestrateurs à la mode, DataStage continue de déplacer les données qui comptent depuis trois décennies — banque, santé, télécoms et administrations publiques. Voici ce qu'il est, comment il fonctionne et quand il est pertinent en 2026.

Avril 20269 min de lecture

Si vous travaillez avec les données dans une grande organisation, vous avez probablement entendu parler de DataStage — même si vous ne savez pas exactement ce qu'il fait au-delà de « ce truc IBM pour déplacer des données ». C'est bien plus que ça.

IBM DataStage est l'outil ETL (Extract, Transform, Load) de la suite IBM InfoSphere. Il est en production depuis plus de 25 ans, a traversé plusieurs acquisitions et changements de marque, et en 2026 il reste l'une des pièces centrales de l'écosystème de données d'IBM — désormais disponible en tant que service au sein d'IBM Cloud Pak for Data.

Les fondamentaux

Qu'est-ce que DataStage et d'où vient-il

IBM DataStage est un outil d'intégration de données qui permet de concevoir, déployer et exécuter des pipelines qui extraient des informations de multiples sources, les transforment selon des règles métier et les chargent dans des systèmes cibles. Dans le monde de l'ingénierie de données, c'est ce qu'on appelle l'ETL — Extract, Transform, Load — et DataStage est l'une des implémentations les plus établies et robustes du marché.

L'histoire mérite d'être résumée car elle explique beaucoup de ce qu'est DataStage aujourd'hui. Né dans les années 90 comme produit d'Ardent Software, il a été acquis par Informix, elle-même rachetée par IBM en 2001. Depuis, il fait partie de la famille IBM InfoSphere — une suite d'outils pour l'intégration, la qualité et la gouvernance des données.

Ce qui distingue DataStage d'un script Python ou d'un flux Apache Airflow, ce n'est pas ce qu'il fait (déplacer des données de A à B), mais comment il le fait : avec une interface visuelle de conception de jobs, un moteur de traitement parallèle distribué, des connecteurs natifs pour pratiquement n'importe quelle base de données ou système, et un système de métadonnées intégré qui trace d'où vient chaque donnée et quelles transformations elle a subies.

En clair : DataStage, c'est ce qu'utilisent les organisations qui déplacent des millions d'enregistrements chaque nuit entre des dizaines de systèmes, et qui ont besoin que cela fonctionne toujours, soit auditable et ne nécessite pas une équipe de 15 personnes pour le maintenir.

L'architecture

Comment ça marche : le moteur de traitement parallèle

Le composant central de DataStage est son moteur parallèle (Parallel Framework). Contrairement aux outils ETL qui traitent les données de manière séquentielle — un enregistrement après l'autre — DataStage répartit le travail sur plusieurs partitions qui s'exécutent simultanément. C'est la même idée que MapReduce ou Spark, mais implémentée avant que ces technologies n'existent.

┌──────────────────────────────────────────────────────┐ Moteur Parallèle DataStage └───────┬──────────────┬────────────────┬───────────────┘ ┌────▼────┐ ┌─────▼──────┐ ┌──────▼──────┐ Extract │ │ Transform │ │ Load │ │ │ │ Db2 │ │ Règles │ │ DWH Oracle │ │ Nettoyage │ │ Data Lake SAP │ │ Enrichiss. │ │ Cloud APIs │ │ → parallèle│ │ → batch/TR CSV │ │ → N nœuds │ │ └─────────┘ └────────────┘ └─────────────┘

L'aspect ingénieux du moteur parallèle est que le développeur n'a pas à penser au parallélisme. On conçoit le job comme s'il était séquentiel — en glissant des stages dans le Designer — et le moteur décide comment partitionner les données, combien de nœuds utiliser et comment redistribuer la charge.

Les composants du stack

  • DataStage Designer. L'interface visuelle où l'on conçoit les jobs. On glisse des stages (sources, transformations, cibles), on les connecte par des liens, on définit les métadonnées de chaque colonne et on compile. Derrière, il génère du OSH (Orchestrate Shell), le langage exécuté par le moteur parallèle.
  • DataStage Director. La console de supervision. On y voit les jobs en cours, les échecs, les logs, les statistiques de performance, et on peut relancer ou annuler des exécutions.
  • Information Server. La couche enveloppante : sécurité, métadonnées partagées avec les autres outils InfoSphere (QualityStage, Information Analyzer, IGC), API REST pour l'automatisation, et le référentiel central des définitions de jobs.
  • Connecteurs. DataStage dispose de connecteurs natifs pour un catalogue impressionnant : Db2, Oracle, SQL Server, PostgreSQL, MySQL, SAP, Teradata, Snowflake, Amazon Redshift, S3, Azure Blob, Kafka, fichiers plats, XML, JSON, APIs REST — et bien d'autres. Ce ne sont pas des wrappers ODBC génériques — ce sont des connecteurs optimisés pour chaque moteur, avec support du bulk load, du pushdown optimization et du contrôle fin des sessions.
Cas d'usage

À quoi sert DataStage en pratique

La vraie question n'est pas « à quoi peut-il servir » (déplacer n'importe quelle donnée entre n'importe quels systèmes) mais « dans quels cas est-il pertinent face à des alternatives plus modernes ou moins chères ». Car DataStage n'est pas l'outil le plus simple du marché, et son coût de licence n'est pas anodin.

Alimentation d'entrepôts de données

C'est le cas classique et il reste le plus courant. Les organisations qui disposent d'un DWH — qu'il s'agisse d'IBM Db2 Warehouse, de Teradata, Snowflake ou Redshift — et qui doivent charger des données propres, transformées et enrichies chaque nuit (ou chaque heure) depuis des dizaines de systèmes sources.

Migration de données

Quand une organisation change d'ERP, de core bancaire ou de système hospitalier, il y a un projet de migration de données qui peut durer des mois. DataStage sert à mapper les anciens schémas vers les nouveaux, appliquer les règles de conversion, valider l'intégrité référentielle et exécuter des chargements massifs avec possibilité de rollback.

Intégration en temps réel avec CDC

Avec IBM CDC (Change Data Capture) intégré, DataStage peut répliquer les changements en base de données avec des latences de l'ordre de la milliseconde. Cela s'utilise dans les environnements où les données opérationnelles doivent être synchronisées entre systèmes en quasi-temps réel.

Qualité et gouvernance des données

DataStage s'intègre nativement avec le reste de la suite InfoSphere : QualityStage pour le nettoyage, Information Analyzer pour le profiling, et IBM Knowledge Catalog pour la gouvernance et le lignage. Les projets de gouvernance qui nécessitent une traçabilité de bout en bout ont tout sous le même toit.

Où DataStage est le plus pertinent

Banque, assurance, télécoms, santé, administrations publiques et utilities. Des secteurs avec des volumes massifs, une réglementation stricte (NIS2, PCI DSS, RGPD, DORA), et des environnements IBM Power où DataStage tourne nativement. Si votre infrastructure est déjà IBM — Power11, AIX, Db2 — DataStage s'intègre naturellement.

L'évolution

DataStage dans Cloud Pak for Data : l'évolution 2025-2026

L'histoire récente de DataStage a un protagoniste clair : IBM Cloud Pak for Data. C'est la plateforme de données unifiée d'IBM, construite sur Red Hat OpenShift, qui regroupe tous les services de données sous une interface commune.

Le changement le plus significatif est intervenu en juin 2025, avec la version 5.2 de Cloud Pak for Data : DataStage est disponible sur OpenShift sur IBM Power (ppc64le). Cela signifie que les organisations équipées de serveurs Power peuvent désormais containeriser DataStage et le gérer avec la même orchestration que le reste de leurs workloads cloud-native.

La version actuelle — Cloud Pak for Data 5.3 — apporte DataStage avec un support complet ETL et ELT, l'exécution à distance et le nouveau DataStage Flow Designer intégré à l'interface web.

Note sur la sécurité. En février et mars 2026, IBM a publié plusieurs correctifs de sécurité pour DataStage on Cloud Pak for Data 5.1.2 à 5.3.0, incluant des vulnérabilités d'injection de commandes et de fuite d'informations sensibles. Si vous utilisez DataStage sur Cloud Pak for Data, assurez-vous d'être en version 5.3.1 ou ultérieure.
Le paysage concurrentiel

DataStage face aux alternatives en 2026

Il serait malhonnête de parler de DataStage sans reconnaître que le marché de l'intégration de données en 2026 est très différent de celui de 2015. Il existe des alternatives sérieuses, et la décision dépend fortement du contexte.

OutilModèleFort enFaible en
IBM DataStageLicence IBMTraitement parallèle, environnements IBM, réglementationCoût, courbe d'apprentissage, écosystème fermé
Informatica IDMCSaaS / on-premPart de marché, catalogue de connecteursPrix encore plus élevé que DataStage
Apache Spark / dbtOpen sourceCloud-native, flexibilité, communautéPas un ETL clé en main, nécessite de l'ingénierie
Talend (Qlik)CommercialFacilité d'utilisation, cœur open sourceRacheté par Qlik en 2023, feuille de route incertaine
Azure Data FactorySaaS AzureIntégration native AzureDépendance cloud, limité hors Azure
AWS GlueSaaS AWSServerless, coût faible en petits volumesDépendance cloud, limité hors AWS

Quand DataStage a-t-il du sens ? Quand vous avez déjà investi dans l'écosystème IBM (Power, Db2, InfoSphere), quand vous avez besoin de traitement parallèle on-premise à des volumes que d'autres ne gèrent pas bien, quand la réglementation exige une traçabilité complète des métadonnées, ou quand votre équipe connaît déjà DataStage et que le coût de reconversion dépasse celui de la licence.

Quand ne l'est-il pas ? Quand votre stack est purement cloud-native (AWS/Azure/GCP sans IBM), les volumes sont faibles, vous préférez le code à l'interface visuelle, ou le budget ne permet pas la licence IBM et vous préférez investir en ingénierie avec des outils open source.

Se former

Formation officielle IBM DataStage en Europe

Si DataStage fait partie de votre stack actuel ou va le devenir, se former correctement fait la différence entre une équipe qui conçoit des jobs efficaces et une qui produit des pipelines qui mettent des heures à s'exécuter et que personne ne sait débugger.

SIXE est IBM Authorized Training Partner et propose les cours DataStage suivants, dispensés par des instructeurs accrédités IBM :

Les deux cours incluent les supports officiels IBM et des travaux pratiques. Disponibles en présentiel en Europe, à distance, ou en intra-entreprise adapté à votre équipe. Dispensés en français, espagnol et anglais.

Formation sur mesure

Si vous avez besoin d'un cours adapté — par exemple, centré sur la migration de jobs classiques vers Cloud Pak for Data, ou sur l'optimisation des performances dans un environnement spécifique — nous le concevons à partir des supports officiels, complétés par du contenu issu de nos propres déploiements. Consultez le catalogue complet de formation officielle IBM ou contactez-nous directement par WhatsApp.

Pour aller plus loin


Vous travaillez avec IBM DataStage ?

Formation officielle. En Europe. Par des gens qui le déploient.

Que vous débutiez avec DataStage ou que vous souhaitiez faire monter votre équipe en compétences, les cours officiels IBM dispensés par SIXE couvrent des fondamentaux à l'administration avancée du moteur parallèle.

OpenStack Gazpacho | Alternative VMware open source

Cloud privé · Avril 2026

OpenStack Gazpacho : l'alternative VMware open source qui passe enfin en production.

OpenStack 2026.1 Gazpacho est sorti le 1er avril. Plus de 9 000 modifications, 500 contributeurs, migrations en direct parallèles, automatisation intelligente du bare metal avec Ironic et la suppression progressive d'Eventlet. C'est la version SLURP de l'année — et la plus pertinente pour les entreprises qui réévaluent leur stack de virtualisation.

Avril 202614 min de lecture
Logo OpenStack 2026.1 Gazpacho — la 33e version du logiciel d'infrastructure cloud open source le plus déployé au monde, principale alternative VMware pour le cloud privé

OpenStack vient de publier sa 33e version. Il y a quelques années, la nouvelle serait passée inaperçue en dehors du cercle habituel des opérateurs de cloud privé. Mais 2026 n'est pas une année ordinaire pour l'infrastructure. Broadcom remodèle le paysage VMware depuis plus d'un an. Les entreprises européennes mesurent le coût réel de la dépendance technologique. Et le cloud privé open source est passé d'une posture idéologique à un choix économique.

Gazpacho arrive exactement au moment où plus d'organisations que jamais cherchent activement une alternative sérieuse à vSphere. Et cette version, pour la première fois depuis longtemps, apporte des réponses concrètes aux questions que se posent ces organisations.

Pour comprendre ce qui change vraiment, il faut commencer par quelque chose de peu glamour mais fondamental : savoir si vous pouvez mettre à jour sans perturber la production.

Le modèle de versions

Le modèle SLURP et pourquoi Gazpacho est la version qui compte

OpenStack publie deux versions par an. Depuis 2022, les versions alternées sont marquées SLURP (Skip Level Upgrade Release Process) : elles permettent aux opérateurs de mettre à jour une fois par an, en sautant directement d'un SLURP au suivant sans toucher la version intermédiaire.

Voici l'état des versions à la date de cet article :

VersionDateStatut
2026.1 Gazpacho1er avril 2026Version actuelle. SLURP. Recommandée pour les nouveaux déploiements et les mises à jour.
2025.2 Flamingo1er octobre 2025Supportée. Non-SLURP (intermédiaire).
2025.1 EpoxyAvril 2025SLURP précédent. Mise à jour directe vers Gazpacho possible.
2026.2 HibiscusSeptembre 2026 (prévue)Prochaine version. Non-SLURP.

Le calendrier officiel du cycle Gazpacho détaille tous les jalons, les dates de gel des fonctionnalités et les équipes responsables. La page officielle de la version regroupe les points forts sélectionnés par la communauté.

La conséquence concrète : si votre environnement tourne sous Epoxy (2025.1), vous pouvez passer directement à Gazpacho sans toucher Flamingo. Cela divise par deux vos mises à jour obligatoires et simplifie la planification des fenêtres de maintenance en production.

Et si vous êtes sous Flamingo, c'est une mise à jour standard en une seule étape.

Contexte

Gazpacho est la 33e version d'OpenStack. Environ 500 contributeurs de 100 organisations — Ericsson, Rackspace, Red Hat, Samsung SDS, SAP, NVIDIA, Walmart, entre autres — ont apporté plus de 9 000 modifications en six mois. Le système CI/CD (OpenDev Zuul) a traité plus d'un million de jobs pour valider cette version. Et un chiffre clé pour l'Europe : 40 % des contributions proviennent de développeurs européens, portés par les initiatives de souveraineté numérique du continent. Les détails complets sont dans le blog officiel de l'OpenInfra Foundation.

Le calendrier des versions est clair. Voyons maintenant ce qui justifie réellement une mise à jour — au-delà de la simple fermeture d'une fenêtre de support.

La nouveauté phare

Migrations en direct parallèles dans Nova : le changement de donne

Si nous devions choisir une seule nouveauté de Gazpacho pour expliquer pourquoi cette version compte pour les entreprises, ce serait celle-ci : Nova prend désormais en charge les migrations en direct parallèles.

Jusqu'ici, la migration en direct des instances traitait les transferts mémoire de façon séquentielle : une connexion après l'autre. Gazpacho introduit plusieurs connexions simultanées, ce qui accélère significativement le transfert des workloads lourds entre hôtes ou zones de disponibilité.

Pourquoi est-ce si important ? Parce que la vitesse de migration détermine en pratique la durée d'une fenêtre de maintenance. Pour une organisation gérant des centaines de VMs — ou qui évalue une sortie de VMware — la différence entre migration série et migration parallèle, c'est la différence entre une nuit de maintenance et un week-end entier.

Migration en direct — fenêtre de maintenance ↕ survolez pour le détail
t=0 t=T t=2T t=3T t=4T

Et ce n'est pas tout ce qui change dans Nova

Les migrations parallèles sont la nouveauté la plus visible, mais Nova apporte trois autres changements qui reposent sur le même principe : moins de friction opérationnelle.

Migration en direct avec vTPM

Une autre nouveauté qui s'articule avec les migrations parallèles : Nova permet désormais de migrer des instances utilisant le vTPM (module de plateforme sécurisée virtuelle) sans les arrêter. Les workloads avec chiffrement de disque ou démarrage sécurisé — courants dans les environnements réglementés — peuvent désormais être déplacés entre nœuds sans interruption de service. Auparavant, migrer une VM avec vTPM nécessitait un cycle complet arrêt-déplacement-redémarrage. C'est terminé.

IOThread par défaut par instance QEMU

Un changement plus subtil mais avec un impact réel : Nova active par défaut un IOThread par instance QEMU, déchargeant le traitement des E/S disque des vCPU. Dans les environnements haute densité — nombreuses VMs par hôte — cela se traduit par des performances de stockage plus constantes sous charge, sans toucher à la configuration.

Couverture OpenAPI complète dans Nova

Nova atteint une couverture totale de son schéma OpenAPI : chaque endpoint de l'API dispose désormais d'une spécification lisible par machine. Pour les équipes qui automatisent avec Terraform, Ansible ou des outils maison, cela permet de valider les requêtes avant de les envoyer et de réduire les erreurs dans les déploiements d'infrastructure en tant que code.

Nova gère les VMs. Mais les VMs doivent bien vivre quelque part. Et si ce quelque part est du matériel physique qui n'est pas encore passé par OpenStack — ce qui est exactement la situation lors de la plupart des migrations depuis VMware — Ironic entre en jeu.

Bare metal intelligent

Ironic : automatisation intelligente qui réduit le travail manuel

Ironic est le service OpenStack pour provisionner des serveurs physiques — bare metal — comme s'il s'agissait de machines virtuelles. Dans Gazpacho, Ironic reçoit un ensemble d'améliorations qui représentent collectivement un vrai saut dans les opérations quotidiennes :

  • Détection automatique de l'interface de déploiement. Ironic détermine automatiquement la bonne méthode de déploiement pour chaque serveur, éliminant la sélection manuelle. Cela peut sembler banal, mais dans un datacenter avec du matériel hétérogène (générations et fabricants différents), c'est des heures de configuration économisées par nœud.
  • Détection automatique du protocole (NFS/CIFS) pour Redfish. La configuration du boot par virtual media est simplifiée : Ironic détermine le protocole correct sans intervention de l'opérateur.
  • Planification des ports par traits. L'attribution du réseau est automatisée en fonction des attributs réels de l'infrastructure — type de NIC, vitesse, capacités — au lieu de dépendre de mappages manuels.
  • Interface de déploiement noop. Probablement la plus intéressante pour les projets de migration : elle permet d'enregistrer et de surveiller des serveurs déjà déployés et en production, sans nécessité de les reprovisionner. Le cas d'usage typique : intégrer du matériel existant dans l'inventaire OpenStack lors d'une migration graduelle depuis VMware.
En pratique

L'interface noop est particulièrement utile dans les projets de migration VMware vers OpenStack que nous menons chez SIXE. Elle permet d'enregistrer les hôtes ESXi existants dans OpenStack, de les surveiller, et de planifier la migration des workloads sans avoir à réinstaller l'OS hôte avant le moment venu. C'est la différence entre "tout migrer en un week-end" et "migrer par phases, avec le contrôle".

Guide des drivers Cyborg

Cyborg, le service d'accélérateurs d'OpenStack, publie pour la première fois un guide unifié de configuration des drivers couvrant tous les types supportés : FPGA, GPU, NIC, QAT, SSD et PCI passthrough. Pour les organisations qui intègrent des accélérateurs IA ou des workloads HPC dans leur cloud privé, disposer d'une documentation testée et unifiée réduit significativement la barrière à l'entrée.

Les VMs sont migrées avec Nova et le matériel existant est intégré avec Ironic. Place maintenant à la partie qui finit toujours par être plus complexe que prévu : le réseau.

Réseau, stockage, sécurité

Ce qui change en profondeur : OVN, Manila, OpenBao

Réseau : BGP natif et améliorations OVN dans Neutron

Le contrôleur OVN de Neutron intègre des fonctionnalités très demandées en environnement enterprise :

  • Support BGP natif pour annoncer les routes directement depuis le contrôleur réseau, sans outillage externe.
  • Routage Nord-Sud pour les ports externes, simplifiant la connectivité avec les réseaux physiques.
  • Paires d'adresses autorisées avec MACs virtuels, permettant les scénarios multi-tenant et les architectures hybrides.

Historiquement, ce sont des scénarios où OpenStack nécessitait des contournements ou des outils tiers. Gazpacho les résout nativement.

Stockage : QoS dans Manila et attachements asynchrones

Manila introduit des types et spécifications QoS qui permettent d'appliquer des politiques de performance par workload au stockage partagé. Si vous avez un pool de stockage pour les bases de données et un autre pour les fichiers froids, vous pouvez désormais définir des limites et des priorités au niveau de la plateforme, pas seulement au niveau matériel. Cinder progresse sur les attachements de volumes asynchrones, améliorant la réactivité en environnement haute densité.

Sécurité : PKI avec OpenBao

L'intégration avec OpenBao — fork open source de HashiCorp Vault — pour la gestion des certificats PKI dans OpenStack-Ansible permet d'aligner l'infrastructure de certificats d'OpenStack avec les outils de sécurité enterprise existants. Particulièrement pertinent dans les environnements réglementés où la gestion du cycle de vie des certificats est auditée.

Watcher : stratégies de migration inter-zones

Watcher, le service d'optimisation des ressources, améliore ses stratégies de redistribution des workloads entre zones avec des tests renforcés. Pour les opérateurs gérant des clouds multi-sites ou avec des zones de disponibilité différenciées, cela améliore la fiabilité des redistributions automatiques lors des maintenances ou des pannes.

Tout ce qui précède — migrations, automatisation, réseau — ce sont des fonctionnalités visibles que vous pouvez justifier dans une conversation budgétaire. Mais Gazpacho effectue aussi un travail silencieux, plus important à long terme que n'importe quelle nouvelle fonctionnalité : faire le ménage.

Dette technique

Eventlet : le début de la fin d'une dépendance héritée

L'une des histoires de fond les plus importantes d'OpenStack ces trois dernières années, c'est la suppression progressive d'Eventlet, une bibliothèque de concurrence coopérative adoptée aux débuts du projet, quand Python 2 n'avait pas d'alternative native. Python 3 en a une : asyncio. Mais migrer un projet de la taille d'OpenStack d'un modèle de concurrence à un autre est un travail monumental.

Dans Flamingo (2025.2), quatre services ont terminé la migration : Ironic, Mistral, Barbican et Heat. Dans Gazpacho, Nova progresse significativement vers le threading natif, avec des améliorations de performance et de stabilité mesurables. Neutron avance aussi. Et neuf autres projets sont en migration active.

Pourquoi une organisation qui ne contribue pas au code d'OpenStack devrait-elle s'en préoccuper ? Parce qu'Eventlet est une source connue de bugs subtils, de difficultés de débogage et d'incompatibilités avec les bibliothèques Python modernes. Sa suppression rend OpenStack plus stable, plus maintenable et plus prévisible en production sur le long terme. C'est le type d'amélioration invisible qui n'apparaît pas dans les démonstrations mais qui fait la différence à 3h du matin quand quelque chose tombe en panne.

Progression de la migration Eventlet
● Terminé ◐ En cours ○ En attente
0
Terminés
0
En cours
0
En attente
0%
Complété
Progression globale du projet Objectif : asyncio natif sur tous les services
Le contexte du marché

Gazpacho comme alternative VMware : pourquoi le moment compte

On revient au point de départ de cet article. Nous avons dit que 2026 n'est pas une année ordinaire pour l'infrastructure — que Broadcom a forcé les organisations à repenser leur stack de virtualisation. La question que ces organisations se posent n'est plus « OpenStack est-il techniquement capable ? ». Cela a été tranché depuis longtemps. La question est : « a-t-il des réponses à mes problèmes concrets ? ». Avec Gazpacho, cette réponse s'est considérablement améliorée.

Depuis que Broadcom a restructuré le modèle de licences VMware — hausses de prix significatives, fin des licences perpétuelles, passage aux bundles — les préoccupations que nous entendons le plus souvent sont toujours les mêmes. Gazpacho apporte une réponse directe à chacune, et chaque réponse renvoie directement à ce que nous venons de voir :

Préoccupation fréquenteLa réponse de Gazpacho
Vitesse de migrationMigrations en direct parallèles qui rivalisent avec vMotion. vTPM sans interruption.
Matériel existantIronic noop permet d'enregistrer les hôtes sans reprovisionnement. Migration graduelle.
Réseau complexeBGP natif dans OVN, routage N-S, MACs virtuels. Sans outils tiers.
Accélérateurs (GPU, FPGA)Guide unifié des drivers Cyborg. PCI passthrough amélioré.
Mises à jour prévisiblesModèle SLURP : une mise à jour majeure par an, chemin de migration testé.
Souveraineté / vendor lock-inProjet ouvert, 100 organisations contributrices, 40 % européen.

À cela s'ajoute qu'OpenStack dépasse les 55 millions de cœurs en production dans le monde. Ce n'est pas un projet de niche ni une promesse future : c'est de l'infrastructure qui tourne en production chez Walmart, le CERN, NTT, Deutsche Telekom, et des milliers d'organisations plus petites qui ne publient pas leurs chiffres. Le projet fonctionne depuis 15 ans et la base de contributeurs croît, elle ne rétrécit pas. La version précédente, Flamingo (2025.2), avait déjà réalisé des avancées importantes en matière de sécurité et de suppression d'Eventlet.

L'angle européen

40 % des contributions à Gazpacho proviennent de développeurs européens. Ce n'est pas un hasard : les initiatives de souveraineté numérique de l'UE poussent l'adoption d'infrastructures ouvertes dans les administrations publiques et les entreprises réglementées. Pour les organisations qui doivent démontrer leur indépendance technologique dans leurs appels d'offres ou leurs audits, OpenStack est l'une des rares options qui combine maturité technique et gouvernance véritablement ouverte.

Prochaines étapes

Comment intégrer tout cela dans votre infrastructure

Modèle de versions, migrations en direct parallèles, bare metal intelligent, réseau sans contournements, dette technique en voie de résorption, contexte de marché favorable. Tout converge vers la même question pratique : que faites-vous maintenant ? La réponse dépend de là où vous en êtes.

Il y a trois situations courantes, et le bon diagnostic diffère pour chacune :

  • Vous avez OpenStack en production et devez planifier la mise à jour vers Gazpacho. Si vous êtes sous Epoxy, la mise à jour directe SLURP vers SLURP est votre chemin. Si vous êtes sous Flamingo, c'est une étape standard. Dans les deux cas, la recommandation est de valider dans un environnement de test, surtout si vous utilisez des fonctionnalités qui ont changé entre les versions (migrations, OVN, Ironic).
  • Vous avez VMware et le coût de renouvellement vous pousse à explorer des alternatives. La question ici est d'architecture : quels workloads migrer en premier, quelle architecture OpenStack convient (sur quel matériel, avec quel stockage — Ceph est le choix naturel), et comment migrer les données sans interrompre le service.
  • Vous démarrez un nouveau projet — cloud privé, plateforme de données, infrastructure IA — et OpenStack est sur la table. Gazpacho est la bonne version pour commencer, avec Ceph pour le stockage et, si vous avez besoin de conteneurs, Kubernetes intégré via Magnum.

Dans les trois cas, l'ordre sensé est le même : une courte conversation technique pour comprendre la situation, une proposition d'architecture avec des options et des compromis clairs, et un laboratoire de validation avant de toucher à la production. Ce que Gazpacho change, ce n'est pas le processus — c'est qu'il y a désormais plus de briques matures avec lesquelles travailler.

Pour aller plus loin


Vous évaluez OpenStack ou planifiez une mise à jour ?

Parlons de votre infrastructure.

Dites-nous où vous en êtes — mise à jour en attente, sortie de VMware, nouveau projet — et nous ressortirons de l'appel avec une vision claire de l'architecture, de l'effort et des prochaines étapes. Sans devis génériques. Directement avec des ingénieurs qui ont les mains dans des projets comme le vôtre depuis des années.

Wazuh : le SIEM open source qui répond à NIS2 sans le prix de Splunk

SIEM & XDR · Avril 2026

Wazuh : le SIEM open source qui répond à NIS2 sans le prix de Splunk.

En deux ans, Cisco a racheté Splunk pour 28 milliards de dollars et Palo Alto Networks a racheté les actifs SaaS de QRadar. Pendant ce temps, Wazuh est resté indépendant, a dépassé les 10 millions de téléchargements annuels et a lancé en juin 2025 une fonctionnalité de threat hunting basée sur un LLM exécuté en local. Voici pourquoi cela change la conversation SIEM en 2026.

Avril 202612 min de lecture

Voici une conversation que nous avons plusieurs fois par mois chez SIXE depuis fin 2024. Un directeur des systèmes ou un RSSI nous appelle, en général avec un peu de fatigue dans la voix, et dit une variante de la même chose : « notre contrat Splunk arrive à échéance et le budget de l'année prochaine ne suivra pas », ou bien « nous sommes sur QRadar SaaS et IBM nous a annoncé qu'il faut migrer vers Cortex XSIAM, mais nous ne sommes pas sûrs que ce soit ce que nous voulons ». Et de plus en plus souvent, depuis que la transposition de NIS2 est devenue une obligation concrète : « nous devons démontrer une supervision de sécurité réelle d'ici la fin de l'année et nous n'avons aucune solution en place ».

Ce n'est pas une coïncidence. Le marché du SIEM commercial a plus changé en 24 mois que durant la décennie précédente. Et au milieu de tout ce mouvement, il y a une brique qui est restée exactement où elle était. Elle n'est cotée à aucune bourse, personne ne l'a rachetée, et entre-temps elle n'a cessé de croître. Elle s'appelle Wazuh.

Le contexte 2024-2026

La carte du SIEM qui a changé en 24 mois

Si vous travaillez en sécurité défensive depuis quelques années, vous savez que le marché du SIEM commercial a toujours été conservateur. Les grands acteurs bougeaient peu. Les clients supportaient des contrats douloureux parce que migrer un SIEM est un projet sérieux, et personne ne le fait par plaisir. Et puis, entre le printemps 2024 et l'été 2025, trois choses se sont produites qui ont brisé cet équilibre.

Mars 2024 — Cisco rachète Splunk pour 28 milliards de dollars

L'opération la plus chère de l'histoire du SIEM. Cisco a payé 157 dollars par action, bien au-dessus du cours de Splunk plus tôt dans l'année. Avant la clôture de l'opération, Splunk a licencié 7 % de ses effectifs — environ 560 personnes — dans une restructuration mondiale. Les enquêtes d'analystes juste avant le rachat indiquaient déjà que 22 % des clients envisageaient de changer de fournisseur en cas de hausse de prix après l'acquisition. Ceux d'entre nous qui ont vu ce type d'opération se dérouler savent ce qui suit en général : pression interne pour rentabiliser un prix d'achat élevé, changements de roadmap, et renouvellements de contrat de plus en plus tendus.

Mai-septembre 2024 — Palo Alto Networks rachète les actifs SaaS de QRadar

Celle-ci, personne ne l'avait vue venir. En mai 2024, IBM et Palo Alto Networks ont annoncé que Palo Alto rachetait les actifs SaaS de QRadar pour environ 500 millions de dollars, avec une clôture confirmée en septembre. Forrester l'a résumé en une phrase que les clients sont encore en train de digérer : à l'expiration des contrats, les clients QRadar SaaS doivent migrer vers Cortex XSIAM ou partir vers un autre fournisseur. Ce n'est pas une opinion, c'est le plan officiel de transition.

IBM continue de maintenir QRadar on-premise — correctifs, mises à jour critiques, nouveaux connecteurs — donc les clients qui ont leurs propres installations ne sont pas abandonnés du jour au lendemain. Mais le message de fond que les comités de sécurité lisent est clair : l'investissement lourd ne va plus vers QRadar, il va vers XSIAM et Precision AI. Beaucoup utilisent ce signal pour repenser leur stratégie SOC à moyen terme.

Pendant ce temps — Wazuh dépasse les 10 millions de téléchargements annuels

Cela n'a pas fait la une des journaux, parce que Wazuh n'a pas une machine de communication comparable à celle de Cisco ou Palo Alto. Mais les chiffres sont là. Selon les données que le projet publie lui-même, Wazuh dépasse les 10 millions de téléchargements annuels, possède l'une des plus grandes communautés de sécurité open source au monde, et a déployé en juin 2025 une fonctionnalité qu'aucun de ses concurrents commerciaux ne propose encore sans licence supplémentaire : le threat hunting assisté par un grand modèle de langage exécuté en local. Nous y revenons plus loin.

Une note importante sur QRadar. Chez SIXE, nous continuons à fournir le support et la formation officielle IBM QRadar, et nous allons continuer tant qu'il y aura des clients avec des déploiements actifs. QRadar on-prem reste un outil solide pour les équipes qui l'ont déjà en production et veulent en tirer le meilleur. Mais si vous lancez un nouveau projet SIEM en 2026, ou si vous avez QRadar SaaS et que le contrat arrive à échéance, la conversation qui a du sens aujourd'hui est différente. Et elle passe par Wazuh bien plus souvent qu'il y a deux ans.
Le produit

Qu'est-ce que Wazuh (au-delà du « c'est gratuit »)

Si Wazuh n'était qu'un collecteur de logs bon marché, cette conversation serait différente. Ce n'est pas le cas. Wazuh est une plateforme qui unifie, dans un même agent et une même pile logicielle, un ensemble de fonctions que le reste du marché vend dans des boîtes séparées : SIEM, XDR, détection sur endpoint, intégrité des fichiers, scan de vulnérabilités CVE, audit de configuration contre CIS, conformité réglementaire et réponse active. Le tout avec le même agent qui tourne sur Linux, Windows, macOS, conteneurs Docker ou machines virtuelles.

Voici ce qui se passe concrètement quand un agent Wazuh est déployé sur l'un de vos serveurs :

  • Collecte et corrèle les logs en temps réel. Syslog, auditd, Windows Event Log, applicatif — tout cela avec des decoders natifs. L'agent envoie les données chiffrées au manager central, qui évalue les règles, corrèle entre hôtes et déclenche des alertes le cas échéant.
  • Surveille l'intégrité des fichiers et de la configuration. Toute modification dans /etc, dans le registre Windows, dans les binaires système ou dans les fichiers que vous marquez comme sensibles déclenche immédiatement une alerte. C'est de la détection de manipulation, et c'est l'une des fonctions qu'on payait à part jusqu'ici.
  • Scanne les vulnérabilités contre des bases CVE actualisées. Wazuh croise l'inventaire des paquets installés avec les flux officiels des éditeurs et les bases CVE publiques, et vous indique quelles machines doivent être patchées et avec quelle priorité. Sans payer Tenable ou Qualys en supplément.
  • Audite la configuration contre les CIS Benchmarks. Chaque agent exécute des évaluations périodiques de durcissement contre les politiques CIS ou vos politiques internes, et produit le rapport de conformité prêt à présenter à un auditeur.
  • Réagit activement. Blocage automatique d'IP, kill de processus suspects, isolation d'un hôte, exécution de scripts personnalisés. Sans que personne ne touche au clavier à trois heures du matin.
  • Cartographie tout sur MITRE ATT&CK. Chaque règle déclenchée est étiquetée avec la technique et la tactique ATT&CK correspondantes, ce qui rend les tableaux de bord pour l'analyste SOC bien plus utiles que les écrans génériques de la plupart des outils.
┌──────────────────────────────────────────────┐ Wazuh Manager (analysis engine · rules · response) └──────┬──────────────┬──────────────┬─────────┘ ┌────▼─────┐ ┌─────▼─────┐ ┌────▼──────┐ Agents │ │ Indexer │ │ Dashboard linux │ │ cluster │ │ windows │ │ OpenSearch│ │ MITRE macos │ │ │ │ compliance docker │ │ → shards │ │ SOC view k8s │ │ → HA │ │ └──────────┘ └───────────┘ └───────────┘

La pile est solide et éprouvée en production. Un article académique publié par Springer en avril 2026 évalue des architectures Wazuh distribuées en haute disponibilité, avec une gestion de pics d'ingestion bien au-dessus de la moyenne EPS, et conclut — avec les mots prudents habituels du monde académique — que les solutions SIEM open source bien conçues peuvent égaler, et sur certains aspects dépasser, les plateformes commerciales. Dit plus simplement : quand quelqu'un qui ne vend pas Wazuh évalue Wazuh avec méthode, les résultats tiennent la route.

La nouveauté de l'année

L'atout caché : threat hunting avec un LLM local

En juin 2025, presque sans bruit, Wazuh a intégré une capacité qui change la façon de travailler d'un analyste SOC : le threat hunting assisté par un grand modèle de langage exécuté en local. Pas dans le cloud d'OpenAI. En local. Dans votre propre infrastructure.

Pourquoi est-ce important ? Parce que tous les « SIEM avec IA » que le marché commercial a lancés — Cortex XSIAM avec Precision AI, Splunk et sa propre suite, les nouveautés de QRadar avant la vente — fonctionnent en envoyant vos logs vers les modèles de l'éditeur. Et dans beaucoup de cas, c'est précisément ce que le client n'a pas le droit de faire pour des raisons réglementaires. Si vos logs contiennent des données de patients, des informations de clients bancaires, ou des données classifiées d'une administration publique, les envoyer vers un LLM dans le cloud d'un fournisseur tiers n'est pas négociable — vous ne pouvez tout simplement pas.

L'approche de Wazuh contourne ce problème. Vous choisissez le modèle. Vous le déployez où vous voulez. Vos données ne sortent pas. Et les requêtes ressemblent exactement à ce qu'un analyste formulerait en langage naturel : « montre-moi toutes les tentatives d'élévation de privilèges du dernier mois corrélées avec des comptes de service », « résume les événements de cet hôte sur les 24 dernières heures et priorise ce qui est anormal », « est-ce qu'il y a quelque chose dans ces logs qui ressemble à la TTP T1078 de MITRE ? ».

Notre point de vue chez SIXE

C'est exactement la ligne sur laquelle nous travaillons depuis quelque temps du côté infrastructure — des LLM qui tournent on-premise, sans rien envoyer dans aucun cloud, pour des environnements qui manipulent des données sensibles. Nous l'avons appliqué sur IBM Power, sur AIX, et sur des clusters Ceph et Kubernetes pour de l'inférence privée. Quand nous avons vu Wazuh prendre la même direction côté SOC, c'est devenu l'une des raisons pour lesquelles nous misons encore plus fort sur la plateforme. Si le côté « infrastructure » de cette histoire vous intéresse, nous le détaillons sur notre page inférence d'IA souveraine on-premise.

Le comparatif

Wazuh face à Splunk, QRadar et XSIAM en 2026

Sans discours marketing, voici l'état actuel des quatre acteurs qui reviennent dans la majorité des conversations que nous avons. Les chiffres et les statuts sont vérifiables à la date de publication de cet article.

PlateformeÉtat en 2026Modèle commercial
WazuhIndépendant. Aucune acquisition, aucune levée de fonds, croissance des téléchargements et de la communauté.Open source AGPLv3. Aucun coût de licence. Wazuh Cloud en option.
SplunkPropriété de Cisco depuis mars 2024. Réduction des effectifs de 7 % avant clôture. Intégration en cours.Au volume de données ingérées (Go/jour). Coût élevé, pression sur les renouvellements.
QRadar SaaSVendu à Palo Alto Networks en 2024. Migration obligatoire vers Cortex XSIAM à l'expiration des contrats.Destination Cortex XSIAM. Migration gratuite pour les « clients éligibles ».
QRadar on-premMaintenu par IBM. Correctifs, connecteurs, sans grandes nouveautés fonctionnelles.Licence IBM par EPS. Support officiel actif.
Cortex XSIAMProduit stratégique de Palo Alto Networks. IA intégrée (Precision AI).Selon capacité et fonctionnalités. Positionné en haut de gamme tarifaire.
ELK / OpenSearch purGratuit, mais vous le construisez vous-même : règles, decoders, FIM, conformité.Pile gratuite. Le vrai coût est dans le temps d'ingénierie interne.

Ce qui est intéressant dans ce tableau ne se trouve dans aucune colonne — c'est dans ce qu'implique sa lecture complète. Quatre des six acteurs commerciaux sont en transition, en mode maintenance, ou en migration obligatoire. Wazuh et ELK sont les seuls qui se trouvent exactement là où ils étaient il y a trois ans, avec leurs communautés intactes et leurs feuilles de route publiques. Et de ces deux-là, un seul propose nativement SIEM, XDR, FIM, scan de vulnérabilités, réponse active et conformité : Wazuh.

Une note sur le coût. Quand nous comparons Wazuh à Splunk lors de sessions techniques avec des clients, la discussion ne tourne presque jamais autour du coût de la licence — qui, oui, est largement inférieur. Elle tourne le plus souvent autour de la prévisibilité. Splunk monte avec vous : plus vous ingérez de données, plus vous payez. Wazuh non. Et dans un environnement où les volumes de logs croissent de 30 à 40 % par an — parce que vous ajoutez de nouveaux services, parce que NIS2 vous oblige à conserver davantage, parce que vous déployez plus de conteneurs — cette différence se traduit en une facture que les DAF savent très bien lire.
L'angle réglementaire

NIS2, RGPD, ISO 27001 : la conformité sans souffrance

Il y a une raison très concrète à la croissance accélérée de Wazuh en Europe francophone, et c'est la pression réglementaire. La directive NIS2 a été transposée en droit français et belge au cours de 2024-2025, et son périmètre est large : opérateurs de services essentiels, opérateurs d'importance vitale, mais aussi des milliers d'« entités importantes » qui n'avaient jamais été soumises à ce type d'obligations auparavant. Pour beaucoup d'organisations de taille moyenne — hôpitaux, universités, collectivités territoriales, entreprises industrielles, services financiers — la question n'est plus de savoir si elles ont besoin d'un SIEM. C'est lequel elles peuvent se permettre sans que le comité de direction lève un sourcil.

Wazuh fournit nativement des tableaux de bord et des rapports cartographiés sur les principaux référentiels :

  • NIS2. Contrôles de détection, traçabilité des incidents, capacité de notification à l'autorité compétente (l'ANSSI en France, le CCB en Belgique) dans les délais imposés, preuves des mesures de gestion des risques pour les entités essentielles et importantes.
  • RGPD. Contrôles de logging des accès, traçabilité, détection et réponse à incident, preuves utiles pour l'horloge de notification d'une violation de données personnelles à la CNIL ou à l'APD.
  • ISO/IEC 27001. Preuves pour les contrôles de l'Annexe A liés à l'exploitation, aux communications, à la conformité et à la gestion des incidents de sécurité.
  • PCI DSS. Contrôles de logging, intégrité des fichiers, gestion des vulnérabilités, rétention — la check-list exigée par la norme, cartographiée exigence par exigence.
  • CIS Benchmarks. Audit continu du durcissement du système d'exploitation et des services, avec rapport historique des dérives.

Cela dit — et nous le disons avec affection parce que nous venons de ce monde — les tableaux de bord ne suffisent pas à passer un audit. Ce qui le permet, c'est que quelqu'un ait conçu correctement l'architecture, que les règles soient ajustées au contexte du client, que les exceptions soient documentées, et que le flux de preuves arrive de manière ordonnée à la personne qui doit le signer. Cette partie n'est pas faite par le produit, elle est faite par l'équipe qui le déploie. Et c'est, probablement, 70 % de la valeur d'un projet Wazuh bien mené.

Ce que nous faisons chez SIXE

Nous déployons Wazuh depuis des années dans des organisations soumises à NIS2, au RGPD, à PCI DSS et à des cadres sectoriels spécifiques, en France, en Belgique et au-delà. La page complète du service, avec l'architecture, le cycle de déploiement et les cas d'usage, est ici : Implémentation et support de Wazuh. Si la conformité NIS2 est ce qui vous met le plus de pression en ce moment, c'est par là qu'il faut commencer.

La migration

Migrer depuis Splunk, QRadar ou ELK sans aveugler le SOC

Migrer un SIEM est un projet qui fait peur, et à juste titre. Un SIEM mal migré laisse vos contrôles de détection aveugles précisément au pire moment. C'est pourquoi notre façon de procéder doit être ennuyeuse et prévisible, avec trois principes que nous ne négocions pas :

  1. Ne jamais éteindre l'ancien SIEM avant que le nouveau ne fonctionne. L'ancien continue d'absorber les logs et de générer ses alertes pendant que Wazuh commence à tourner en parallèle. Pendant quelques semaines, vous avez une couverture double et un risque nul. Cette période coûte cher en ressources, certes, mais bien moins qu'un mois de SOC aveugle.
  2. Convertir d'abord les règles critiques, pas tout le catalogue. Les grands SIEM ont souvent des milliers de règles accumulées, et une part importante sont des règles que personne ne regarde ou qui déclenchent des faux positifs. La première passe identifie les 50 à 150 règles critiques qui produisent réellement des détections utiles, les réécrit au format Wazuh et les valide avec des événements réels. Le reste suit plus tard — ou ne suit pas, parce que souvent cela n'en vaut pas la peine.
  3. Valider avec des événements qui font mal, pas avec des tests synthétiques. Avant de considérer Wazuh comme opérationnel, nous reproduisons un ensemble de scénarios réels — tentative d'élévation de privilèges, exfiltration, comportement précoce de rançongiciel, compromission de compte — et nous vérifions que les alertes se déclenchent, se corrèlent et arrivent au SOC avec le bon contexte. Si elles ne se déclenchent pas, le système n'est pas considéré comme opérationnel. C'est aussi simple que ça.

La partie qui change selon votre point de départ, c'est le travail de conversion :

  • Depuis Splunk. Le travail le plus intéressant. Le SPL (Search Processing Language) ne se traduit pas automatiquement vers les règles Wazuh, mais le motif de détection est en général reproductible avec des decoders custom et des règles sur OpenSearch. Nous avons mené plusieurs migrations de ce type et l'essentiel du travail se trouve dans les tableaux de bord et les règles, pas dans l'ingestion.
  • Depuis QRadar. La bonne nouvelle est que QRadar et Wazuh partagent une grande partie de la philosophie autour des événements et des offenses. La mauvaise est que les DSM de QRadar sont propriétaires et qu'il faut reconstruire les parsers. Si vous êtes sur QRadar SaaS avec la migration vers XSIAM qui s'approche, c'est une fenêtre raisonnable pour évaluer sérieusement la troisième option.
  • Depuis ELK pur. La plus simple des trois — Wazuh utilise déjà OpenSearch comme indexer, donc une bonne partie de la pile de données vous est familière. Le saut consiste à ajouter les règles, la conformité et la réponse active, qu'en ELK pur vous auriez dû construire à la main.
Prochaines étapes

Par où commencer

Si vous lisez ceci et que vous vous dites « cela me concerne plus que je ne le voudrais », vous avez probablement raison. Pas besoin d'un projet immense pour faire le premier pas. La meilleure façon de démarrer, c'est en général une conversation courte autour de trois questions :

  • Où vous trouvez-vous exactement aujourd'hui ? Sur Splunk avec un renouvellement qui approche ? Sur QRadar SaaS avec la migration vers XSIAM à l'horizon ? Rien encore, et NIS2 commence à vous mettre la pression ?
  • Quelle réglementation vous oblige réellement ? NIS2, RGPD, PCI DSS, ISO 27001 — couvrir une seule n'est pas la même chose que couvrir les quatre, et l'architecture de Wazuh se dimensionne différemment selon ce qui s'applique vraiment.
  • Combien d'endpoints, quels systèmes d'exploitation, quels logs avez-vous déjà, quelles intégrations vous faut-il ? Avec ces données, on peut déjà esquisser une conception concrète et une estimation d'effort réaliste.

Quand vous saurez ce que vous voulez regarder, la page complète avec l'architecture, les modules, le comparatif détaillé avec les alternatives commerciales et le cycle de déploiement est ici : Wazuh — Implémentation et support SIXE. Et si vous préférez parler à quelqu'un qui a passé des années les mains dans des projets comme le vôtre, la session technique de 30 minutes est gratuite et sans engagement. Vous repartez de l'appel avec une esquisse d'architecture, une estimation d'effort réaliste et les prochaines étapes. Si Wazuh est adapté, nous vous le dirons. Si ce n'est pas le cas, nous vous le dirons aussi.

Pour aller plus loin


Vous repensez votre SIEM ?

Session technique de 30 minutes. Sans engagement.

Vous nous dites où vous en êtes, quelle réglementation vous concerne et ce qui vous préoccupe. Vous repartez de l'appel avec une esquisse d'architecture, une estimation d'effort et les prochaines étapes. Pas de devis générique, pas de discours commercial — directement avec quelqu'un de l'équipe technique.

Bacula : sauvegarde immuable anti-ransomware sans facturation

Sauvegarde & Résilience · Avril 2026

Bacula : la sauvegarde qui tient face aux rançongiciels. Sans facturer au To.

Les groupes de ransomware modernes ne s'attaquent plus d'abord à vos serveurs. Ils s'attaquent d'abord à vos sauvegardes. Voici ce que cela signifie concrètement, ce qu'est réellement une sauvegarde immuable, et pourquoi de plus en plus de nos clients tournent le dos à Veeam et Veritas pour basculer vers Bacula.

Avril 202610 min de lecture

Pendant des années, la sauvegarde a été la tâche ingrate du datacenter. Celle qu'on configurait un vendredi après-midi, qu'on validait avec quelques coches vertes, et qu'on ne regardait plus jusqu'à ce qu'un pépin arrive. On est tous passés par là.

Cette négligence confortable n'est plus tenable. Le serveur de sauvegarde est désormais la première chose que les groupes de ransomware modernes cherchent à neutraliser, et la raison est brutalement simple : s'ils le font tomber avant de chiffrer quoi que ce soit, votre entreprise n'a plus d'issue. Vous payez, ou vous perdez les données. Et pendant ce temps, Veeam, Veritas et Commvault continuent de facturer au téraoctet. Veeam en particulier a annoncé des hausses de 4 à 8 % chaque année, et certains clients rapportent des augmentations cumulées de 25 % ou plus sur quatre ans. Il existe une alternative que la plupart des équipes IT n'ont pas encore prise au sérieux.

Le contexte 2026

Votre sauvegarde n'est plus la dernière ligne de défense. Elle est la première victime.

Fin mars, Bacula Systems a publié deux articles qui résument bien où en est la discussion aujourd'hui. Le premier explique pourquoi l'infrastructure de sauvegarde est une cible plus précieuse pour un attaquant qu'un compte d'administrateur de domaine, et le second pourquoi le Zero Trust s'effondre au niveau de la couche de sauvegarde. Rien de tout cela n'est une nouveauté pour les équipes de réponse aux incidents — elles le répètent depuis deux ans. Mais le fait de le voir noir sur blanc change des conversations de comité de direction qui étaient auparavant impossibles à tenir.

Quand un client nous appelle pour gérer un incident, le schéma qu'il nous décrit est presque toujours le même, à quelques variations près :

Jour 1-3 Accès initial (phishing, VPN, 0-day) Jour 4-10 Reconnaissance + élévation de privilèges Jour 11-14 Localisation et compromission du serveur de sauvegarde Jour 15 Effacement des catalogues et des dépôts Jour 16 Lancement du chiffrement massif Jour 17 Note de rançon sur l'intranet

Regardez cette frise un instant. L'attaquant passe plus de jours à neutraliser la sauvegarde qu'à lancer le chiffrement lui-même. Ce n'est pas une erreur de sa part. Il sait très bien que si la sauvegarde survit, la victime ne paie pas, et toute l'opération perd son intérêt économique. C'est de la comptabilité criminelle froide.

C'est pour cela que la question "est-ce qu'on a des sauvegardes ?" ne vaut plus comme réponse à quoi que ce soit. La question vraiment utile est inconfortable : ces sauvegardes seraient-elles impossibles à détruire, même pour quelqu'un qui aurait déjà des identifiants d'administrateur sur votre réseau ? Si vous devez y réfléchir, la réponse honnête est sans doute non.

Le chiffre qui dérange. Les rapports de résilience publiés au long de 2025 indiquent que plus d'un tiers des organisations victimes de ransomware découvrent, en pleine crise, que leurs sauvegardes ont aussi été touchées. Et voici la partie qui nous hante : dans la grande majorité de ces cas, le système de sauvegarde "fonctionnait parfaitement" la veille. Tableau de bord vert, e-mails quotidiens de succès, dernière copie à trois heures du matin. Tout allait bien. Jusqu'au moment où ce n'était plus le cas.
Le contexte réglementaire

La directive NIS2, transposée dans les droits nationaux européens en 2024 et appliquée activement depuis 2025, rend la résilience du système d'information un sujet obligatoire pour un périmètre beaucoup plus large qu'auparavant. La sauvegarde immuable et la capacité à démontrer une reprise d'activité effective ne sont plus seulement de bonnes pratiques — elles deviennent progressivement une exigence de conformité. Si votre organisation tombe dans le périmètre NIS2, l'architecture de sauvegarde est un sujet qui va remonter au comité de direction, que vous le vouliez ou non.

La bonne définition

Ce que "sauvegarde immuable" veut vraiment dire

Avertissement : "sauvegarde immuable" est devenu un slogan marketing. À peu près tous les éditeurs prétendent en proposer une, et la plupart désignent des choses radicalement différentes. Soyons donc précis sur ce dont on parle ici.

Une sauvegarde est véritablement immuable quand, une fois qu'elle a été écrite, personne ne peut la modifier ni la supprimer avant l'expiration de sa rétention. Personne. Ni l'utilisateur qui l'a créée, ni votre DBA avec des identifiants valides, ni vous-même avec le compte root, ni un attaquant qui aurait déjà compromis le serveur de sauvegarde. Si l'une de ces personnes peut détruire la copie, la copie n'est pas immuable. C'est juste une sauvegarde ordinaire avec une belle étiquette dessus.

Pour obtenir cette garantie en pratique, il existe trois approches sérieuses, et Bacula les supporte toutes les trois :

MécanismeDe quoi il s'agitÀ quoi ça sert
WORM sur bande LTOCartouches LTO en mode Write-Once-Read-Many. Le firmware du lecteur refuse physiquement toute réécriture.Air-gap réel. On sort la bande de la bibliothèque, on la met en coffre, et on l'oublie. Aucun réseau ne l'atteint.
Object Lock sur S3 / CephObjets verrouillés via l'API avec une rétention liée à l'objet. Même le root du bucket ne peut pas y toucher.Immuabilité pour le stockage objet. Compatible avec MinIO, Ceph RGW, AWS S3, Azure Blob.
Systèmes de fichiers append-onlyZFS ou Btrfs avec des snapshots que le processus de sauvegarde lui-même ne peut ni modifier ni supprimer.Première ligne de défense sur disque local. Utile pour les petits environnements, mais pas un substitut à l'air-gap réel.

La règle que de nombreux RSSI adoptent discrètement en ce moment s'appelle 3-2-1-1-0. Vous l'avez peut-être déjà croisée : trois copies, sur deux supports différents, une hors-site, une immuable, et zéro erreur lors de la vérification. Ce "1-0" est exactement ce qui a changé par rapport au classique 3-2-1 que nous avons tous connu. Avoir des copies ne suffit plus — elles doivent être inaltérables, et elles doivent être vérifiées automatiquement sans que personne n'ait à y penser. Et voici le point important : Bacula fait ces deux choses dans son cycle de fonctionnement normal. Ce n'est pas un module premium vendu à part.

Pourquoi la bande redevient sérieuse

En janvier, le consortium LTO a présenté LTO-10 : 30 ou 40 To natifs par cartouche (jusqu'à 100 compressés), 400 Mo/s, et le même air-gap physique que LTO-1 il y a 25 ans. La bande reste la seule technologie de sauvegarde où un attaquant avec root sur votre serveur Bacula ne peut littéralement pas atteindre la donnée, parce que la donnée n'est reliée à rien. Chez SIXE, nous voyons depuis deux ans des clients qui avaient mis leurs bibliothèques LTO à la casse revenir acheter du matériel neuf. Ce n'est pas de la nostalgie — c'est un calcul de risque.

Bibliothèque de bandes LTO dans un rack de datacenter utilisée comme stockage immuable air-gap pour des sauvegardes Bacula
Une bibliothèque LTO moderne — le seul endroit où le ransomware n'atteint pas vraiment la donnée.
Pourquoi Bacula

Pourquoi Bacula colle si bien à ce scénario

Bacula protège des données depuis plus de vingt ans dans des banques, administrations publiques, hôpitaux, opérateurs télécom et centres de données scientifiques à l'échelle du pétaoctet. C'est probablement le logiciel de sauvegarde d'entreprise open source le plus mature qui existe, et ce n'est pas nous qui le disons — ce sont les installations qui tournent depuis les années deux mille, et ce sont les clients de l'éditeur qui lui confient leur donnée critique depuis vingt ans. La version commerciale actuelle est Bacula Enterprise 18.0.8, qui apporte des choses qui auraient semblé de la science-fiction il y a cinq ans : BGuardian pour détecter l'empoisonnement du catalogue, un tableau de bord de sécurité dans BWeb, le support natif de Microsoft 365 et Azure, un plugin Nutanix AHV, les snapshots CSI de Kubernetes.

Mais la vraie raison pour laquelle Bacula tient aussi bien face aux ransomwares modernes, ce ne sont pas les nouveaux plugins. Ce sont des choix de conception que le projet a faits il y a vingt ans et qui, avec le recul, ont très bien vieilli :

  • Architecture distribuée par conception. Director, catalogue, storage daemons et clients sont tous des processus distincts. Ils peuvent vivre sur des hôtes différents, avec des identifiants différents, sur des segments réseau différents. Compromettre l'un ne donne pas accès aux autres — loin de là.
  • Catalogue dans une vraie base de données. PostgreSQL ou MySQL avec leurs propres sauvegardes, leurs propres contrôles d'accès, leurs propres journaux d'audit. Vous pouvez le répliquer, le mettre derrière son propre pare-feu, le traiter comme l'actif critique qu'il est réellement. Ce n'est pas un fichier binaire perdu dans /var.
  • Vérification automatique du contenu. Bacula relit périodiquement les volumes et compare les checksums. Si quelque chose a été altéré — par une main humaine, par un secteur disque défectueux, par un bug matériel bizarre — vous le savez bien avant d'avoir besoin du restore d'urgence. Ça paraît ennuyeux sur le papier, mais c'est la différence entre une frayeur et une catastrophe.
  • Open source authentique, sans petits caractères. Le format des volumes est documenté. Si SIXE disparaît demain, ou si Bacula Systems disparaît, vos sauvegardes restent récupérables avec les outils open source de la communauté. Ce n'est pas quelque chose qu'on peut dire de beaucoup d'autres éditeurs.
  • LTO, Object Lock et air-gap, intégrés depuis toujours. Ces mécanismes ne sont pas un ajout récent parce que les ransomwares sont devenus à la mode. Ils sont la façon naturelle d'exploiter Bacula depuis des décennies. Quand le reste du marché a redécouvert que la bande comptait à nouveau, Bacula en était déjà là depuis longtemps.
┌────────────────────────────────────────────────┐ Bacula Director (orchestration + catalogue) └───────┬────────────┬────────────┬──────────────┘ ┌────▼────┐ ┌─────▼─────┐ ┌────▼─────┐ Clients │ │ Storage │ │ Catalog Linux │ │ Daemons │ │ Postgres VMware │ │ │ │ Proxmox │ │ → LTO WORM│ │ IBM i │ │ → Ceph S3 │ │ DB2 │ │ → Disk ZFS│ │ └─────────┘ └───────────┘ └──────────┘
Le volet financier

Pourquoi Bacula devient moins cher chaque année (et pas les autres)

L'écart de prix entre Bacula et les gros éditeurs propriétaires n'est pas une histoire de remise de couloir. Il tient au modèle de licensing lui-même. Veeam, Veritas NetBackup et Commvault facturent tous en fonction de la quantité de données protégées, du nombre d'hôtes, ou d'une combinaison créative des deux. Le résultat est toujours le même : quand votre entreprise grandit, votre facture de sauvegarde grandit au même rythme. Et les entreprises grandissent chaque année.

Bacula Systems, de son côté, licencie par nombre de clients et par plugins activés. Le prix reste stable même si le volume de données double. La première fois qu'un DAF prend conscience de ça dans une réunion avec nous, le silence autour de la table est assez parlant.

Et la situation se durcit de l'autre côté. Veeam a annoncé des hausses de prix de 4 à 8 % pour janvier 2025 et janvier 2026, et ce n'est que le chiffre officiel — sur les forums Veeam, certains clients rapportent des augmentations cumulées de 25 % ou plus entre 2021 et 2024, avec des renouvellements individuels à +49 %. On commence à voir dans la presse tech des comparaisons avec ce que Broadcom a fait à VMware après l'acquisition. Elles ne sont pas infondées.

ModèleCe que vous payezCe qui se passe quand vous grandissez
VeeamPar workload protégé, par socket, ou par instanceAugmente avec le nombre d'hôtes — plus 4-8 % chaque année
Veritas NetBackupPar capacité front-end (To protégés)Augmente avec le volume de données
CommvaultMélange de capacité et de modules activésAugmente avec les deux simultanément
Bacula EnterprisePar nombre de clients et pluginsStable. Les données doublent, le coût ne bouge pas.
Bacula Community + SIXELogiciel gratuit + heures de nos ingénieursVous ne payez que ce que vous utilisez de notre équipe.

Dans les migrations que nous avons menées depuis Veeam ou Veritas, l'économie annuelle de la première année se situe typiquement entre 60 % et 85 %. Le point idéal se trouve dans les environnements de taille moyenne, entre 20 et 200 To protégés — c'est là que la tarification à la capacité fait le plus mal et que Bacula brille le plus clairement. Et l'écart se creuse d'année en année, parce que votre donnée continue de grandir et que Bacula ne vous pénalise pas pour ça.

Une précision sur les chiffres. L'économie réelle dépend de votre contrat actuel, de votre nombre d'hôtes, des modules que vous utilisez, de votre empreinte de stockage. Il n'y a pas de chiffre magique. Ce que nous faisons chez SIXE, c'est prendre votre facture annuelle actuelle et la mettre en parallèle avec une estimation réaliste de Bacula plus notre support, avec vos vrais chiffres, avant que vous ne vous engagiez sur quoi que ce soit. Et si l'économie ne justifie pas le mouvement, nous vous le disons. Ça nous a valu pas mal d'amis.
L'implémentation

Comment concevoir un Bacula qui résiste à une attaque

Installer Bacula n'est pas la partie difficile. Concevoir un Bacula qui survit à quelqu'un qui a déjà root à l'intérieur de votre réseau — c'est là que commence la vraie ingénierie. Voici les cinq décisions d'architecture qui font la différence entre une sauvegarde qui sauve l'entreprise et une qui tombe avec elle :

1. Séparer le plan de contrôle du plan de données

Le director Bacula et son catalogue PostgreSQL ne devraient pas vivre sur le même réseau que les clients qu'ils protègent. Il faut un réseau d'administration séparé, avec ses propres règles, son propre MFA, et idéalement une architecture zero-trust appliquée aux serveurs de sauvegarde eux-mêmes. Ça paraît évident — et pourtant nous le voyons mal fait la plupart des fois que nous auditons une installation existante.

2. Au moins deux dépôts vraiment indépendants

Un dépôt rapide sur disque, ou sur Ceph avec Object Lock, pour les restores du quotidien. Et un second dépôt air-gap pour la rétention longue : bande LTO, ou un cluster Ceph physiquement isolé dans un autre site, ou les deux. La règle 3-2-1-1-0 n'est pas une suggestion optionnelle, c'est le minimum vers lequel il faut raisonnablement viser. Si votre plan de sauvegarde actuel tient dans un seul dépôt, vous avez un problème.

3. Vérification automatique. Activez-la vraiment.

Bacula permet de planifier des jobs qui relisent les volumes et comparent les checksums. Activez-les. Sérieusement. C'est la seule façon de détecter une altération, une dégradation du support, ou une erreur matérielle bizarre avant de la découvrir le pire jour possible — le jour où vous avez besoin d'un restore d'urgence. Notre recommandation habituelle est au minimum hebdomadaire, plus fréquent quand l'infrastructure le supporte.

4. Des rétentions qu'on ne peut pas raccourcir à la main

Les durées de rétention sont définies dans le director et "scellées" au moment de l'écriture sur un volume immuable. Une fois qu'un volume a été écrit sur une bande WORM ou dans un bucket Object Lock actif, il n'existe aucune console Bacula ni aucun client de base de données qui puisse réduire cette rétention. Ce volume va exister jusqu'à son expiration, point final. C'est exactement ce qui protège votre sauvegarde contre un insider malveillant ou un attaquant avec des identifiants valides.

5. Un plan de reprise écrit et réellement testé

Une sauvegarde qu'on ne restaure jamais n'existe pas. Bacula rend la partie restore plutôt agréable à opérer, mais répéter l'exercice sérieusement — avec des minutages, des responsables, des points de décision — c'est le travail de l'équipe. Chez SIXE, nous l'intégrons au Plan de Rétablissement en cas de Catastrophe du client, avec des exercices programmés au moins deux fois par an. Il n'y a pas de raccourci sur ce point.

Là où la plupart des projets s'arrêtent

Ces cinq points sont exactement l'endroit où quasiment tous les projets Bacula qu'on nous demande d'auditer se sont arrêtés à mi-chemin. Rien de tout ça n'est activé par défaut — ce sont des décisions d'ingénierie qui dépendent de votre infrastructure concrète, de votre cadre réglementaire, du nombre de personnes qui touchent à la sauvegarde, de votre budget. Quand SIXE entre dans un projet Bacula, c'est littéralement ce que nous faisons. Et c'est généralement la partie qui apporte le plus de valeur, bien plus que l'installation du paquet en elle-même.

La migration

Migrer depuis Veeam ou Veritas sans perdre un seul octet

L'objection qu'on nous fait lors du premier appel est presque toujours mot pour mot la même : "on a sept ans d'historique dans Veeam, on ne peut pas se permettre de le perdre". Et ils ont entièrement raison. Dans la banque, la santé, l'administration publique, ou tout environnement régi par le RGPD, ISO 27001, NIS2 ou des référentiels sectoriels, la rétention longue n'est pas une préférence — c'est une obligation légale. La bonne nouvelle, c'est qu'il n'y a aucune raison technique de perdre quoi que ce soit. Il suffit de concevoir la migration calmement.

Chez SIXE, nous procédons en trois phases :

  1. Fenêtre de coexistence. On laisse l'ancien système tourner à pleine puissance, faisant ses sauvegardes quotidiennes comme avant. Bacula commence à protéger en parallèle. Pendant quelques semaines, vous avez une couverture double et un risque nul. Ça rassure aussi pas mal les équipes sécurité qui fronçaient les sourcils au départ.
  2. Des restores réels avant d'éteindre quoi que ce soit. C'est ici qu'on gagne ou qu'on perd une migration. On ne fait pas le classique test de restore sur une VM témoin — on restaure des charges qui feraient vraiment mal si elles échouaient. Une base de données critique. Un serveur de fichiers sous contrainte réglementaire. Quand ces restores valident que la conception de Bacula couvre bien le scénario, on passe à la phase suivante. Pas avant.
  3. Archive historique en lecture seule. L'historique de l'ancien système n'est pas touché. Il reste accessible aussi longtemps que votre politique de rétention l'exige, en lecture seule, comme une archive vivante. Si on vous demande un fichier de 2023 l'année prochaine, il est toujours là. Et Bacula s'occupe de tout ce qui est nouveau en parallèle.

C'est honnêtement l'un des services qu'on nous demande le plus en ce moment. Le cocktail est parfait : les hausses de prix propriétaires qui s'enchaînent chaque année, la pression nouvelle autour de la sauvegarde immuable, et la prise de conscience progressive que la sauvegarde était dans la pile "risque non traité" depuis bien trop longtemps. Si vous voulez voir le détail complet du service — SLAs, cas d'usage, exemples sectoriels — tout est là : Support technique et migration vers Bacula.

Prochaines étapes

Par où commencer dès aujourd'hui

Si vous êtes arrivé jusqu'ici et que vous vous dites "il faudrait vraiment qu'on regarde notre sauvegarde de plus près", vous avez sans doute raison. Pas besoin de lancer un gros projet pour faire le premier pas. Honnêtement, ce qui est le plus utile, c'est généralement un audit court qui répond honnêtement à trois questions :

  • Est-ce que mes sauvegardes sont vraiment immuables ? Si un attaquant avait des identifiants d'admin sur mon réseau maintenant, pourrait-il les détruire ?
  • Sont-elles vérifiées automatiquement ? Ou est-ce que je ne saurai qu'elles sont corrompues que le jour où j'en aurai vraiment besoin ?
  • Combien est-ce que je paie par To protégé par an, et à quoi ressemblera cette facture dans trois ans ?

Vous pouvez répondre aux trois avec votre équipe actuelle, sans appeler personne. Et si l'une des réponses vous met mal à l'aise, parlons-en. Sans commercial, sans slides, directement avec quelqu'un de l'équipe technique qui a déjà mis les mains dans des projets comme le vôtre.

Pour aller plus loin


Votre sauvegarde tiendrait-elle aujourd'hui ?

Regardons votre architecture de sauvegarde ensemble

Sans commerciaux, sans présentations génériques, sans engagement. Un appel technique avec quelqu'un de l'équipe SIXE pour voir où vous en êtes et ce qui vaut vraiment la peine d'être touché. Si Bacula colle, nous vous le dirons. Sinon aussi.

SIXE