Stockage open source pour l’IA et le HPC : quand Ceph cesse d’être une alternative et devient la seule voie viable.

Lorsque le CERN doit stocker et traiter les données du Grand collisionneur de hadrons (LHC, l’accélérateur de particules le plus grand et le plus puissant du monde), l’échelle compte. À ce niveau, la technologie et l’économie convergent vers une conclusion claire : les technologies open source telles que Ceph, EOS et Lustre ne sont pas une “alternative” aux solutions d’entreprise traditionnelles ; dans de nombreux scénarios, elles constituent la seule voie viable.

Avec plus de 1 exaoctet de stockage sur disque, 7 milliards de fichiers y 45 pétaoctets par semaine traités lors des campagnes de collecte de données, le plus grand laboratoire de physique des particules du monde évolue dans un domaine où les modèles classiques de licence de capacité n’ont plus de sens économique.

Cette réalité, documentée dans le document présenté à CHEP 2025, “Ceph at CERN in the multi-datacentre era”, reflète ce que de plus en plus d’universités et de centres de recherche réalisent : il existe des cas d’utilisation où l’open source ne rivalise pas avec les solutions d’entreprise.Ceph reflète ce que de plus en plus d’universités et de centres de recherche réalisent : il existe des cas d’utilisation où l’open source n’est pas en concurrence avec les solutions d’entreprise, il définit sa propre catégorieIl définit sa propre catégorie, pour laquelle les architectures traditionnelles n’ont tout simplement pas été conçues.

stockage open source cern

CERN : des chiffres qui changent les règles

Les chiffres du CERN ne sont pas seulement impressionnants, ils expliquent pourquoi certaines technologies sont choisies :

  • >1 exaoctet de stockage sur disque, réparti sur ~2 000 serveurs avec 60 000 disques.

  • >4 exaoctets de transferts annuels.

  • Jusqu’à 45 PB/semaine et débit soutenu >10 Go/s débit soutenu pendant les périodes de collecte de données.

L’architecture est hétérogène par nécessité:

  • EOS pour les fichiers de physique (plus de 1 EB).

  • CTA (CERN Tape Archive) pour l’archivage à long terme.

  • Ceph (plus de 60 PB) pour les blocs, les objets S3 et CephFS, colonne vertébrale de OpenStack.

Ce qui compte, ce n’est pas seulement le volume, mais aussi la trajectoire. En une décennie, ils sont passés de quelques pétaoctets à des exaoctets. sans saut architectural perturbateurajout de nœuds marchandise horizontalement. Cette élasticité n’existe pas dans le cabines propriétaires avec des licences de capacité.

L’économie de l’exaoctet : là où les modèles de capacité échouent.

Les modèles de licence actuels sur le marché des entreprises sont raisonnables pour des environnements typiques (dizaines ou centaines de téraoctets, croissance prévisible, CapEx et OpEx équilibrés). Ils fournissent une intégration, une assistance 24×7, des certifications et un écosystème de partenaires. Mais à à l’échelle du pétaoctet ou de l’exaoctet avec une croissance rapide, l’équation change.

  • Au SIXE nous sommes partenaire principal d’IBMet nous avons évolué vers des licences basées sur la capacité.

    • IBM Spectrum Virtualize utilise Unités de capacité de stockage (SCU)~1 TB par SCU. Le coût annuel par SCU peut varier de 445 y 2.000 €en fonction du volume, du profil des clients et des conditions environnementales.

    • IBM Storage Defender utilise les unités de ressources (RU). Par exemple , IBM Storage Protect consomme 17 RUs/TB pour les 100 premiers To et 15 UR/TB pour les 250 To suivants, ce qui permet de combiner les capacités de résilience sous une licence unifiée.

  • Des modèles similaires existent chez NetApp (licence de capacité à terme), Pure Storage, Dell Technologies et autres : payer pour une capacité gérée ou provisionnée.

Tout cela fonctionne dans les environnements d’entreprise conventionnels. Cependant, gérer 60 PB dans le cadre d’une licence par capacité, même avec des remises importantes sur le volume, peut se traduire par des millions d’euros par an rien qu’en logiciels. des millions d’euros par an rien qu’en logicielssans compter le matériel, l’assistance ou les services. À ce moment-là, la question n’est plus de savoir si l’open source est “viable”, mais s’il est “viable”. Existe-t-il une alternative réaliste pour ces échelles.

Capacités techniques : une source ouverte mature

L’avantage économique ne s’appliquerait pas si la technologie était inférieure. Ce n’est pas le cas. Pour certaines charges d’IA et de HPC, les capacités sont équivalent ou supérieur:

  • Ceph offre une virtualisation unifiée du stockage avec provisionnement fin, compression à BlueStore, instantanés y Clones COW sans pénalité significative, réplication multi-sites (RGW et RBD), et étagement entre les médias, et si tu veux que ton équipe comprenne comment tirer le meilleur parti de Ceph, nous avons…

  • Documents du CERN stratégies multi-centres de données stratégies pour la continuité des activités et la reprise après sinistre en utilisant grappes extensibles y la réplication multisiteavec RPO/RTO comparables aux solutions d’entreprise.

IBM reconnaît cette maturité avec IBM Storage Ceph (un dérivé de Red Hat Ceph Storage), qui combine la technologie open source technologie open source avec support, certifications et accords de niveau de service au niveau de l’entreprise. Au SIXEen tant que IBM Premier Partnernous implémentons IBM Storage Ceph lorsqu’un soutien commercial est nécessaire et également Ceph en amont lorsque la flexibilité et l’indépendance sont une priorité.

Différence clé dans l’architecture:

  • IBM Spectrum Virtualize est une couche d’entreprise qui qui gère le stockage hétérogène de blocIl offre des fonctions de mobilité, de réplication et d’automatisation avancées.

  • Ceph est un système distribué natif qui sert blocs, objets et fichiers à partir de la même infrastructure horizontaleéliminer les silos. Au pipelines pipelines – objets pour les ensembles de données, blocs pour les métadonnées, partage de fichiers pour la collaboration – cette unification apporte des avantages opérationnels clairs. des avantages opérationnels évidents.

Illustration numérique conceptuelle symbolisant une technologie de stockage open source mature. Trois flux de données distincts (de couleurs subtilement différentes) convergent vers une seule structure lumineuse, symbolisant l'intégration et l'évolutivité. L'environnement évoque un centre de données moderne avec un éclairage doux bleu et blanc, une géométrie épurée et un sentiment de précision et de fiabilité.

IA et HPC à grande échelle : là où le distribué brille.

Les charges d’entraînement formation de formation des modèles fondamentaux lisent des pétaoctets en parallèleavec des bandes passantes globales de 100 Go/s ou plus. Les l’inférence nécessite des temps de latence inférieurs à 10 ms avec des milliers de demandes simultanées.

Architectures traditionnelles avec contrôleurs SAN contrôleurs souffrent de goulots d’étranglement lorsque des centaines de GPUS (A100, H100…) accèdent aux données en même temps. On estime qu’environ 33 % des GPU dans les environnements d’IA des entreprises fonctionnent à moins de 15 % d’utilisation en raison d’une saturation du stockagesaturation, coût actifs sous-utilisés.

Architectures distribuées architecturesCeph, Lustre, BeeGFS– sont nés pour ces modèles :

  • Éclat stimule 7 des 10 superordinateurs dans le Top500supercalculateurs, avec >1 TB/s dans les grandes installations. Frontier (ORNL) utilise ~700 PB dans Lustre et écrit >35 TB/s soutenu.

  • BeeGFS fait évoluer le stockage et les métadonnées de manière indépendante indépendantdépassant 50 Go/s soutenu avec des dizaines de milliers de clients en production.

  • MinIOoptimisé pour les objets dans l’IA, a démontré >2,2 TiB/s en lecture lors de la formation, ce qui est difficile à égaler pour les architectures centralisées.

Intégration avec GPU a également évolué : GPUDirect Storage permet aux GPU de lire les données des NVMe-oF sans passer par l’unité centrale, ce qui réduit la latence et libère des cycles. Les systèmes open source modernes prennent en charge ces protocoles. nativementdans des solutions propriétaires, ils s’appuient souvent sur des firmware y certifications qui prennent des trimestres à arriver.

SIXE : source ouverte durable, avec ou sans soutien commercial

Migrer vers un système de stockage open source à grande échelle n’est pas trivial. Les systèmes distribués nécessitent expérience spécifique.

Sur SIXE nous sommes plus de 20 ans avec Linux y source ouverte. Comme Partenaire principal d’IBMnous offrons le meilleur des deux mondes:

  • IBM Storage Ceph e IBM Storage Scale (anciennement Spectrum Scale/GPFS) pour ceux qui ont besoin de des accords de niveau de service (SLA) garantis, certifications y une assistance mondiale 24×7.

  • Ceph en amont (et technologies connexes) pour les organisations qui préfèrent un maximum de flexibilité et de contrôle.

Il ne s’agit pas d’une position contradictoire, mais d’une stratégiqueDes profils différents, des besoins différents. A banque multinationale valeurs les certifications et le soutien aux entreprises. A centre de recherche doté d’un solide équipement technique, peut opérer en amont directement.

Nos Nos formations intensives sur Ceph Les ateliers sont ateliers de trois joursateliers : des clusters réels sont déployés et les décisions de conception sont expliquées. décisions de conception. Le transfert de connaissances réduit la dépendance à l’égard des consultants et des habiliter à l’équipe interne. Si ton équipe a encore peu d’expérience avec Ceph, clique ici pour voir notre cours pour débutants, si par contre tu veux tirer le maximum de Ceph, nous te laissons ici le cours Ceph avancé, où ton équipe pourra intégrer deux facteurs technologiques cruciaux à l’heure actuelle : Stockage + IA.

 

Notre philosophieNous ne vendons pas de technologie, nous transférons des capacités. Nous mettons en œuvre IBM Storage Ceph avec une assistance complète, Ceph en amont avec notre système de sauvegarde spécialisé ou Ceph en aval. les approches hybridesau cas par cas.

L’opportunité de la science et du big data

Plusieurs facteurs s’alignent :

  • Les données augmentent de façon exponentielle: a NovaSeq X Plus peut générer 16 TO par cycle ; le télescope télescope SKA produira exaoctets par an; les modèles d’IA exigent ensembles de données données.

  • Les budgets ne se développent pas au même rythme. Lla modèles de licences de capacité rendent irréalisables de faire évoluer les systèmes propriétaires au rythme requis.

Les solutions open source, qu’elles soient en amont o soutenues par le commerce (ex, IBM Storage Ceph), élimine cette dichotomie : la croissance est planifiée en fonction du coût du matériel. le coût du matériel y la capacité opérationnelleavec logiciel dont les coûts ne sont pas linéaires par téraoctet.

Des centres tels que Fermilab, DESYle CERN ou le Barcelona Supercomputing Center ont démontré que cette approche est techniquement possible y supérieure sur le plan opérationnel pour leurs cas. Dans son récent document, le CERN détaille multi-centres de données pour DR avec Ceph (stretch et multisite), atteignant une disponibilité comparable aux solutions d’entreprise, avec flexibilité et un contrôle total.

Un écosystème qui arrive à maturité : planifie dès maintenant

L’écosystème de stockage open source pour HPC e AI évolue rapidement :

  • Fondation Ceph (Fondation Linux) coordonne les contributions du CERN, Bloomberg, DigitalOcean, OVH, IBMentre autres, alignés sur les besoins réels de production.

  • IBM maintient IBM Storage Ceph en tant que produit pris en charge et contribue activement en amont.

C’est la confluence idéale de l’innovation open source y le soutien aux entreprises. Pour les organisations ayant un horizon de décenniesdécennies, la question n’est plus de savoir si adopter l’open source, mais quand et comment le faire de façon manière structurée.

La technologie est matureLa technologie est mature, des exemples de réussite sont documentées et le soutien existe à la fois en mode communautaire et commercial. Ce qui manque souvent, c’est la l’expertise pour établir la feuille de route : modèle (en amont, commercial ou hybride), dimensionnement, formation y fonctionnement durable.

SIXE : ton partenaire vers un stockage qui grandit avec toi

Sur SIXE nous travaillons à cette intersection. Comme Partenaire principal d’IBMnous avons accès à une assistance de classe mondiale, feuilles de route y certifications. En même temps, nous maintenons une expertise approfondie en amont et d’autres technologies de l’écosystème, parce qu’il n’y a pas de il n’y a pas de solution universelle n’est pas une solution unique.

Lorsqu’un centre nous contacte, nous ne commençons pas par le cataloguemais par les questions clés:

  • Quels sont tes modèles d’accès?

  • Ce que croissance prévois-tu ?

  • Quelles sont les capacités ton équipe dispose-t-elle de capacités ?

  • Quels sont les risques peux-tu prendre ?

  • Ce que budget gères-tu (CapEx/OpEx) ?

Les réponses orientent la recommandation : IBM Storage Ceph avec le support de l’entreprise, en amont avec notre support, un hybride, ou même évaluer si une solution traditionnelle a encore du sens dans ton cas. Nous concevons des solutions qui fonctionnent pendant 5 et 10 ans, l’important pour nous est de créer des solutions durables et pérennes ;).

Nous nous engageons à des technologies durablesdes technologies qui ne sont pas soumises aux fluctuations commerciales, qui donnent contrôle de l’infrastructure et de l’échelle techniquement et économiquement.

Le cas du CERN Le cas du CERN n’est pas une curiosité académique : il montre où va le stockage des charges utiles à forte intensité de données. charges de données intensives. La question n’est pas de savoir si ton organisation y parviendra, mais si elle y parviendra tout court. comment arriveront : préparé o en route. La fenêtre d’opportunité de planifier calmement est ouverte. ouverte. Lla succès existent. Les technologie est prêt. Les écosystème également. Il reste à prendre le décision stratégique d’investir dans une infrastructure qui accompagnera ton organisation pendant des décennies. décennies de croissance des données.

Voulez-vous parler?

Ton organisation génère-t-elle des volumes massifs de données pour l’ L’IA o recherche? A SIXE Nous aidons les instituts de recherche, les universités et les organisations innovantes à concevoir, mettre en oeuvre et exploiter stockage modulable avec Ceph, Échelle de stockage et d’autres technologies de pointe, à la fois en amont comme pour Soutien commercial d’IBMselon tes besoins. Contacte-nous à pour un consultation stratégique sans obligation.

Références

Rendez-vous à Common Iberia 2025 !

L’équipe de SIXE y participera dans le cadre de Common Iberia 2025. Nous serons de retour à Madrid les 13 et 14 novembre pour l’événement de référence de l’écosystème IBM i, AIX et Power. Deux jours dédiés aux derniers développements de la technologie Power, de l’annonce de Power 11 aux cas d’utilisation réels de l’IA, avec des experts internationaux, des champions IBM et des leaders de la communauté.

Affiche commune Iberia 2025Clique sur l’image pour accéder au formulaire d’inscription à l’événement.

Nos sessions à Common Iberia Madrid :

Document Intelligence on IBM Power with Docling and Granite
Découvre comment mettre en œuvre une intelligence documentaire avancée directement dans ton infrastructure Power.

 

Actualités et bonnes pratiques AIX 7.3 : performance, disponibilité et sécurité
Tout ce qu’il faut savoir sur les dernières fonctionnalités d’AIX 7.3 pour optimiser tes systèmes critiques.

 

Ubuntu on Power : conteneurs, AI, DB et autres merveilles 100 % open source
Explore les possibilités de l’écosystème open source sur les architectures Power.

Ubuntu à Power Common Iberia 2025

ILE RPG – Utilisation des services IBM i (SQL) et des fonctions SQL QSYS2
Apprends à tirer pleinement parti des services SQL natifs d’IBM i dans tes applications RPG.

Commun Iberia 2025

Outre la présentation du projet BOB (l’assistant de développement intégré d’IBM), l’événement comprend des sessions sur l’IA, la haute disponibilité, PowerVS, le développement moderne avec VS Code, et une discussion ouverte sur les cas d’utilisation de l’IA sur IBM i.


✅ Réserve taplace maintenant

Connectez-vous avec la communauté IBM Power, partagez vos réussites et découvrez les dernières innovations en matière de systèmes critiques – nous avons hâte de vous voir à Madrid !

Comment faire ton premier agent N8N AI gratuitement ?

Les automatismes sont à l’ordre du jour. Je suis sûr que tu as lu des milliers de nouvelles et que tu as utilisé chatgpt. Cependant, il existe un moyen d’en tirer le meilleur parti…. BEAUCOUP. Aujourd’hui, nous allons te montrer comment faire tes premiers pas. Nous allons te montrer comment créer ton premier agent intelligent avec n8n AI en partant de zéro, de manière totalement gratuite et sans te compliquer la vie. Si ton entreprise reçoit des questions répétitives par email, formulaires ou chat, ce tutoriel est fait pour toi.

Nous allons mettre en place un chatbot qui répond aux questions sur ton entreprise, collecte les données des clients lorsque c’est nécessaire, et vérifie également s’ils existent déjà dans ta base de données pour ne pas les dupliquer. Tout cela en utilisant n8n avec Ollama, des modèles d’IA locaux et Docker.

Qu’est-ce que le n8n, quel est son rapport avec l’IA et pourquoi peut-il être utile à mon entreprise ?

n8n est une plateforme d’automatisation open source (comme Zapier ou Make) qui te permet de connecter des applications, des bases de données, des API et, ce qui est le plus important pour nous aujourd’hui, des modèles d’intelligence artificielle.

Ce qui fait la particularité de n8n, c’est que tu peux créer des flux de travail visuels en faisant glisser des nœuds, sans avoir besoin d’être un crack en programmation. Et comme il s’agit d’une source ouverte, tu as un contrôle total sur tes données.

Les 3 façons d’utiliser n8n (et laquelle est la meilleure)

Avant d’entrer dans le vif du sujet, expliquons les options dont tu disposes pour travailler avec n8n :

1. n8n Cloud (l’option rapide)

La version cloud de n8n. Tu t’inscris, tu paies un abonnement mensuel et c’est tout. Aucune installation, aucune maintenance. Parfait si tu veux commencer tout de suite, mais il y a des limitations sur le plan gratuit et tes données sont sur des serveurs tiers. problème ? peut-être le prix ? prix n8n 2025

2. Localement sur ton ordinateur (ce que nous allons faire aujourd’hui).

Tu installes n8n sur ta machine locale à l’aide de Docker. C’est 100 % gratuit, idéal pour apprendre et tester. Le problème, c’est qu’il ne fonctionne que lorsque ton ordinateur est allumé. Si tu l’éteins, il n’y a plus de flux de travail.

3. VPS avec n8n (option la plus pratique et la plus efficace)

Tu loues un VPS (serveur privé virtuel) et tu y installes n8n. Ton agent AI sera disponible 24 heures sur 24, 7 jours sur 7, 365 jours par an. C’est l’option professionnelle si tu veux que ton entreprise fonctionne sans interruption. C’est l’option que nous recommandons et nous avons une bonne nouvelle : avec le code SIXE, tu peux obtenir une réduction sur ton VPS pour avoir n8n toujours disponible. Contacte-nous pour plus d’informations sur la façon de la mettre en place.

Aujourd’hui, nous allons utiliser l’option 2 (en local avec Docker) pour que tu puisses apprendre sans dépenser un euro. Ensuite, quand tu verras le potentiel, tu pourras facilement migrer vers un VPS.

Conditions préalables à l’utilisation locale de n8n

Avant de commencer, assure-toi que tu as :

  • Windows 10/11 (64-bit)
  • Nous te recommandons d’avoir au moins 8 Go de mémoire vive (nécessaire pour exécuter les modèles d’IA localement).
  • Désireux d’apprendre (c’est gratuit)

Étape 1 : Installer Docker

Docker Desktop est la façon la plus simple d’utiliser Docker sur Windows. Télécharge-le en
cliquant ici pour le télécharger.
. Pour vérifier que tu l’as bien installé, tape docker --version pour vérifier qu’il est prêt.

Si tu vois la version, c’est parfait ! Docker est prêt.

Étape 2 : installer n8n avec Docker Desktop

Maintenant vient la partie la plus facile. Avec une seule commande, tu auras n8n en marche.

Étapes :

  1. Ouvre PowerShell
  2. Exécute cette commande :
docker run -it --rm --name n8n -p 5678:5678 -v n8n_data:/home/node/.n8n n8nio/n8n

Que fait cette commande ?

  • docker run: exécute un conteneur
  • -itMode interactif (tu verras les journaux en temps réel)
  • --rmsupprime le conteneur en le fermant (ne t’inquiète pas, les données sont sauvegardées dans le volume).
  • --name n8nNom “n8n” pour le conteneur
  • -p 5678:5678: map port 5678 (tu y accèderas via http://localhost:5678)
  • -v n8n_data:/home/node/.n8nCrée un volume pour stocker tes flux de travail.
  1. Attends environ 30 à 60 secondes pendant le téléchargement de l’image à partir du n8n.
  2. Quand tu vois quelque chose comme Editor is now accessible via: http://localhost:5678/, tu l’as.
  3. Ouvre ton navigateur et va sur : http://localhost:5678
  4. Crée ton compte local :
    • Email : celui que tu veux (il est local, il n’est envoyé nulle part).
    • Mot de passe : ce que tu veux
    • Nom : ton nom ou le nom de ton entreprise

Nous avons déjà tout ce qu’il faut pour utiliser n8n ! En cas de doute, nous te recommandons de suivre le tutoriel officiel de n8n (clique ici pour le voir). Si tu comptes utiliser Ollama, comme dans notre cas, nous te recommandons d’utiliser le pack officiel qui inclut Ollama afin d’avoir tout dans le même environnement. Clique ici pour n8n + ollama.

Étape 3 : Installer Ollama (ton modèle local d’IA)

Pour utiliser n8n AI, nous avons besoin d’un modèle de langue. Nous allons utiliser Ollama, qui fait tourner des modèles d’IA directement sur ton ordinateur, gratuitement et sans limites. C’est-à-dire que tu peux utiliser les ressources de ton ordinateur pour faire tourner des modèles d’IA.

Installe Ollama sur Windows :

  1. Télécharge Ollama en cliquant ici (officiel)
  2. Installer Ollama
  3. Vérifie l’installation :
    • Ouvre PowerShell
    • Il écrit : ollama --version
    • Tu devrais voir la version installée

Télécharge le modèle recommandé :

Nous allons utiliser Qwen2.5:1.5b, un modèle petit mais puissant, parfait pour les chatbots d’entreprise. Il est rapide et n’a pas besoin d’un superordinateur. Cependant, à partir d’ici, tu peux trouver des milliers de modèles à utiliser.

Dans le shell, exécute :

ollama pull qwen2.5:1.5b

Vérifie qu’il fonctionne :

ollama run qwen2.5:1.5b

Si tu obtiens une invite interactive où tu peux taper, cela fonctionne. Tape /bye pour quitter.

Il y a une chose importante à garder à l’esprit : selon ton modèle d’IA, les agents peuvent ou non utiliser des outils. Tu peux utiliser d’autres modèles tels que

Plus le modèle est grand, meilleure est la réponse, mais plus tu as besoin de mémoire vive. Cela se traduit par un temps de réponse.

 

Étape 4 : Configurer Ollama pour n8n

C’est ici qu’arrive une étape critique. Docker Desktop sur Windows a un petit “problème” de réseau que nous devons régler. Ollama s’exécute sur ton Windows, mais n8n se trouve à l’intérieur d’un conteneur Docker. Ils ont besoin de se parler l’un à l’autre.

La solution :

  1. Arrête n8n si tu l’as lancé (Ctrl + C dans PowerShell).
  2. Redémarre le n8n avec cette commande :
docker run -it --rm --name n8n -p 5678:5678 --add-host=host.docker.internal:host-gateway -v n8n_data:/home/node/.n8n n8nio/n8n

Le paramètre --add-host=host.docker.internal:host-gateway permet à n8n d’accéder à Ollama.

  1. Prends note de cette URL car tu en auras besoin : http://host.docker.internal:11434

C’est l’adresse que tu utiliseras pour connecter n8n à Ollama.

Étape 5 : Crée ton premier agent sur n8n

Comment vas-tu ? commençons à nous amuser un peu. Nous allons créer un chatbot qui :

  • Réponds à des questions sur ton entreprise en utilisant les informations d’un document.
  • Recueille les données des clients intéressés
  • Vérifie si le client existe déjà avant de l’enregistrer.
  • Alerte ton équipe lorsque quelqu’un a besoin d’une attention humaine.

Importe le flux de travail de base :

Chez SIXE, nous aimons te faciliter la tâche. Au lieu de tout créer à partir de zéro, nous te donnerons un modèle et le personnaliserons pour toi.

  1. Dans n8n, clique sur “Workflows” (menu supérieur).
  2. Clique sur le bouton “+ Ajouter un flux de travail” et sélectionne “Importer à partir d’un fichier”.
  3. Télécharge ici le modèle de tutoriel ia avec n8n de SIXE.
  4. Importe le fichier dans n8n (dans le flux de travail, il y a une icône supplémentaire, clique et importe depuis le fichier).

Configure le modèle d’intelligence artificielle (Ollama) :

  1. Dans le flux de travail, fais glisser un nouveau nœud depuis le panneau de gauche
  2. Recherche le “modèle de chat Ollama” et ajoute-le au canevas.
  3. Clique sur le nœud Ollama pour le configurer :
    • URL de base : http://host.docker.internal:11434
    • Modèle : qwen2.5:1.5b
    • Température : 0.7 (contrôle la créativité : 0 = très précis, 1 = très créatif)
  4. Connecte le nœud Ollama au nœud “AI Agent” :
    • Glisse à partir du point (inférieur) du nœud d’Ollama
    • Jusqu’au point du nœud de l’agent AI
    • Cela indique à l’agent d’utiliser Ollama comme cerveau.

Personnalise l’invite de l’agent :

L’invite est la personnalité de ton chatbot. Ici, tu lui dis ce qu’il fait, comment il parle et quelles sont les informations dont il dispose.

  1. Clique sur le nœud “AI Agent”.
  2. Dans “Message du système”, copie cette invite et personnalise-la :
Eres el asistente virtual oficial de "[TU EMPRESA]".

Tu función es ayudar a los usuarios que escriben al chatbot de la web, ofreciendo respuestas claras, útiles y verídicas.

? Reglas principales:
- Nunca inventes información
- Si no sabes algo, admítelo y ofrece derivar al equipo humano
- Sé profesional pero cercano

? Información sobre [TU EMPRESA]:
[Aquí describe tu negocio: qué hacéis, servicios, precios, horarios, etc.]

Ejemplo:
"Somos una agencia de automatización que ayuda a empresas a ahorrar tiempo usando herramientas como n8n, Airtable y Make. Nuestros servicios incluyen:
- Consultoría inicial (gratis)
- Implementación de automatizaciones (desde 500€)
- Formación para equipos (200€/persona)
Horario: L-V de 9h a 18h"

? Si detectas interés en contratar:
Pregunta educadamente:
- Nombre
- Email
- Teléfono (opcional)
- Qué necesita específicamente

Una vez tengas estos datos, los guardarás automáticamente.

? Si no puedes ayudar:
Ofrece derivar al equipo humano y contacto por WhatsApp.

Ajoute de la mémoire au chatbot :

Pour que le chatbot se souvienne de la conversation (et ne répète pas les questions), il a besoin de mémoire.

  1. Clique sur le nœud “AI Agent”.
  2. Cherche la section “Mémoire” dans les options de l’agent.
  3. Ajoute un nœud de mémoire (une simple mémoire qui se souvient des derniers messages, avec 5, qui est le nombre de messages par défaut, devrait suffire).

Tu as déjà un chatbot fonctionnel. Mais ajoutons-y un peu plus de piment.

Étape 6 : Ajouter des connaissances et des outils à l’agent

Les outils sont comme des applis que l’agent peut utiliser quand il en a besoin. Ajoutons ceux qui sont essentiels. Pour commencer à créer, clique sur ajouter un outil à l’agent.

Outil 1 : Google Docs (base de connaissances)

Au lieu de mettre toutes les infos dans l’invite (qui a une limite), nous utiliserons un Google Doc comme base de connaissances.

  1. Crée un Google Doc avec autant d’informations que possible sur ton entreprise.
Pregunta: ¿Cuánto cuestan vuestros servicios?
Respuesta: Nuestro servicio básico cuesta X€, el premium Y€...

Pregunta: ¿Cuánto tarda un proyecto?
Respuesta: Entre 2-4 semanas dependiendo de la complejidad...

[Añade todas las preguntas frecuentes, horario, contacto etc]
  1. Dans n8n, fais glisser le nœud “Outil Google Docs”.
  2. Connecte ton compte Google. Cette étape est un peu lourde si tu n’as pas d’expérience mais nous te promettons de te guider le plus facilement possible.
    1. Connecte-toi à Google Cloud Console
    2. Crée un projet si tu n’en as pas.
    3. Va dans APIs and services et sous credentials configure l’écran de consentement.
      Connecter Google Sheets, Docs et Drive à N8N
    4. Une fois que tu as fait cela, ajoute le service google dont tu as besoin. Dans notre cas, il s’agit de google docs. Google Docs API avec n8n
    5. Nous retournons dans APIs/credentials et créons un client OAuth. Ici, la chose la plus importante est de donner des permissions et dans “URL des redirections autorisées”, nous mettrons l’URL que n8n nous donne. Connecter n8n à Google Docs
    6. Copie l’identifiant du client et le secret et mets-les dans n8n.
  3. Sélectionne le document que tu as créé
  4. Connecte le nœud à l’agent AI

Maintenant, le chatbot peut consulter ce document lorsque quelqu’un pose une question. N’oublie pas qu’il est important d’indiquer à l’agent quand utiliser chaque outil dans “Message système” de la configuration de l’agent.

Outil 2 : Trouver un contact (Airtable)

Avant d’enregistrer un client, tu dois voir s’il existe déjà. Nous allons utiliser Airtable comme un simple système de gestion de la relation client. Crée un nouvel outil et rattache-le à l’agent.

Préparation dans Airtable :

  1. Crée un compte gratuit sur airtable.com
  2. Crée une nouvelle base appelée “CRM”.
  3. Crée un tableau “Contacts” avec ces colonnes :
    • Nom (texte)
    • Courriel (email)
    • Téléphone (téléphone)
    • Date du contact (date)

Dans n8n :

  1. Fais glisser le nœud “Airtable Tool”.
  2. Configure :
    • Opération : “Recherche”.
    • Base : [ta base CRM].
    • Tableau : Contacts
    • Active “From AI” dans la formule du filtre

Cela permet à l’agent de rechercher si un courriel existe déjà.

Outil 3 : Enregistrer/mettre à jour un contact (Airtable)

Si le contact n’existe pas, nous l’enregistrons. S’il existe, nous le mettons à jour uniquement s’il y a de nouvelles données. Là encore, nous ajoutons un nouvel outil.

  1. Fais glisser un autre nœud “Airtable Tool”.
  2. Configure :
    • Opération : “Créer ou mettre à jour” (Upsert)
    • Base : [ta base CRM].
    • Tableau : Contacts
    • Colonne correspondante : Courriel
    • Active l’option “From AI” dans tous les champs.

L’agent peut désormais enregistrer automatiquement les contacts sans les dupliquer.

Outil 4 : alerter l’équipe via Slack ou Telegram.

Lorsque quelqu’un a besoin de l’attention d’un humain, le chatbot peut l’alerter via Slack/Telegram.

  1. Fais glisser le nœud “Outil Slack” (ou Telegram si tu préfères).
  2. Connecte ton compte Slack
  3. Sélectionne la chaîne sur laquelle tu souhaites recevoir des notifications
  4. À la demande de l’agent, il ajoute :
Si el usuario pide hablar con una persona o su caso es complejo, usa la herramienta de Slack para avisar al equipo con:
- Nombre del usuario
- Email o teléfono
- Resumen breve del problema

Étape 7 : activer et tester le chatbot

Tout est prêt ! Il est temps de l’essayer.

  1. Essaie le chatbot :
    • Clique sur “Tester le flux de travail”.
    • Ecris : “Bonjour, quels sont les services que tu proposes” ?
    • Vérifie comment il réagit à l’aide de l’info Google Doc.
  2. Essaie d’enregistrer un contact :
    • Ecris : “Je suis intéressé, je suis Juan Pérez, mon email est juan@ejemplo.com”.
    • Le chatbot doit enregistrer le contact dans Airtable
    • Vérifie-le sur ton tableau Airtable
  3. Essaie un double :
    • Ecris : “Je suis à nouveau John Smith, mon téléphone est 666777888”.
    • Le chatbot doit mettre à jour l’enregistrement existant, et non en créer un nouveau.

Étape 8 : Intégrer à ton site Web

Le chatbot fonctionne déjà, mais il est en… localhost. Pour l’utiliser sur ton site Internet, tu as besoin de deux choses :

Option A : Migrer vers un VPS (recommandé)

Comme tu le sais, nous travaillons avec Krystal, qui propose des VPS sur mesure et qui s’engagent pour l’environnement :). Tu peux aussi profiter d’une réduction avec le code “SIXE”. Avec un VPS, ton chatbot sera disponible 24 heures sur 24 et 7 jours sur 7. n8n offre la possibilité de l’intégrer à ton site web, c’est donc parfait.

Si tu veux apprendre à le faire avec des instructeurs, le configurer correctement avec HTTPS, un domaine personnalisé et tout ce qui est prêt pour la production…. Nous proposons un cours de base et un cours avancé en n8n.

Option B : Utiliser ngrok (temporaire, uniquement pour les tests)

Si tu veux déjà essayer ngrok sur ton site web sans VPS :

ngrok http 5678
  • Copie l’URL qu’il te donne (tape https://xyz.ngrok.io)
  • Utilise cette URL à la place de localhost sur ton site web

Important : L’URL de ngrok change chaque fois que tu le redémarres. Elle n’est pas destinée à la production.

n8n est synonyme de liberté grâce à l’IA

Et c’est tout. Tu as ton premier agent n8n IA qui fonctionne localement avec Ollama. En production, nous recommandons OpenAI, en particulier gpt-4o-mini en raison de son prix et de ses bonnes performances. Il est maintenant temps d’expérimenter. Essaie d’autres modèles, ajuste les invites, ajoute d’autres outils.

Des doutes ? Tu veux que nous te formions, toi ou ton équipe, à la mise en place de n8n et d’ agents IA en production ? Écris-nous.

Et si tu as apprécié l’article, partage-le avec d’autres personnes qui cherchent à automatiser avec l’IA sans dépenser beaucoup d’argent.

 

Ressources supplémentaires :

Comment implémenter NFS avec haute disponibilité dans Ceph à l’aide de Ganesha-NFS

Introduction à Ceph et Ceph-Ganesha

Ceph-Ganesha, un outil NFS intégré à CEPH avec de puissantes fonctions d’orchestration qui permettent une haute disponibilité et une gestion dynamique sur un cluster Ceph à plusieurs nœuds. Nous nous concentrerons sur la simplicité déclarative de son déploiement et sur la démonstration de ses capacités de haute disponibilité.

 

Ceph est une plateforme de stockage open-source définie par logiciel qui offre un stockage d’objets, de blocs et de fichiers hautement évolutif à partir d’un cluster unifié. À la base, l’architecture de Ceph repose sur un réseau distribué de nœuds indépendants. Les données sont stockées à travers des OSD (Object Storage Daemons), gérées par des Monitors et orchestrées par des Managers.

 

L’architecture Ceph expliquée

Le système de fichiers Ceph (CephFS) est un système de fichiers conforme à POSIX qui s’appuie sur cette infrastructure, fournissant un espace de noms distribué et tolérant aux pannes. Pour un administrateur système, Ceph offre une excellente alternative aux baies de stockage traditionnelles en fournissant une plateforme unique et résiliente qui peut croître de façon linéaire avec l’ajout de matériel de base.

 

Ses capacités d’autoréparation et d’ autogestion sont des avantages clés, qui réduisent les frais généraux opérationnels généralement associés au stockage à l’échelle du pétaoctet.

 

Qu’est-ce que NFS Ganesha dans Ceph ?

NFS Ganesha est un serveur NFS open-source qui agit comme une passerelle de l’espace utilisateur, une distinction essentielle par rapport aux serveurs NFS conventionnels qui résident dans le noyau du système d’exploitation. Ce choix de conception fondamental offre un environnement de service plus robuste et plus stable. Un bogue dans un démon de l’espace utilisateur est beaucoup moins susceptible de provoquer une défaillance catastrophique du système, un avantage crucial pour un point de terminaison de service essentiel. L’architecture de Ganesha est également conçue pour une compatibilité maximale, prenant en charge une gamme complète de protocoles NFS, de NFSv3 à NFSv4.2, ce qui lui permet de répondre aux besoins d’une clientèle diversifiée.

 

Le véritable génie de Ganesha réside dans sa couche d’abstraction du système de fichiers, ou FSAL. Cette architecture modulaire découple la logique du protocole NFS du stockage sous-jacent. Pour un environnement Ceph, le module FSAL_CEPH est la clé, permettant à Ganesha d’agir comme un client Ceph sophistiqué. Cela signifie que les administrateurs peuvent fournir une interface NFS cohérente aux clients tout en bénéficiant de toute la puissance et de l’évolutivité du cluster Ceph, le tout sans exposer directement l’infrastructure Ceph sous-jacente. Si vous souhaitez approfondir vos connaissances sur ces technologies, nous proposons un cours intensif à Ceph.

Un centre de données moderne rempli de nœuds de stockage Ceph incandescents connectés dans un cluster résilient. Au centre, une sympathique divinité Ganesha de style dessin animé est assise à une console à plusieurs bras gérant les exportations NFS, les câbles et les serveurs. Une main tient un câble réseau, une autre un ordinateur portable, une autre un logo Ceph lumineux, symbolisant la haute disponibilité et l'orchestration.

Intégration de Cephadm : Déploiement déclaratif de Ceph-Ganesha

L’intégration de Ganesha à l’orchestrateur Ceph (cephadm) fait passer son déploiement d’une tâche manuelle et spécifique à l’hôte à une opération élégante à l’échelle du cluster. Ce partenariat permet une approche déclarative de la gestion des services, où une seule commande peut gérer l’ensemble du cycle de vie du service Ganesha.

 

Pour tout service critique, la première préoccupation d’un administrateur système est d’assurer la continuité de l’activité. Les temps d’arrêt non planifiés peuvent entraîner une perte importante de données, une perte de productivité et une atteinte à la réputation. La haute disponibilité (HA) est le principe architectural qui répond à cette préoccupation en éliminant les points de défaillance uniques. Pour un service NFS, cela signifie que si un nœud de serveur tombe en panne, un autre nœud peut prendre le relais en toute transparence. Cela permet aux administrateurs d’avoir l’esprit tranquille et de planifier la maintenance sans que l’utilisateur final n’en soit affecté. Pour Ceph, sa nature distribuée inhérente est le complément parfait d’un service NFS HA, car le stockage sous-jacent est déjà résilient aux défaillances des nœuds. Ces scénarios sont abordés en détail dans notre cours avancé sur Ceph, où nous traitons étape par étape l’orchestration avec cephadm et les configurations HA.

 

Préparer le stockage CephFS pour Ganesha

Un déploiement réussi de Ganesha commence par la préparation du stockage CephFS sous-jacent. Un administrateur chevronné provisionnera les pools nécessaires pour héberger les données et les métadonnées du système de fichiers, préparant ainsi le terrain pour le service à déployer.

 

Créer un pool dédié pour les données NFS Ganesha avec l’autoscaling activé

# sudo ceph osd pool create ganeshapool 32 32

# sudo ceph osd pool set ganeshapool pg_autoscale_mode on

 

Créer un pool de métadonnées, marqué comme bulk pour un comportement optimisé.

# sudo ceph osd pool create ganeshapool_metadata 16 16

# sudo ceph osd pool set ganeshapool_metadata bulk true

 

Lier les pools à un nouveau système de fichiers CephFS

# sudo ceph osd pool application enable ganeshapool cephfs

# sudo ceph osd pool application enable ganeshapool_metadata cephfs

# sudo ceph fs new ganeshafs ganeshapool_metadata ganeshapool

# ceph fs set ganeshafs max_mds 3

# ceph orch apply mds cephfs --placement="3 ceph-node1 ceph-node2"

Déployer le service Ceph NFS Ganesha

Les bases du stockage étant posées, le déploiement de Ganesha lui-même peut se faire soit avec des .yamls, soit avec de simples commandes CLI d’orchestration. La commande ceph orch apply est une instruction puissante pour l’orchestrateur, lui indiquant d’assurer l’état souhaité du service NFS. En spécifiant un nombre de placement et en listant les hôtes du cluster, l’administrateur s’assure qu’un démon Ganesha s’exécutera sur chaque nœud désigné, une étape critique pour un service résilient et hautement disponible.

 

Déploie le service Ganesha NFS sur les trois hôtes spécifiés.

 

# sudo ceph orch apply nfs myganeshanfs ganeshafs --placement="3 ceph-node1 ceph-node2 ceph-node3"

 

Cette simple commande lance un déploiement complexe et à multiples facettes. L’orchestrateur extrait les images de conteneurs nécessaires, configure les démons et les distribue sur les hôtes spécifiés. Cela contraste fortement avec les installations manuelles, hôte par hôte, et met en évidence la puissance de l’orchestration centralisée.

 

Capacités avancées : Exportations dynamiques et résilience des services

Une fois que le service Ganesha fonctionne, sa puissance se révèle encore davantage grâce à ses capacités de gestion dynamique des exportations. Au lieu d’éditer des fichiers de configuration statiques, un expert peut créer, modifier et supprimer des exportations NFS à la volée à l’aide d’une série de commandes simples. Cette fonction est inestimable dans les environnements dynamiques où les besoins de stockage changent rapidement.

 

Crée une nouvelle exportation pour rendre le système de fichiers CephFS accessible.

 

# sudo ceph nfs export create cephfs myganeshanfs /ganesha ganeshafs --path=/

La véritable valeur de ce déploiement distribué réside dans la résilience de ses services. L’orchestrateur Ceph surveille constamment la santé des démons Ganesha. Si un hôte tombe en panne, l’orchestrateur détecte automatiquement la perte et prend des mesures pour s’assurer que le service reste disponible. Ce processus de basculement automatisé offre un haut degré de transparence aux clients, faisant passer Ganesha d’une simple passerelle à un service véritablement à haute disponibilité. Son architecture est conçue pour résister aux perturbations, ce qui en fait un élément indispensable d’une stratégie de stockage robuste.

Exemple concret

Disons que nous avons un cluster avec 3 nœuds prêts pour ganesha, cela signifie que nous pouvons exporter avec succès les fs ceph sous-jacents du nœud 1 au nœud 2 et du nœud 2 au nœud 3, ou de la manière que nous voulons !

Conclusion : Pourquoi Ceph-Ganesha est essentiel pour le stockage moderne.

NFS Ganesha est plus qu’une simple passerelle ; c’est un composant essentiel pour l’intégration des services de fichiers traditionnels avec un stockage moderne et évolutif. En s’appuyant sur l’orchestration en ligne de commande de cephadm, les administrateurs peuvent déployer un service hautement disponible, résilient et gérable de façon dynamique. Le processus témoigne de la puissance de la gestion déclarative de l’infrastructure, en simplifiant ce qui serait autrement une tâche complexe. La conception architecturale de Ganesha, associée à la puissance de l’orchestrateur Ceph, en fait une solution parfaite pour répondre aux besoins de stockage exigeants des environnements hybrides d’aujourd’hui. C’est précisément pour cette raison que chez SIXE, nous proposons non seulement des formations sur Ceph, mais également une assistance spécialisée afin de garantir aux entreprises la stabilité de leurs infrastructures de production.

? ASSISTANCE technique pour CEPH

 

? Cours INTENSIF sur CEPH

 

? Cours AVANCÉ sur Ceph

Terraform + AWS : des états géants aux déploiements en 3 minutes

“Nous n’avons pas touché à notre infrastructure AWS depuis 3 mois de peur de casser quelque chose”. Cela te rappelle quelque chose ? La solution n’est pas de changer d’outil, c’est de changer de méthodologie.

Le mensonge que nous avons cru

Nous commençons tous de la même façon : “Nous allons faire Infrastructure as Code, ça va être génial”. Et effectivement, les premiers jours sont magiques. Tu crées ton premier VPC, tes groupes de sécurité, quelques instances…. Tout fonctionne. Tu te sens comme un magicien.

Puis vient la réalité.

Six mois plus tard, tu as des états géants, des modules couplés jusqu’à la gueule, et chaque changement est une roulette russe. Ça te rappelle quelque chose ?

  1. terraform plan → 20 minutes d’attente
  2. Plan de 400 lignes que personne ne comprend
  3. “Es-tu sûr de vouloir appliquer ceci ?”
  4. Trois heures de débogage parce que quelque chose s’est mal passé à la ligne 247.

Mais il y a un facteur que peu d’équipes prennent en compte…

Ce qui fonctionne vraiment (et pourquoi personne ne te le dit)

Après avoir sauvé des dizaines de projets Terraform, la formule est plus simple que tu ne le penses :

Petits États + modules intelligents + GitOps non effrayants.

États par couche (pas par projet)

Oublie “un État pour les gouverner tous”. Divise comme ceci :

terraform/
├── network/     # VPC, subnets, NAT gateways
├── data/        # RDS, ElastiCache  
├── compute/     # EKS, ECS, ASGs
└── apps/        # ALBs, Route53

Chaque couche évolue de manière indépendante. L’équipe chargée des données peut mettre à jour RDS sans toucher au réseau. Cela peut changer la donne.

L’astuce de l’état distant

La magie consiste à relier les couches sans les coupler :

data "terraform_remote_state" "network" {
  backend = "s3"
  config = {
    bucket = "company-terraform-states"
    key    = "network/terraform.tfstate"
  }
}

# Usar outputs de otra capa
subnet_id = data.terraform_remote_state.network.outputs.private_subnet_id

Modules sans maux de tête

Pour chaque type de charge de travail, un module spécifique :

  • secure-webapp/ – ALB + WAF + instances
  • microservice/ – Service EKS + entrée + surveillance
  • data-pipeline/ – Lambda + SQS + RDS avec sauvegardes

Pas de modules “universels” nécessitant 47 paramètres.

Le multi-cloud est là

C’est là que les choses deviennent intéressantes. De nombreuses équipes adoptent des stratégies hybrides : AWS pour les applications critiques, OpenStack pour le développement et les tests.

Pourquoi ? Coût et contrôle.

# Mismo módulo, diferente cloud
module "webapp" {
  source = "./modules/webapp"
  
  # En OpenStack para dev
  provider = openstack.dev
  instance_type = "m1.medium"
  
  # En AWS para prod  
  # provider = aws.prod
  # instance_type = "t3.medium"
}

L’avenir n’est pas “AWS ou rien”. C’est la flexibilité architecturale. Le pouvoir de choisir la solution que tu veux quand tu le veux et en fonction de ton budget.

OpenTofu change les règles du jeu

Avec les changements apportés à Terraform, OpenTofu devient le choix le plus judicieux. Même syntaxe, gouvernance open source, zéro enfermement dans un fournisseur.

L’avantage est brutal : tu peux migrer progressivement sans changer une seule ligne de code. Parfait pour les équipes qui veulent du contrôle sans drame.

La question que tu dois te poser

Ta dernière application de terraformation t’a-t-elle fait perdre des années de vie ?

Si la réponse est oui, le problème n’est pas technique. Il est d’ordre méthodologique.

Les équipes qui réussissent ne sont pas celles qui connaissent toutes les ressources sur AWS. Ce sont celles qui mettent en œuvre des méthodologies qui évoluent sans souffrir.

Reconnais-tu ces symptômes dans ton équipe ? La différence entre le succès et l’enfer réside dans l’application des bonnes techniques dès le départ.


Si tu veux approfondir ces méthodologies, nos cours Terraform/OpenTofu couvrent tout, des fondamentaux aux GitOps avancés avec des cas réels multi-cloud.

Ton serveur doit-il être remplacé ? Le droit à la réparation dit non

La nouvelle directive européenne sur le droit à la réparation met fin à l’un des mythes les plus coûteux du secteur informatique: le fait de passer à du matériel “plus efficace” est toujours plus durable. Le droit à la réparation rend les produits plus faciles et plus rapides à remettre à neuf. Et dans le monde de l’informatique, cela signifie qu’il faut complètement repenser notre relation avec le matériel.

Le mythe du “nouveau matériel est toujours meilleur”.

Depuis des années, nous entendons le même discours : “ce serveur a déjà 5 ans, il faut le remplacer”. Mais est-ce vraiment le cas, as-tu regardé sur le papier si cela vaut vraiment la peine de remplacer ce Power9 d’IBM juste parce qu’il n’est plus pris en charge ? Car tu pourrais bien avoir une surprise. La réalité est beaucoup plus complexe et surtout plus coûteuse qu’il n’y paraît.

Lorsque tu achètes un nouveau serveur, tu ne paies pas seulement le prix affiché. Tu paies :

  • L’empreinte carbone de sa fabrication
  • Transport depuis l’usine
  • Gestion des déchets de l’ancien équipement
  • Coûts de migration et de configuration
  • Temps de productivité perdu pendant la transition

À l’inverse, lorsque tu remets à neuf ton matériel existant, tu rentabilises un investissement déjà amorti et tu réduis drastiquement l’impact sur l’environnement.

Faisons des mathématiques vertes : les chiffres ne mentent pas

La nouvelle réglementation sur le droit à la réparation peut prolonger la durée de vie utile des produits jusqu’à 10 ans, ce qui, en termes informatiques, se traduit par :

Pourquoi ces chiffres sont-ils si favorables ? Parce que la phase de fabrication représente 70 à 85 % de l’empreinte carbone totale de tout équipement informatique. Faire fonctionner un serveur pendant 8 à 10 ans au lieu de 3 à 5 ans, c’est littéralement doubler son efficacité environnementale.

Droit à la réparation dans les technologies de l'information et les technologies durables

Au-delà du matériel : les logiciels comptent aussi

Le droit à la réparation en informatique ne se limite pas au matériel. Il comprend :

  • Support étendu pour les systèmes d’exploitation en dehors du cycle officiel. Chez SIXE, nous nous engageons à apporter un soutien en dehors du cycle de vie imposé et nous pouvons prolonger la durée de vie utile de Linux, AIX, Ceph et d’autres systèmes.
  • Maintenance indépendante de bases de données telles que DB2, Oracle ou Informix.
  • Mises à jour de la sécurité sans avoir à migrer l’ensemble de la plateforme.
  • Optimisation continue des performances au lieu de remplacements massifs

Le droit à la réparation : plus qu’une loi, plus qu’une philosophie.

“Mon fournisseur dit qu’il n’est pas sécurisé”.

Les fabricants ont des incitations commerciales évidentes à vendre du matériel neuf. Cependant, un serveur 2018 correctement entretenu peut être plus sûr qu’un nouveau serveur mal configuré.

“Aucune pièce de rechange n’est disponible”.

Avec les fournisseurs de maintenance indépendants, la disponibilité des pièces détachées s’étend sur des années au-delà de ce que proposent les fabricants d’origine.

“Les performances seront moindres”.

Un système optimisé vieux de 5 ans peut être plus performant qu’un système neuf sans configuration adéquate.

Notre engagement durable chez SIXE : le faire durer aussi longtemps que le matériel lui-même le permettra.

Chez SIXE, nous défendons cette philosophie depuis des années. Non pas parce que c’est une tendance, mais parce que les chiffres le prouvent : une approche basée sur la maintenance préventive, l’optimisation continue et la réutilisation intelligente des ressources génère un meilleur retour sur investissement que le cycle traditionnel achat-utilisation-récupération.

Notre engagement à “faire durer pour toujours” n’est pas du marketing. C’est de l’ingénierie appliquée avec des critères économiques et environnementaux.

Conclusion : l’avenir est circulaire, pas linéaire

Le droit de réparer en informatique n’est pas une imposition réglementaire. C’est l’ occasion de repenser la façon dont nous gérons la technologie des entreprises. Une approche où l’entretien, l’optimisation et la prolongation de la durée de vie des équipements sont non seulement plus écologiques, mais aussi plus rentables.

La question n’est pas de savoir si ton entreprise s’adaptera à cette réalité. La question est de savoir si elle le fera avant ou après tes concurrents.

Prêt à faire le saut vers une informatique plus durable et plus efficace ? Découvre nos services de technologie durable et commence à optimiser ton infrastructure dès aujourd’hui.

Et si ton système te pose des problèmes, nous pouvons évaluer son efficacité avant de le remplacer.

?Notre catalogue de conseils / services

Comment réparer l’erreur la plus courante dans Ceph ?

Ceph est une solution puissante et flexible pour le stockage distribué, mais comme tout outil complexe, il n’est pas exempt d’erreurs difficiles à diagnostiquer. Si tu obtiens le message “could not connect to ceph cluster despite configured monitors”, tu sais que quelque chose ne va pas avec ton cluster. Et non, ce n’est pas que les moniteurs sont endormis. Cette erreur est plus fréquente qu’il n’y paraît, surtout après des changements de réseau, des redémarrages ou lorsque quelqu’un a touché à la configuration “juste un peu”.

Dans cet article, nous allons droit au but : nous t’expliquons les vraies causes derrière ce problème et, plus important encore, comment le résoudre sans perdre tes données ou ta raison dans le processus.

Que signifie vraiment l’erreur “could not connect to ceph cluster despite configured monitors” ?

Lorsque Ceph te dit qu’il ne peut pas se connecter au cluster “malgré les moniteurs configurés”, ce qui se passe en réalité, c’est que le client ou le démon peut voir la configuration des moniteurs, mais ne peut établir de communication avec aucun d’entre eux. C’est comme être ghosting, tu as beau appeler, ils ne décrochent pas.

Les moniteurs Ceph sont les cerveaux du cluster : ils maintiennent la carte topologique, gèrent l’authentification et coordonnent l’état global. Sans connexion aux moniteurs, ton cluster Ceph n’est qu’un tas de disques coûteux sans aucune fonctionnalité.

Corriger les bogues de Ceph

Les 5 causes les plus courantes (et leurs solutions)

1. problèmes de réseau et de connectivité

La cause numéro un est généralement le réseau. Qu’il s’agisse de pare-feu mal configurés, de changements d’IP ou de problèmes de routage.

Diagnostic rapide :

# Verifica conectividad básica
telnet [IP_MONITOR] 6789
# o con netcat
nc -zv [IP_MONITOR] 6789

# Comprueba las rutas
ip route show

Solution :

  • Assure-toi que les ports 6789 (moniteur) et 3300 (msgr2) sont ouverts.
  • Vérifie qu’il n’y a pas de règles iptables qui bloquent la communication.
  • Si tu utilises firewalld, ouvre les services correspondants :
firewall-cmd --permanent --add-service=ceph-mon
firewall-cmd --reload

2. Monmap n’est plus à jour après les changements d’IP

Si tu as changé les IP des nœuds ou modifié la configuration du réseau, il est probable que la monmap (carte du moniteur) ne soit plus à jour.

Diagnostic :

# Revisa el monmap actual
ceph mon dump

# Compara con la configuración
cat /etc/ceph/ceph.conf | grep mon_host

Solution :

# Extrae un monmap actualizado de un monitor funcionando
ceph mon getmap -o monmap_actual

# Inyecta el monmap corregido en el monitor problemático
ceph-mon -i [MON_ID] --inject-monmap monmap_actual

3. Problèmes de synchronisation du temps

Les moniteurs Ceph sont très stricts en matière de synchronisation temporelle. Un décalage de plus de 50 ms peut provoquer cette erreur.

Diagnostic :

# Verifica el estado de NTP/chrony
chrony sources -v
# o con ntpq
ntpq -p

# Comprueba el skew entre nodos
ceph status

Solution :

# Configura chrony correctamente
systemctl enable chronyd
systemctl restart chronyd

# Si tienes servidores NTP locales, úsalos
echo "server tu.servidor.ntp.local iburst" >> /etc/chrony.conf

4. Moniteurs critiques ou corrompus

Si les moniteurs ont subi une corruption de données ou sont dans un état incohérent, ils risquent de ne pas répondre correctement.

Diagnostic :

# Revisa los logs del monitor
journalctl -u ceph-mon@[MON_ID] -f

# Verifica el estado del almacén del monitor
du -sh /var/lib/ceph/mon/ceph-[MON_ID]/

Solution :

# Para un monitor específico, reconstruye desde los OSDs
systemctl stop ceph-mon@[MON_ID]
rm -rf /var/lib/ceph/mon/ceph-[MON_ID]/*
ceph-objectstore-tool --data-path /var/lib/ceph/osd/ceph-0 --journal-path /var/lib/ceph/osd/ceph-0/journal --type bluestore --op update-mon-db --mon-store-path /tmp/mon-store
ceph-mon --mkfs -i [MON_ID] --monmap /tmp/monmap --keyring /tmp/ceph.mon.keyring

5. Configuration incorrecte du client

Parfois, le problème se situe du côté du client : configuration obsolète, clés incorrectes ou paramètres mal définis.

Diagnostic :

# Verifica la configuración del cliente
ceph config show client

# Comprueba las claves de autenticación
ceph auth list | grep client

Solution :

# Regenera las claves de cliente si es necesario
ceph auth del client.admin
ceph auth get-or-create client.admin mon 'allow *' osd 'allow *' mds 'allow *' mgr 'allow *'

# Actualiza la configuración
ceph config dump > /etc/ceph/ceph.conf
Quand demander de l’aide (avant qu’il ne soit trop tard)

Cette erreur peut s’aggraver rapidement si elle n’est pas gérée correctement. Si tu te trouves dans l’une de ces situations, il est temps d’arrêter et de demander l’aide d’un professionnel :

  • Tous les moniteurs sont éteints simultanément
  • Tu as perdu le quorum et tu ne peux pas le récupérer.
  • Les données semblent corrompues ou inaccessibles
  • Le cluster est en production et tu ne peux pas te permettre de faire des expériences.

Les clusters Ceph en production ne sont pas un environnement d’essais et d’erreurs. Un faux mouvement peut transformer un problème de connectivité en une perte de données.

La meilleure solution à l’erreur “could not connect to ceph cluster despite configured monitors” : prévenir.

Pour éviter de rencontrer cette erreur à l’avenir :

Surveillance proactive :

  • Définis des alertes sur l’état des moniteurs
  • Surveille la latence du réseau entre les nœuds
  • Contrôle la synchronisation de l’heure

Bonne pratique :

  • Déploie toujours au moins 3 moniteurs (mieux vaut 5 en production).
  • Conserve des sauvegardes régulières de la monmap et des clés.
  • Documente toute modification de la configuration du réseau
  • Utilise des automatismes (Ansiblepar exemple, est parfait pour les changements de configuration).

Tests réguliers :

  • Teste périodiquement la connectivité entre les nœuds
  • Simule les défaillances du moniteur dans l’environnement de développement
  • Vérifie que tes procédures de récupération fonctionnent

Besoin d’aide avec ton cluster Ceph ?

Les clusters de stockage distribués tels que Ceph nécessitent une expertise spécifique pour fonctionner de manière optimale. Si tu as rencontré cette erreur et que les solutions ci-dessus ne résolvent pas ton problème, ou si tu veux simplement t’assurer que ton infrastructure Ceph est correctement configurée et optimisée, nous pouvons t’aider.

Notre équipe a de l’expérience dans la résolution de problèmes Ceph complexes dans des environnements de production, du dépannage urgent à l’optimisation des performances et à la planification de la haute disponibilité.

Nous offrons de l’aide pour

Ne laisse pas un problème de connectivité devenir un gros mal de tête. La bonne expertise peut te faire gagner du temps, de l’argent et surtout du stress.

IBM Power11 – Découvrez les nouveautés

? IBM Power11 est là

L’attente est terminée : aujourd’hui a lieu le lancement officiel d’IBM Power11, la nouvelle génération de serveurs qui vise à consolider Power en tant que référence en matière de performance, d’efficacité et d’ouverture.Nouveau IBM Power11

Quelles sont les nouveautés des nouveaux serveurs Power ?

IBM s’est engagé dans une conception à pile complète, avec une intégration du processeur au cloud, conçue pour simplifier la gestion, réduire les coûts et permettre l’IA sans avoir besoin de GPU. Power11 offre :

  • IBM Spyre Accelerator pour l’IA générative et les processus métier.

  • Jusqu’à 25 % de cœurs en plus par puce par rapport à Power10

  • Mémoire DDR5 avec bande passante et efficacité améliorées

  • Maintenance simultanée, cryptographie à sécurité quantique et mode automatisé économe en énergie.

  • Prise en charge complète des déploiements AIX, IBM i, Linux et hybrides (Power Virtual Server).

Regarde les modèles Power11 disponibles aujourd’hui :

  • ? IBM Power S1122

    Serveur compact 2U, idéal pour les environnements où l’espace est restreint. Jusqu’à 60 cœurs Power11, 4 To de RAM DDR5 et des capacités avancées de cyber résilience et d’efficacité énergétique. Parfait pour les charges Linux, AIX ou IBM i dans les environnements de production mixtes.

    ? IBM Power S1124

    Conçu pour consolider les charges critiques dans un format 4U avec jusqu’à 60 cœurs, 8 To de mémoire et des doubles sockets. Idéal pour les moyennes et grandes entreprises qui recherchent la flexibilité du cloud, sans sacrifier les performances ou la sécurité.

    ? IBM Power E1150

    Modèle intermédiaire à forte évolutivité, conçu pour les charges exigeantes et les déploiements intensifs de SAP, de bases de données ou de virtualisation.

    ? IBM Power E1180

    Le plus puissant de la famille Power11. Jusqu’à 256 cœurs, 64 To de mémoire et une efficacité énergétique améliorée de 28 %. Conçu pour l’IA, l’analyse avancée et la consolidation massive dans les environnements critiques avec une disponibilité de 99,9999 %.

Une puissance plus ouverte et prête pour les hybrides

Tous les modèles Power11 peuvent également être déployés sur Power Virtual Server, intégrant des charges AIX, IBM i et Linux dans des environnements hybrides, sans qu’il soit nécessaire de réécrire les applications. De plus, la prise en charge de KVM et de PowerVM permet de choisir l’hyperviseur qui convient le mieux à l’environnement.

Disponibilité : IBM Power11 sera disponible dans le monde entier à partir du 25 juillet 2025. L’accélérateur IBM Spyre sera disponible au quatrième trimestre 2025.

Qu’en est-il de l’avenir ?

Power11 inaugure une nouvelle ère où l’IA, la sécurité quantique et l’efficacité énergétique ne sont plus des promesses, mais des fonctionnalités natives.

Si tu aimes les nouveaux modèles Power11, nous avons une bonne nouvelle pour toi, car chez SIXE nous vendons et migrons Power11 (et Power10, 9…). Chez SIXE, nous aidons nos clients à tirer le meilleur parti de la puissance de Power depuis des années.

Apprends à construire et à déployer des agents d’IA avec LangGraph en utilisant watsonx.ai

L’intelligence artificielle ne se contente plus de répondre, elle prend aussi des décisions. Avec des frameworks comme LangGraph et des plateformes comme watsonx.ai , tu peux construire des agents qui raisonnent et agissent de manière autonome ?.

Dans cet article, nous allons t’expliquer comment mettre en place un agent ReAct (Reasoning + Action) en local et le déployer sur IBM Cloud, le tout avec un exemple pratique incluant un outil de requête météorologique ?️.

Un guide pratique pour utiliser tes agents avec LangGraph et Watsonx.ai

Architecture du projet

  • Machine avec projet local
    • Ici, tu développes et testes l’agent avec Python, LangGraph et les dépendances.
  • ZIP (pip-zip)
    • Paquet avec ton code et des outils supplémentaires.
  • Spécification du logiciel
    • Environnement contenant les bibliothèques nécessaires à l’exécution de l’agent.
  • watsonx.ai
    • Platform où tu déploies le service en tant qu’API REST.
  • Stockage d’objets dans le nuage IBM
    • Stocke les actifs de déploiement.

Préparons l’environnement pour notre agent

Nous avons besoin de :

  • Python 3.12 installé
  • IBM Cloud access et watsonx.ai
  • Poésie pour la gestion des dépendances

As-tu tout ce qu’il te faut ? Avant toute chose, clone le dépôt que nous allons utiliser comme exemple. Il est basé sur les exemples officiels d’IBM.

git clone https://github.com/thomassuedbroecker/watsonx-agent-langgraph-deployment-example.git 
cd ./agents/langgraph-arxiv-research

Tout d’abord, comprenons le projet d’exemple.

[Developer Workstation] → [CI/Build Process] → [Deployment] ↓
[IBM Cloud / watsonx.ai]

Les principaux fichiers de l’agent sont :

ai_service.py
Fichier principal qui démarre le service de l’agent en production.
agent.py
Logique de base de l’agent IA basé sur LangGraph. Définit le flux de travail.
tools.py
Outils connectés à l’agent (API météo).

Diagramme de l'exemple de repo de Langgraph et watson.ai

Passons maintenant à la mise en place de l’environnement

python3.12 -m venv .venv
source ./.venv/bin/activate
python3 -m pip install --upgrade pip
python3 -m pip install poetry

Nous te recommandons également d’utiliser Anaconda ou miniconda. Il nous permet de gérer des environnements virtuels ou des paquets Python de manière simple et est largement utilisé en ML.

Pour que Python puisse trouver nos modules personnalisés (tels que les agents et les outils), nous devons inclure le répertoire actuel dans la variable d’environnement. PYTHONPATH

 

export PYTHONPATH=$(pwd):${PYTHONPATH}

echo ${PYTHONPATH}

 

Une fois l’environnement prêt, il est temps de passer aux variables. Tu dois créer un fichier config.toml si tu n’en as pas déjà un et utiliser tes identifiants IBM Cloud:

[deployment]
watsonx_apikey = "TU_APIKEY"
watsonx_url = "" # Tiene que seguir el siguiente formato: `https://{REGION}.ml.cloud.ibm.com0`
space_id = "SPACE_ID"
deployment_id = "YOUR_DEPLOYMENT_ID"
[deployment.custom]
model_id = "mistralai/mistral-large" # underlying model of WatsonxChat
thread_id = "thread-1" # Más información: https://langchain-ai.github.io/langgraph/how-tos/persistence/
sw_runtime_spec = "runtime-24.1-py3.11"

Tu trouveras tes variables ici :

https://dataplatform.cloud.ibm.com/developer-access

Une fois sur place, sélectionne ton espace de déploiement et copie les données nécessaires (API Key, Space ID, etc.).

Exécution dans les locaux de l’agent

Il est temps de tester l’agent :

source ./.venv/bin/activate
poetry run python examples/execute_ai_service_locally.py

Puisqu’il s’agit d’un agent météorologique, pourquoi n’essaies-tu pas avec quelque chose comme… ?

« Quel temps fait-il actuellement à Madrid ? »

La console devrait te donner l’heure à Madrid – félicitations, il ne nous reste plus qu’à faire le déployer dans watsonx.ai

Déploiement d’agents dans watsonx.ai

source ./.venv/bin/activate
poetry run python scripts/deploy.py
Ce code va déployer l’agent dans Watsonx.ai.
deploy.py fait ce qui suit :
  1. Lis la configuration (config.toml) avec tes identifiants et ton espace de déploiement.
  2. Rassemble ton code dans un fichier ZIP pour le télécharger sur IBM Cloud.
  3. Crée une spécification logicielle personnalisée basée sur un environnement de base (tel que runtime-24.1-py3.11).
  4. Déploie l’agent en tant que service REST dans watsonx.ai.
  5. Sauvegarde le site deployment_id , nécessaire pour interagir avec l’agent plus tard.

En bref :
prend ton agent local, le prépare et le transforme en un service accessible dans le nuage.

Vérifie que tout est correct dans watsonx.ai et va dans la section « Test ». Là, nous collons le json suivant (c’est juste une question).
{
"messages": [
{
"content": "What is the weather in Malaga?",
"data": {
"endog": [
0
],
"exog": [
0
] },
"role": "User"
}
] }
Clique sur prédire et l’agent utilisera le service_météo.
Dans le json de la réponse, tu verras le processus de l’agent -> call tool -> collect city -> process and return temperature.
Ton agent watsonx.ai est en cours d’exécution !
Si tu veux le tester à partir du terminal pour t’assurer qu’il fonctionne, utilise simplement
source ./.venv/bin/activate
poetry run python examples/query_existing_deployment.py
Conclusions

Si tu as des doutes, nous te recommandons le tutoriel vidéo suivant où tu pourras suivre pas à pas le développement connecté à watsonx.ai.

Si tu veux approfondir ces mises en œuvre ou en savoir plus sur le développement du cloud et l’intelligence artificielle, nous t’invitons à explorer nos cours sur l’IA.?

SIXE : Ton partenaire spécialisé dans LinuxONE 5

Peux-tu imaginer ce que ce serait d’avoir une infrastructure puissante sans payer de licences propriétaires ? Eh bien… tu peux? avec LinuxONE 5

Dans un environnement technologique en constante évolution, le choix d’une infrastructure critique basée sur Linux et l’IA nécessite non seulement une technologie de pointe, mais aussi un partenaire qui maîtrise chaque couche technique et stratégique. IBM LinuxONE Emperor 5 , alimenté par le processeur IBM Telum II et ses accélérateurs d’IA intégrés, constitue une étape importante en matière de sécurité, de performance et d’évolutivité. Chez SIXE , nous sommes experts dans la conception, la mise en œuvre et le support des solutions IBM LinuxONE 5 , en combinant notre expertise des technologies IBM avec notre rôle de partenaire stratégique de Canonical, Red Hat et SUSE .

Qu’est-ce que IBM LinuxONE 5 ?

IBM LinuxONE Emperor 5 est une plateforme de nouvelle génération conçue pour les entreprises qui ont besoin de niveaux maximums de sécurité, d’efficacité énergétique… ainsi que de la possibilité de gérer des charges de travail liées à l’IA et au cloud hybride. Elle inclut de nouvelles fonctionnalités telles que :

  • Processeur IBM Telum II : avec plusieurs accélérateurs d’IA sur puce, idéal pour l’inférence sur des données colocalisées.
  • Conteneurs confidentiels : protection avancée des applications et des données dans les environnements multi-locataires.
  • Cryptage à sécurité quantique : se préparer aux futures menaces découlant de l’informatique quantique.
  • Disponibilité à 99 % : architecture conçue pour minimiser les pannes critiques.
Caractéristiques d'IBM LinuxOne5 | SIXE Partner

Ce système n’est pas qu’un simple matériel : il s’agit d’une solution intégrale qui intègre le logiciel, la sécurité et la durabilité, se positionnant ainsi comme un allié pour les transformations numériques complexes. De plus, il a l’avantage d’être open source : il ne dépend pas de licences.

Experts OpenSource et IBM

Chez SIXE, nous ne sommes pas des intermédiaires : nous sommes des ingénieurs certifiés en technologies IBM Power et open source . Contrairement aux grands partenaires qui externalisent les projets complexes, chez SIXE, nous menons chaque implémentation de LinuxONE 5 avec une équipe interne spécialisée dans :

  • IBM Power Hardware : Configuration et optimisation des systèmes IBM LinuxONE Emperor 5 et Power10 (et futurs Power11).
  • Systèmes d’exploitation : Prise en charge de Red Hat Enterprise Linux (RHEL) SUSE Linux Enterprise Server (SLES ) et Ubuntu.
  • IA et infrastructure hybride : intégration des conteneurs, de Kubernetes et des outils d’IA (comme IBM Watsonx) avec LinuxONE 5.
  • Sécurité et conformité : nous sommes experts en matière d’audits de sécurité et de licences IBM.

Qu’est-ce que nous t’offrons chez SIXE pour que tu restes chez nous ?

Les grandes entreprises traitent souvent les projets de mise en œuvre de LinuxONE 5 comme des opérations ponctuelles. Chez SIXE, nous travaillons en étroite collaboration avec tes équipes techniques pour nous assurer que la solution est adaptée à tes besoins spécifiques. Nous te proposons un différentiel :

  • Réponds rapidement aux changements d’exigences ou d’architectures.
  • Maintenir une communication directe avec les gestionnaires de systèmes.
  • Concevoir des plans de migration de l’ancien système (IBM i, AIX) vers LinuxONE 5. Tu peux voir plus de détails ici.

Relations à long terme : tu cherches un fournisseur ou un partenaire stratégique ?

Nous ne travaillons pas seulement pour conclure des affaires : nous construisons des relations durables. Une fois que tu as mis en place LinuxONE Emperor 5, nous sommes toujours là pour toi. Nous proposons une assistance technique, des formations et des mises à niveau , ce qui garantit que ton investissement continue à générer de la valeur à long terme.

Retour sur investissement : SIXE est un investissement sûr.

Chez SIXE, chaque euro investi se traduit par une valeur réelle . Sans couches de gestion inutiles ni réunions vides, nous concentrons nos ressources sur des ingénieurs et des experts ayant plus de 15 ans d’expérience dans les technologies IBM, Canonical et open source . Nous faisons partie d’un réseau mondial de spécialistes reconnus par des leaders tels qu’IBM et Canonical , ce qui renforce notre capacité à fournir des résultats exceptionnels.

Non seulement LinuxONE 5

Bien qu’une grande partie de nos activités soit axée sur les solutions IBM, nous sommes également des partenaires stratégiques de Canonical (Ubuntu), Red Hat et SUSE , et nous utilisons des technologies telles que QRadar XDR . Cette diversité nous permet de proposer des solutions complètes pour ton infrastructure.

Choisir SIXE comme partenaire pour IBM LinuxONE 5 , c’est opter pour une approche humaine, technique et stratégique. Ne laisse pas ton infrastructure critique entre les mains d’intermédiaires : fais confiance à une équipe aussi engagée que toi dans la réussite de ton projet.

? Pour en savoir plus sur notre offre IBM LinuxONE 5 , clique ici.

Prêt à transformer ton infrastructure avec IBM LinuxONE 5 et SIXE ? Contacte-nous et commençons ensemble.

SIXE