Webinars de IBM Power en Dame Power. Cursos de IBM i , AIX , Linux , Kubernetes

Webinaires IBM Power 2025 : apprends gratuitement avec des experts

Peux-tu imaginer trouver des solutions à tes problèmes Linux, AIX, IBM i, etc… tout en un?!🙀 Eh bien, c’est désormais possible grâce à Dame Power, la communauté hispanophone d’IBM Power.

Chez SIXE, nous sommes ravis de participer aux webinaires exclusifs de SIXE. webinaires Dame PowerLes webinaires Dame Power sont une série de sessions gratuites conçues pour t’aider à approfondir l’écosystème IBM Power.

Si tu travailles avec IBM i, AIX, Linux, PowerVM ou Kubernetes, c’est l’occasion d’apprendre directement auprès d’experts et d’appliquer les connaissances à tes projets. Découvre les tendances les plus innovantes auprès d’experts, en tête-à-tête.

📅 Webinaires IBM Power 2025

Webinaires gratuits d'IBM Power | AIX , IBM i, Linux

Tout au long de l’année, Dame Power proposera une série de webinaires axés sur des sujets clés pour les professionnels d’IBM Power :

Linux on Power : vérités, mythes et conseils pour maximiser tes performances.
AIX 7.3 : L’évolution de l’UNIX moderne et son impact sur l’entreprise.
KVM sur PowerVM : l’exploration de nouvelles possibilités en matière de virtualisation.
Kubernetes sur Power : déploiement et gestion efficaces des conteneurs.
IBM Power Security : Au-delà du marketing, de vraies stratégies pour protéger tes systèmes.

Pourquoi participer à ces webinaires ?

En participant à ces sessions, tu pourras :

✔️ Obtiens des conseils pratiques de dépannage pour IBM i, AIX, Linux et plus encore.
✔️ Découvre les tendances en matière de sécurité, de cloud, d’IA et d’edge computing.
✔️ Apprends des champions IBM qui travaillent avec Power sur des cas concrets.
✔️ Suis pas à pas les configurations avancées et l’optimisation des serveurs.

Comment s’inscrire aux webinaires de Dame Power ?

C’est très simple ! Tout ce que tu as à faire, c’est.. :

1️⃣ Clique ici pour t’abonner à la Dame Power Substack.
2️⃣ Vérifie l’email de bienvenue, où tu trouveras le formulaire d’inscription.
3️⃣ Une fois que tu l’auras rempli, tu recevras la date, l’heure et le lien pour accéder au webinaire. Accède aux webinaires à partir de ce lien.
4️⃣ Participe, pose des questions et renforce tes connaissances.

🎁 Avantages supplémentaires pour les participants

Si tu t’inscris à ces webinaires, tu auras également accès à :

🎓 Réductions exclusives sur les cours SIXE.
📄 Contenu premium : accès hors ligne aux webinaires.
🤝 Communauté : Fais partie du plus grand groupe d’experts IBM Power en espagnol.

Prépare-toi à apprendre

Ces webinaires sont plus que de simples conférences : ils constituent une véritable opportunité d’améliorer tes compétences, de te connecter avec des experts et d’appliquer de nouvelles connaissances dans ton travail quotidien.

📢 Partage cet événement pour que d’autres équipes informatiques puissent bénéficier de ces connaissances.

ML en sixe

Comment mettre en place une architecture ML sans échouer dans sa tentative.

📌 Tu t’intéresses à l’automatisation, à l’IA, etc. Tu es au bon endroit. Chez SIXE, nous allons te dire comment mettre en place une architecture ML en évitant les erreurs les plus courantes.

L’apprentissage automatique (ML) n’est plus l’avenir, c’est le présent. Des entreprises de tous les secteurs misent sur l’intelligence artificielle pour améliorer les processus, automatiser les tâches et prendre des décisions plus intelligentes.

Mais voici un retour à la réalité dont tu ne veux peut-être pas entendre parler.

La plupart des modèles de projets de ML échouent

🔴 80 % des modèles de ML ne parviennent jamais à la production.
🔴 6 % des entreprises investissent dans la formation de leur équipe à l’IA.
🔴 De nombreuses infrastructures ne sont pas prêtes à mettre à l’échelle les projets de ML.

Et c’est là que réside le problème. Il ne suffit pas d’avoir de puissants modèles d’IA si l’infrastructure sur laquelle ils fonctionnent est en pagaille. Si ton architecture n’est pas évolutive, sécurisée et efficace, ton projet ML est voué à l’échec.

Voici comment éviter ces erreurs et concevoir une infrastructure de Machine Learning qui fonctionne vraiment.


Arrête de réinventer la roue : utilise ce que tu as déjà.

L’une des erreurs les plus courantes est de penser que tu as besoin d’une infrastructure entièrement nouvelle pour mettre en œuvre la ML. Faux.

De nombreuses entreprises disposent déjà de ressources sous-utilisées qu’elles peuvent mettre à profit pour l’apprentissage automatique :

✅ Les GPU ayant une capacité de réserve (souvent utilisés uniquement pour des tâches graphiques).
✅ Des serveurs sous-utilisés qui peuvent être alloués à des charges de travail ML.
Accès à des clouds publics qui pourraient être mieux optimisés.

📌 Conseils exclusifs de SIXE : Les grandes entreprises te vendront que tu dois acheter et acheter. A vant d’acheter plus de matériel ou d’embaucher plus de personnel, analyse ce que tu peux optimiser avec ce que tu as déjà. Si tu ne sais pas comment faire, nous pouvons le faire pour toi.. Nous réalisons des audits pour rendre ton infrastructure plus écologique et tirer le meilleur parti de tes ressources. Dépense moins, produit plus.


GPU : en tires-tu profit ?

Voici une bombe : Plus de 50 % des GPU dans les entreprises sont sous-utilisés.

Oui, ils ont acheté du matériel puissant, mais ils ne l’utilisent pas efficacement. Pourquoi ?

❌ Ils ne disposent pas d’outils de gestion du GPU.
❌ Les GPU sont attribués à des projets qui n’en ont même pas besoin.
❌ La capacité est gaspillée en raison du manque de planification.

📌 Des solutions que tu peux appliquer AUJOURD’HUI:

✅ Met en œuvre un gestionnaire de tâches et un planificateur GPU.
✅ Utilise Kubernetes pour orchestrer efficacement les modèles de ML.
✅ Adopte un planificateur de charge de travail.

Si tu envisages d’acheter plus de GPU parce qu’il n’y a “pas assez de capacité”, fais d’abord un audit. Il se peut très bien que tu puisses libérer des ressources et retarder les achats. Dans de nombreux cas, il est possible de libérer des ressources et de retarder les achats en optimisant l’infrastructure existante. Les systèmes tels que AIX, Linux, IBM i, RHEL, SUSE peuvent avoir une capacité inexploitée qui peut être réaffectée avec des ajustements techniques. Chez SIXE, nous auditons tous ces systèmes pour identifier les possibilités d’amélioration sans qu’il soit nécessaire de changer de matériel, en privilégiant l’efficacité à l’investissement.


Si tu n’automatises pas, tu vis dans le passé.

Le manque de standardisation dans le domaine de la ML est un sérieux problème. Chaque équipe utilise des outils différents, les processus ne sont pas reproductibles et tout devient chaotique.

C’est là que les MLOps entrent en jeu.

MLOps n’est pas seulement un mot à la mode ces derniers temps, c’est une nécessité pour que les modèles ML passent de l’expérimentation à la production sans maux de tête.

📌 Avantages des MLOps :

Automatise les tâches répétitives (validation, déploiement, sécurité).
Réduit les erreurs humaines dans la configuration et l’exécution des modèles.
Améliore la reproductibilité des expériences.

Si tu n’as pas de stratégie MLOps claire, ton équipe finira par faire le même travail encore et encore. Nous te recommandons de former ton équipe au MLOps pour ne plus perdre de temps sur des tâches répétitives. Chez SIXE, nous comprenons le défi que représente le MLOps et nous proposons un cours MLOps avec Ubuntu Linux conçu pour t’aider à mettre en place des flux de travail efficaces et évolutifs.


Nuage hybride : l’équilibre parfait entre coût et flexibilité.

L’éternel débat entre cloud public et cloud privé a généré plus d’un mal de tête dans les entreprises : faut-il opter pour l’agilité du cloud public ou privilégier le contrôle et la sécurité d’un cloud privé ? La bonne nouvelle, c’est que tu n’as pas à choisir. Il existe une solution intermédiaire qui combine le meilleur des deux mondes : le cloud hybride.

Nuage public uniquement : peut être coûteux et soulève des problèmes de sécurité.
Nuage privé uniquement : nécessite un investissement en matériel et en maintenance.

🔹Utilise le cloud public pour les expériences rapides et les tests initiaux.
🔹Fais migrer les modèles vers le cloud privé lorsque tu as besoin de plus de contrôle et de sécurité.
🔹Assure-toi que ton infrastructure est portable pour passer d’un cloud à l’autre, en évitant les environnements incompatibles.

Grâce à la possibilité de s’interconnecter de façon transparente entre les environnements, le cloud hybride élimine le verrouillage des fournisseurs et optimise les coûts opérationnels. Une architecture hybride te donne le meilleur des deux mondes: l’agilité pour innover et la stabilité pour évoluer.


Sécurité ML : n’attends pas qu’il soit trop tard

Beaucoup de gens pensent à la sécurité lorsqu’il est trop tard. Une attaque sur tes modèles ML ou une violation de données peut avoir des conséquences désastreuses.

Meilleures pratiques pour sécuriser ton infrastructure ML :

Effectue au moins un audit de sécurité annuel de ton infrastructure.
Mets en place une authentification forte et une gestion des identités.
Chiffrer les données avant de les utiliser dans les modèles de ML.

Rappelle-toi : La sécurité n’est jamais suffisante. Plus tu as de couches de sécurité, moins tu as de chances de faire parler de toi pour une violation de données ;)


Formation : sans une équipe formée, comment pourras-tu gérer ton infrastructure ?

L’intelligence artificielle et la ML sont en constante évolution. Si ton équipement n’est pas mis à niveau, tu resteras à la traîne.

🔹 Formation dans les ateliers MLOps.
🔹 Apprentissage interne. Favorise une culture d’apprentissage continu au sein de ton organisation grâce au mentorat, à la documentation collaborative et aux sessions pratiques.

💡 Chez SIXE, nous proposons des formations MLOps pour aider les entreprises à construire des architectures évolutives et efficaces. Si ton équipe a besoin de se mettre à niveau, nous pouvons nous adapter aux besoins spécifiques de ton entreprise.


Ne perds pas des heures à courir après une erreur

Si ton infrastructure ML tombe en panne et que tu n’as pas de surveillance, tu vas passer des heures (ou des jours) à essayer de comprendre ce qui s’est passé.

📊 Outils essentiels pour l’observabilité en ML :

Tableaux de bord en temps réel pour la surveillance des modèles et du matériel.
Des alertes automatiques pour détecter les problèmes avant qu’ils ne deviennent critiques.
Des journaux détaillés pour la traçabilité des processus et la résolution des erreurs.

Si tu n’as pas une visibilité totale sur ton infrastructure, tôt ou tard, tu auras des problèmes.


Conclusion

Construire une architecture évolutive et efficace pour le Machine Learning n’est pas seulement un défi technique, mais un changement d’état d’esprit. Tire parti de tes ressources actuelles, optimise l’utilisation des GPU et adopte les MLOps pour automatiser les processus clés.

Veux-tu concevoir une architecture ML qui fonctionne vraiment ? Nous pouvons t’aider.

👉 Contacte-nous et nous t’aiderons à créer une infrastructure évolutive, sécurisée et optimisée pour l’IA.

Pictograma de servidor con texto de Power11 en SIXE

IBM Power11 : ce que nous savons jusqu’à présent

Poste constamment mis à jour (basé exclusivement sur les opinions et les attentes de SIXE).

L’évolution de l’architecture Power a toujours été un sujet de curiosité et de débat dans notre communauté. Avec chaque nouvelle génération, IBM cherche à équilibrer l’innovation avec les demandes du marché, mais pas toujours avec l’impact escompté…. Alors que Power11 arrive à grands pas, nous jetons un coup d’œil sur ce qu’il apportera et sur les leçons qu’IBM en a tirées.🙄 Voici également ce que nous souhaitons pour Power11 (si seulement les souhaits pouvaient se réaliser… ).

Quels sont les modèles qui seront commercialisés ?

Nous prévoyons, comme pour Power10, des modèles à 1, 2, 4 et jusqu’à 16 prises. Avec des équivalents aux S1012, S1022, S1024, E1050 ou E1080, ces futurs modèles seront bientôt dévoilés, ainsi que les métriques rPerf pour comprendre l’équivalence avec les modèles actuels et ceux qu’ils remplaceront.

Depuis 2010, chaque génération de Power a répondu à un marché en pleine évolution. Avec l’avènement de DeepSeek et des nouvelles IA “optimisées”, davantage d’options apparaissent pour l’inférence sans dépendre des GPU NVIDIA. En fait, l’une des CONFIRMÉE EST L’INTÉGRATION DE L’ACCÉLÉRATEUR NVIDIA est l’intégration de l’accélérateur Spyre d’IBM.

Pourquoi l’accélérateur IBM Spyre est-il important ?

Image du coprocesseur spyre Tout ce que nous savons sur IBM Power11

Ce composant, conçu pour l’IA, promet de révolutionner le traitement de l’IA générative et des modèles complexes et de s’intégrer à différents cas d’utilisation dans IBM Power. De l’aide à la modernisation du code RPG aux fonctionnalités avancées de l’IA dans DB2, sans oublier toutes les possibilités de l’Open Source sur ppc64le (Linux on Power) et du calcul à haute performance (HPC). Ce dernier est un segment où nous nous attendons à voir Power redevenir une alternative, grâce à son énorme bande passante entre les processeurs, la mémoire et les accélérateurs, surpassant x86 et ARM pour une fraction du prix d’un GPU NVIDIA haut de gamme et avec une mémoire beaucoup plus limitée….

Innovations du processeur Power11

Power11 augmente la vitesse d’horloge et ajoute 25 % de cœurs supplémentaires par puce par rapport à Power10. Ce processeur continue d’améliorer les capacités clés que nous avons introduites avec Power10, telles que l’amélioration de la fiabilité, de la disponibilité et de la facilité d’entretien (RAS), une meilleure efficacité énergétique et une meilleure gestion de l’énergie, ainsi qu’une sécurité quantique.

Innovation dans les technologies de fabrication des processeurs

Nous savons que le processeur Power11 profitera de la nouvelle technologie des condensateurs empilés intégrés (ISC), ainsi que d’innovations en matière de refroidissement, telles que des dissipateurs thermiques améliorés et des ventilateurs plus efficaces. Cela permet d’optimiser la puissance, de booster les cœurs et d’augmenter la capacité de calcul du système.

Mémoire DDR5 : Meilleures performances

L’intégration de la mémoire DDR5, ainsi que la poursuite de l’architecture de mémoire ouverte (OMI), renforce la stratégie de Power11, en la positionnant comme une plateforme non seulement plus puissante, mais aussi plus économe en énergie. La mémoire DDR5 offre des performances supérieures et une plus grande bande passante, ce qui permettra à Power11 de gérer des charges de travail plus exigeantes sans sacrifier l’efficacité énergétique. La prise en charge de la mémoire DDR5 a également été confirmée pour les Power10 (et peut-être aussi pour la DDR4), ce qui permet de réutiliser la mémoire du matériel remis à neuf. De plus, nous sommes à la veille de l’arrivée de la mémoire DDR6, qui pourrait mettre les futurs serveurs Power encore plus en avant si elle est intégrée à l’avenir.

Quel rôle joue KVM dans Power11 ?

Un aspect clé de l’alimentation du Power11 est son intégration avec KVM (Kernel-based Virtual Machine) ; la norme de facto pour la virtualisation dans les environnements Linux et la base de technologies telles que Nutanix AHV ou Oracle Exadata. En intégrant KVM, Power11 pourrait fournir un support complet pour les machines virtuelles Linux et se consolider ainsi en tant que plateforme plus ouverte et plus évolutive. Depuis Power10, KVM fonctionne déjà au sein de PowerVM, ce qui permet d’allouer des ressources système partielles ou complètes à un hôte Linux, où il est possible de déployer des outils de virtualisation natifs tels que LXD de Canonical. Cette flexibilité le rend adapté aux environnements hybrides, comme l’intégration de nœuds Power (architecture ppc64le) dans les déploiements OpenStack . Cela facilite la coexistence de charges de travail hétérogènes. Cependant, KVM ne remplace pas PowerVM, l’hyperviseur gratuit (et encore plus performant) par défaut, dont nous avons déjà parlé dans d’autres articles. nous en avons déjà parlé dans d’autres articles.

Conclusion

Power11 n’est pas seulement une nouvelle génération de matériel ; c’est l’occasion pour IBM de réorienter sa stratégie et de renforcer son lien avec sa communauté. En équilibrant l’innovation technologique avec une approche ouverte et collaborative, elle pourrait offrir une plateforme polyvalente, puissante et, surtout, pertinente pour un marché qui exige de la flexibilité et une innovation constante qui apporte de la valeur à nos clients.

Tu veux en savoir plus sur la façon dont Power peut transformer ton infrastructure ? Chez SIXE, nous sommes experts en tout ce qui concerne Power, que tu aies ton architecture en place ou que tu veuilles migrer.

imagen empresa sostenible, blog de SIXE

IBM Power9 : Mettre à niveau ou maintenir ? Que faire après la fin de l’assistance officielle ?

Mon Power9 est-il obsolète, devons-nous passer à Power10 ou Power11 ?

Arrête-toi un instant, ne te précipite pas. Voici les 4 clés qui expliquent pourquoi l’entretien de tes systèmes Power9 pourrait être la meilleure chose à faire pour ton entreprise et l’environnement.

IBM a annoncé la fin de la prise en charge des systèmes Power9 à partir du 31 janvier 2026. Cela s’accompagne d’un message clair : passe aux modèles Power10 ou attends le nouveau Power11. Mais as-tu vraiment besoin de mettre à niveau tes systèmes maintenant ? Chez SIXE, nous pensons que les Power9 peuvent continuer à fonctionner parfaitement bien s’ils sont gérés correctement. Prendre des décisions hâtives sans évaluer les options peut s’avérer coûteux, à la fois pour ton entreprise et pour l’environnement.

Le dilemme de Power9 : renouveler ou maintenir ?

Il est vrai que les systèmes plus récents offrent des améliorations significatives en termes de performance et d’efficacité. Cependant, la fabrication de nouveaux serveurs génère une grande quantité d’émissions de CO2 et augmente la demande de matériaux rares et ne compense PAS les émissions. Au lieu de cela, l’entretien et l’optimisation de tes Power9 peuvent être une option beaucoup plus durable et rentable. Voici pourquoi :

1) Pourquoi la fabrication de nouveaux serveurs n’est-elle pas durable ?

La mise à niveau vers de nouveaux serveurs s’accompagne d’un coût environnemental important. Même si les systèmes Power11 seront plus efficaces, la fabrication du matériel génère des tonnes d’émissions de CO2. Ton Power9, avec un entretien adéquat, peut rester fonctionnel et moins nocif pour l’environnement. Nous te le montrons avec l’exemple d’infomaniak:


les tableaux de comparaison de la pollution en changeant de matériel informatique

Comme le montre le graphique, prolonger la durée de vie des serveurs en mettant à niveau des composants clés, tels que le processeur ou la mémoire, peut réduire considérablement l’impact sur l’environnement. Cela contribue également à l’ économie circulaire en évitant le gaspillage des ressources.

Solution : opte pour des stratégies de maintenance préventive et des mises à niveau des composants pour optimiser la durée de vie de ton Power9.


2. les avantages de la virtualisation dans Power9

Le manque de virtualisation et de consolidation des serveurs augmente la consommation d’énergie et la production de déchets. Grâce aux outils de virtualisation, tes Power9 peuvent fonctionner beaucoup plus efficacement, ce qui réduit le besoin de nouveaux équipements et l’impact environnemental associé.

Solution : mettre en place des solutions de virtualisation pour optimiser l’utilisation de tes ressources. Chez SIXE, nous proposons des formations à la virtualisation sous Linux et VMware pour t’aider à maximiser les performances de ton infrastructure.


3. mesurer et gérer l’impact sur l’environnement

Sans mesurer l’impact de tes activités, il est impossible d’optimiser tes ressources et de réduire ton empreinte carbone. Les systèmes Power9 peuvent être évalués pour identifier les possibilités d’amélioration de l’efficacité et de la durabilité.

  • Audits énergétiques : identifie les zones de forte consommation et les possibilités d’optimisation.
  • Analyse du cycle de vie : analyse la situation actuelle de ton serveur Power. Cela te permet d’évaluer l’impact environnemental de tes serveurs depuis leur fabrication jusqu’à leur remplacement.

Solution : effectue des audits réguliers et utilise des outils de mesure tels que IBM Cloud Carbon Calculator ou IBM Systems Energy Estimator pour gérer l’impact de ton infrastructure informatique.

 


4. Impact économique d’une décision hâtive

Se précipiter pour renouveler l’équipement n’est peut-être pas rentable si les serveurs IBM Power9 répondent encore aux besoins actuels de ton entreprise. Avant d’investir dans de nouveaux systèmes, il est essentiel d’analyser le retour sur investissement (ROI) pour déterminer si la mise à niveau est financièrement justifiable.

  • Coûts d’acquisition et d’entretien : l’achat de nouveaux serveurs (power10, power11) implique un coût initial élevé. Cependant, les serveurs plus classiques, moyennant un entretien adéquat, peuvent continuer à fonctionner efficacement, ce qui permet d’éviter cette dépense.
  • Long cycle de vie : Grâce à une évaluation du cycle de vie, leur durée de vie peut être correctement prolongée (par exemple en améliorant les composants). Cela signifie que, moyennant une optimisation, ils peuvent constituer une solution viable à long terme.
  • Capacité actuelle vs. besoins futurs : si le Power9 gère encore efficacement les charges de travail actuelles, une mise à niveau immédiate peut s’avérer inutile. Effectue une analyse de performance peut être déterminante.

Solution : Évalue le retour sur investissement du renouvellement de tes serveurs par rapport à leur remplacement. Dans de nombreux cas, l’entretien et l’optimisation de tes Power9 peuvent être l’option la plus rentable et la plus durable pour ton entreprise.


Conclusion

La fin du support des systèmes IBM Power9 ne signifie pas que tu dois te précipiter pour les remplacer par le prochain Power11. Avec les bonnes stratégies, tes Power9 peuvent rester une solution durable et efficace. Notre recommandation est d’évaluer le cas spécifique de ton infrastructure. Avant de prendre une décision, considère l’impact environnemental et économique du renouvellement de ton infrastructure. Chez SIXE, nous t’aidons à optimiser tes systèmes et à faire le premier pas vers une technologie plus durable. Contacte-nous pour un audit.

TUX realizando un Healthcheck a AIX de IBM

Pourquoi est-il crucial d’effectuer un healtcheck d’AIX ?

Sais-tu que de nombreux systèmes AIX fonctionnent bien jusqu’à ce qu’ils cessent soudainement de fonctionner ?😱

Ce qui est amusant, c’est que les problèmes donnent presque toujours un avertissement, mais… les écoutes-tu ? 🤔 Si tu veux découvrir comment un simple bilan de santé peut t’aider à détecter ces avertissements précoces et à prévenir les défaillances critiques avant que ton AIX n'”implose”, lis la suite.👇

La health- quoi ?

Un healthcheck est un examen rapide et préliminaire de l’état d’un système. Son principal objectif est de donner un aperçu des performances, de la stabilité et de la sécurité du système afin d’identifier les domaines qui nécessitent une attention immédiate. Contrairement à un audit complet, qui est beaucoup plus détaillé et approfondi, le healthcheck est une étape initiale qui permet de déterminer “l’état de santé” du système de manière agile et efficace. Et en plus… Chez SIXE, nous réalisons des bilans de santé. Demande-le ici


Quel est l’objectif d’un healthcheck d’AIX ?

Le bilan de santé AIX est une évaluation technique axée sur l’examen des aspects clés du système, tels que l’utilisation des ressources, la santé du matériel, les journaux d’erreurs et la sécurité de base. Ce processus permet d’identifier les problèmes potentiels et les priorités d’intervention sans entrer dans le niveau de détail d’un audit complet. Voici quelques points clés couverts par un bilan de santé AIX:

  • Performance globale : Évaluation de l’utilisation de l’unité centrale, de la mémoire et du stockage pour identifier les goulets d’étranglement et les domaines à améliorer.
  • État du matériel : détection des défauts ou des composants dégradés qui peuvent affecter la stabilité du système.
  • Erreurs récurrentes : Examen des journaux du système (errpt, syslog) pour identifier les modèles d’erreurs et d’anomalies qui peuvent indiquer des problèmes sous-jacents.
  • Conformité à la sécurité de base : vérification des paramètres clés tels que l’accès, les permissions des utilisateurs et les politiques de mot de passe, pour s’assurer que le système est protégé contre les accès non autorisés.

Cette analyse préliminaire est particulièrement utile pour les entreprises qui ont besoin d’un diagnostic initial pour déterminer les aspects à aborder ultérieurement, soit par une optimisation spécifique, soit par un audit complet.


Pourquoi effectuer un healthcheck d’AIX ?

1. identifier rapidement les problèmes critiques

Le healthcheck sert d’alerte précoce pour détecter les défauts ou les faiblesses qui pourraient entraîner des perturbations majeures. Par exemple :

  • Les processus qui consomment trop de ressources.
  • Les configurations dangereuses ou inappropriées.
  • État des disques durs, de la mémoire et des autres composants critiques du système.

2. Optimiser les ressources

Il te permet de trouver les configurations qui limitent les performances du système, comme une utilisation excessive de l’unité centrale ou un stockage mal réparti. Cela aide à faire des ajustements rapides qui améliorent l’opérabilité sans avoir recours à des mesures plus complexes.

3. Fixer les priorités

Le résultat du healthcheck fournit un point de départ clair pour planifier les actions futures : de la mise en place de correctifs à un audit plus détaillé.

Outils utiles pour un healthcheck d’AIX

Voici quelques outils et commandes qui peuvent simplifier le processus :

  • nmon: pour une analyse détaillée des performances.
  • errpt: pour identifier les erreurs matérielles et logicielles.
  • topas: pour surveiller les ressources en temps réel.
  • PowerSC: Pour revoir les paramètres de sécurité.

Tutoriel NMON pour la surveillance de Linux et AIX

À quoi s’attendre en tant que client du healthcheck d’AIX ?

Comment fonctionne un healthcheck AIX, que dois-je demander, en quoi cela va-t-il m’aider ? En tant que client, tu recevras un rapport détaillé sur l’état de ton environnement en termes de sécurité, de performance, de disponibilité et de suggestions d’amélioration. Le processus comprend des recommandations claires et pratiques pour optimiser ton système, améliorer la sécurité et garantir que ton AIX fonctionne efficacement. Ce rapport t’aidera non seulement à prévenir les problèmes futurs, mais il te fournira également un plan d’action concret pour améliorer les performances et maintenir ton infrastructure protégée et opérationnelle.


Conclusion

Un healtcheck est la première étape pour s’assurer qu’un système fonctionne correctement et efficacement. Il agit comme un “healthcheck” qui identifie les problèmes et les priorités, fournissant ainsi une base solide pour des décisions plus complexes, telles qu’un audit complet ou l’optimisation des ressources. En bref, effectuer cet examen simple et rapide permet de gagner du temps, d’éviter des problèmes majeurs et de s’assurer que le système est dans un état optimal pour répondre aux besoins opérationnels de l’organisation. Si tu veux que nous effectuions un healtcheck de ton système AIX , tu peux en faire la demande ici https://sixe.es/sistemas/consultoria/healthcheck-de-sistemas-aix

Pictograma de servidor con texto de Power11 en SIXE

Qu’attendons-nous d’IBM Power11?

L’évolution de l’architecture Power d’IBM a fait l’objet d’un débat intense dans la communauté technologique. Au cours des dernières années, cette architecture a subi d’importants changements stratégiques qui ont suscité autant de critiques que d’attentes. Comme pour KVM, nous avons presque deviné tout ce qu’IBM allait annoncer; tentons une deuxième fois notre chance avec Power11. Dans ce cas, nous n’avons pas les listes de kernel.org pour nous donner des indices, mais nous avons 10 ans de trajectoire depuis Power8 et un marché avec des demandes très claires pour des architectures alternatives à x86, d’autant plus quand… Intel traverse l’un des pires moments de son histoire..

Contexte et un peu d’histoire

Avec Power8 sont arrivés les systèmes Power OEM/LC, les GPU NVIDIA, le connecteur NVLink et la possibilité d’une première version de KVM sur Power(à ne pas confondre avec l’annonce de 2024). Cependant, dans la pratique, les défis l’ont emporté sur les opportunités… et nous en resterons là 🙂. Certains estimaient qu’IBM était en avance sur le marché, tandis que d’autres estimaient qu’il n’y avait pas assez de solutions soutenues et éprouvées sur ces serveurs pour obtenir l’impact escompté ; on parlait même d’une adoption massive par Google ou Rackspace. Power9 a représenté une étape importante dans la stratégie d’IBM en offrant une architecture plus ouverte et accessible à la communauté. Par l’intermédiaire de la fondation OpenPOWER, IBM a publié une grande partie des spécifications et des technologies associées à Power9, permettant ainsi à des tiers de concevoir et de construire leurs propres systèmes basés sur cette architecture, à l’instar de ce qui se fait avec ARM ou x86. Des entreprises telles que Raptor Computing Systems ont développé des systèmes basés sur Power9 en utilisant des micrologiciels et des logiciels open source, offrant ainsi des plateformes hautement vérifiables et contrôlables par l’utilisateur. Cependant, pour la génération suivante, les retards de développement – peut-être exacerbés par la pandémie de COVID-19 – ont conduit IBM, lors du lancement de Power10, àaccorder des licences sur des blocs de propriété intellectuelle de Synopsys pour des composants tels que le DDR4/5 PHY et PCIe 5.0. Cette décision a introduit des microprogrammes propriétaires dans le système, rompant avec la tradition d’ouverture établie avec Power9 et limitant la participation de la communauté au développement de ces technologies. De plus, les changements dans la stratégie de NVIDIA depuis Power9 visant à utiliser des architectures alternatives telles que les GPU basés sur ARM ont rendu difficile le retour des GPU dans Power. En fait, dans Power10, le passage à l’inférence dans le cœur du processeur, sans s’appuyer sur les GPU, a été une réponse stratégique qui a permis au traitement de l’IA de se faire directement sur le processeur.

Avec l’arrivée potentielle de Power11, on s’attend à ce qu’IBM relève les défis précédents et aligne sa stratégie sur les demandes actuelles du marché. Cela implique de réintégrer les GPU et autres accélérateurs, d’améliorer la prise en charge des charges de travail open source et des applications Linux, et de poursuivre le développement d’AIX et d’IBM i en tant qu’éléments centraux de l’écosystème Power.

Imagen de IBM Power desde 2010 en adelante explica las características de cada IBM Power

Nos attentes

Les décisions prises autour de Power10 ont eu des répercussions notables sur la communauté et le marché. L’abandon d’une architecture ouverte a suscité des doutes parmi les développeurs et les entreprises qui privilégient la transparence et le développement collaboratif. Des concurrents avec des architectures ouvertes, tels que RISC-V, ont gagné du terrain en offrant la liberté et la flexibilité que Power10 n’a pas su apporter. Cela met en lumière l’importance de l’ouverture comme avantage compétitif dans un paysage technologique en perpétuelle évolution, où les solutions open source dominent les nouvelles charges de travail.

Pour Power11, les attentes sont claires : IBM doit répondre aux préoccupations soulevées. Chez SIXE, nous prônons un retour à des pratiques de développement ouvertes, garantissant l’accès au code source des micrologiciels et aux spécifications techniques, afin de favoriser une collaboration plus large et une innovation renforcée. Nous espérons que Power11 corrigera les insuffisances de Power10 en reprenant le contrôle du développement de composants clés, tels que les interfaces DDR PHY et PCIe, et en réduisant la dépendance à la propriété intellectuelle de fournisseurs tiers. Cela permettrait à IBM de se réaligner sur les attentes de la communauté et de tirer parti de l’expérience collective des développeurs et des entreprises attachées aux principes open source.

La réintégration des GPU et autres accélérateurs est tout aussi cruciale pour répondre à la demande croissante d’une informatique hétérogène. En prenant en charge une gamme d’accélérateurs – y compris les GPU, FPGA, et processeurs spécialisés dans l’intelligence artificielle – IBM pourrait proposer des solutions flexibles et puissantes, adaptées à des charges de travail spécifiques. Cette approche correspond aux tendances de l’industrie, qui favorisent des architectures modulaires et évolutives, capables de répondre à des exigences computationnelles complexes et changeantes.

Le renforcement du support pour les charges de travail open source et l’expansion de la compatibilité avec les applications Linux seront essentiels à l’adoption de Power11. Assurer une intégration fluide avec les cadres et outils open source attirera une communauté de développeurs plus large, facilitant ainsi la migration des applications existantes vers la plateforme Power. Cette stratégie stimule l’innovation et répond à la demande du marché pour des solutions à la fois flexibles et rentables.

Enfin, nous souhaitons voir comment ces innovations matérielles pourront être exploitées par AIX et IBM i, démontrant ainsi l’engagement de IBM envers sa vaste base de clients. Il est essentiel que les entreprises qui reposent sur ces systèmes d’exploitation bénéficient des avancées de Power11 pour leurs systèmes critiques, sans compromettre la stabilité, la performance, la compatibilité ou la disponibilité.

Conclusion

S’il y a une chose dont nous sommes convaincus, c’est qu’il n’existe pas de système d’exploitation ou d’architecture unique capable de répondre à toutes les charges de travail. Ce qui est véritablement précieux pour les clients Power, c’est la possibilité d’intégrer sur une même machine les bases de données stratégiques sous AIX ou IBM i, les clouds privés avec KVM, les frontaux avec Kubernetes sur Linux, et, à l’avenir, espérons-le, des charges de travail en IA, ML, HPC, et plus encore.

Chez SIXE, nous pensons qu’il n’y a pas de solution universelle, tout comme il n’existe pas de musique parfaite pour chaque moment. Pas de système d’exploitation, de base de données ou de langage de programmation universels. Avec Power, nous pouvons tout avoir, et c’est pourquoi nous l’apprécions tant. Pour nous, Power11 représente une occasion pour IBM de réajuster sa stratégie : intégrer des GPU et des accélérateurs pour répondre aux besoins du calcul haute performance, améliorer le support des charges de travail open source et des applications Linux, tout en poursuivant le développement de ses systèmes d’exploitation de pointe pour les environnements critiques, comme AIX et IBM i.

En équilibrant innovation propriétaire et ouverture, IBM sera en mesure de proposer une plateforme puissante et polyvalente qui séduira un large éventail d’utilisateurs. Le succès de Power11 dépendra de la capacité d’IBM à concilier innovation et collaboration avec des partenaires externes.

Avez-vous besoin d’aide avec IBM Power ?

Contactez SIXE; nous ne sommes pas seulement experts dans tout ce qui fonctionne sur les serveurs Power, mais également des promoteurs actifs et membres de la communauté IBM Champions. Nous possédons une expertise approfondie en virtualisation, sécurité, environnements critiques sous AIX, modernisation d’applications avec RPG et IBM i, ainsi que sur les nouveaux cas d’usage de Linux sur Power.

Logo FreeRTOS con TUX de fondo

Linux en temps réel (RTOS) – Fait maintenant partie de ton noyau

Sais-tu que pendant que tu as ouvert ton navigateur pour lire ceci… ton ordinateur a décidé de donner la priorité à ce processus en laissant beaucoup d’autres derrière lui ? Veux-tu savoir comment il fait ? Qu’est-ce que cela signifie lorsque Linux devient un RTOS ? Eh bien, lis la suite et je vais te montrer. Et attention, car si tu t’intéresses au monde de l’OS des pingouins, nous allons te raconter plus d’un fait que tu ne connais peut-être pas...💥.

Comment fonctionne le planificateur du noyau Linux ?

Le planificateur Linux fonctionne comme dans l’exemple ci-dessus : en gros, il décide dans quel état mettre les processus (en cours d’exécution, interruptible, non interruptible, zombie ou arrêté) et leur ordre d’exécution pour améliorer ton expérience. Pour leur ordre d’exécution, chaque processus a un niveau de priorité. Imaginons qu’un processus d’arrière-plan s’exécute et que tu ouvres le navigateur. Le planificateur interrompra ce processus d’arrière-plan et concentrera les ressources sur l’ouverture du navigateur, en veillant à ce qu’il s’exécute rapidement et efficacement.

Le concept d’expropriation (préemption)

Expropriation sur Linux🐧 ? Ce n’est pas ce à quoi tu penses… L’expropriation est une fonctionnalité fondamentale, car elle permet d ‘interrompre les processus si un processus plus prioritaire fait irruption. Dans la version 2.6 de Linux, la possibilité d’exproprier les processusa été ajoutée au noyau, c’est-à-dire que le noyau peut interrompre les processus. Les systèmes qui ne sont pas préemptibles doivent mettre fin à la tâche en cours pour passer à la suivante.

Dans le cas de Linux, depuis la version 2.6.24, c’est le Completely Fair Scheduler (CFS) qui est utilisé comme ordonnanceur. Ce planificateur est régi par la garantie d’un accès “équitable” au processeur.

Ordonnanceur complètement équitable : comment décider quel processus doit être exécuté à quel moment afin d’avoir un accès équitable à l’unité centrale ?

Il existe deux types de priorités : statiques et dynamiques.

  • Static (Niceness) : peut être défini par l’utilisateur. Plus la valeur est faible, plus le programme est important et plus il consomme de temps processeur.
  • Dynamique: ce paramètre est défini en fonction du comportement du programme. Il peut s’agir de programmes liés aux E/S (programmes qui ont besoin de beaucoup de temps processeur car ils sont généralement en attente) ou de programmes liés au processeur (qui ont besoin de moins de temps processeur, car ils effectuent généralement des tâches intensives qui pourraient faire planter d’autres processus).

Comment le planificateur établit-il ses priorités ?

Le système d’exploitation tient à jour deux listes de programmes :

  • Liste 1 : les programmes qui ont encore le temps d’être utilisés.
  • Liste 2 : les programmes qui t’ont fait perdre du temps.

Lorsqu’un programme utilise son temps, le système calcule le temps dont il devrait disposer la prochaine fois et le déplace dans la deuxième liste. Lorsque la première liste devient vide, les deux listes sont échangées. Cela permet au système de fonctionner efficacement. Linux 2.6, avec le noyau entièrement préemptible, a considérablement amélioré la réactivité du système. Désormais, le noyau peut être interrompu sur des tâches de faible priorité pour répondre à des événements prioritaires.

 

PREEMPT_RT dans le noyau Linux

Grâce à une nouvelle mise à jour du noyau, Linux peut être contrôlé avec une précision millimétrique. Un RTOS signifie que le système sera précis pour les tâches critiques, comme dans les centres médicaux. Cependant, Linux n’étant pas prévu pour cela, le fait qu’il fasse désormais partie du noyau apporte certaines fonctionnalités, même si elles n’en font pas un RTOS.

Fonctionnalité Amélioration
Une intégration simple et une maintenance simplifiée
  • Moins de dépendance à l’égard des correctifs externes : accès direct aux mises à niveau sans gestion des correctifs.
  • Une maintenance plus facile : des mises à jour plus faciles et moins de problèmes de compatibilité.
Stabilité et performances améliorées
  • Test et validation : stabilité et performance accrues grâce à des tests rigoureux.
  • Développement continu : amélioration continue des fonctionnalités et des performances.
Accessibilité pour les développeurs
  • Facilité d’utilisation : permettre des fonctionnalités en temps réel plus accessibles.
  • Documentation et soutien : plus de documentation et de soutien dans la communauté.
Concurrence avec les systèmes dédiés
  • Compétitivité accrue : positionner Linux comme une alternative aux RTOS dédiés.
Cas d’utilisation étendus
  • Applications critiques : Adoption de Linux dans les systèmes critiques où la précision est essentielle.

Pourquoi PREEMPT_RT a-t-il mis si longtemps à faire partie du noyau ?

Outre les problèmes financiers et le manque d’intérêt de la communauté pour une approche en temps réel de Linux, un problème technique s’est posé: le printk. Printk es una función que imprime mensajes en el búfer de registro del kernel. El problema con esta función es que producía retrasos cada vez que se llamaba. Este retraso interrumpía el flujo normal del sistema, y alejado este problema, PREEMPT_RT se pudo incorporar al kernel.

En quoi le fait que Linux devienne un système d’exploitation en temps réel te concerne-t-il ?

Pour l’utilisateur moyen: rien. Cependant, si tu es un développeur, cette innovation dans le noyau de Linux sera une avancée avec laquelle il faudra compter. Jusqu’à présent, les développeurs qui ont besoin d’une précision en temps réel optaient pour d’autres systèmes d’exploitation conçus pour cela. Avec la nouvelle fonction PREEMPT_RT intégrée au noyau Linux, cela ne sera plus nécessaire. Cette fonction permet à Linux d’arrêter n’importe quelle tâche pour donner la priorité à une demande en temps réel, ce qui est essentiel pour les applications qui exigent une faible latence.

Cas d’utilisation : sécurité domestique

Imaginons que tu utilises chez toi un assistant vocal qui contrôle à la fois l’éclairage et le système de sécurité. S’il détecte une intrusion alors que tu es chez toi, il devrait activer en priorité les alarmes et te prévenir immédiatement. Dans ce cas, les lumières ou la musique peuvent attendre ; ce qui compte vraiment, c’est ta sécurité. Cette capacité à réagir immédiatement dans les situations critiques peut faire toute la différence.

Pourquoi le temps réel est-il nécessaire ?

Comme nous l’avons vu dans le cas d’utilisation, les RTOS peuvent accomplir des tâches imprévues, et également les accomplir dans des délais spécifiques et prévisibles. Dans les charges de travail qui nécessitent de la précision, les RTOS jouent un rôle essentiel. En l’occurrence, on voit souvent des RTOS dans les applications IoT:

  • Véhicules: Les voitures pionnières comme Tesla peuvent freiner immédiatement si elles détectent un obstacle.
  • Systèmes critiques: dans les avions ou en médecine, les systèmes doivent fonctionner dans des délais stricts.
  • Industrie: Dans les processus industriels, un léger retard peut provoquer des défaillances.
Le rôle de l’IA et de l’apprentissage automatique

L’IA et l’apprentissage automatique jouent également un rôle clé dans les RTOS et l’IoT. Ils pourraient prédire des événements et favoriser une prise de décision rapide et efficace.

Conclusion

En bref, Linux Real Time va enfin devenir une réalité. L’intégration de Linux en tant que système d’exploitation en temps réel marque un tournant et ouvre de nouvelles perspectives pour les tâches critiques dans des secteurs tels que la santé, la robotique et l’IoT. Grâce à la fonction PREEMPT_RT intégrée au noyau, Ubuntu Linux garantit une plus grande précision. Cependant, il ne faut pas oublier que le système d’exploitation Penguin🐧 n’est pas 100 % RTOS, il n’a pas été conçu pour cela. Nous verrons donc si les entreprises adapteront la solution de Canonical à leurs besoins en temps réel, ou si elles continueront à opter pour d’autres solutions telles que FreeRTOS ou Zephyr. Tu veux continuer à te former sur Linux ? Nous te proposons des certifications officielles. Et si tu n’en as pas assez… nous nous adaptons à toi avec des formations personnalisées 👇.

Formation intensive sur les systèmes Linux

Linux est à l’ordre du jour… si tu ne veux pas rester à l’écart des dernières exigences technologiques, nous te recommandons nos cours Canonical Ubuntu 👇.

Formation officielle SIXE chez Canonical, créateur d’Ubuntu

Installer Windows XP sur IBM Power (pour le plaisir)

Pourquoi ne pas émuler d’autres architectures sur Power ?

Lors d’une récente conversation avec ce que j’aime appeler les Magiciens de Power – les responsables techniques derrière cette plateforme incroyable, y compris les inventeurs, architectes, ingénieurs distingués et les équipes incroyables – ils m’ont demandé :

“Pourquoi êtes-vous intéressé par l’émulation ? Qui voudrait émuler d’autres architectures sur Power, et quel est l’intérêt ?”

Ma réponse a été que, dans le monde de l’open-source, beaucoup de choses que nous faisons sont motivées par la curiosité ou même juste pour le plaisir. Alors… pourquoi ne pas installer Windows sur IBM Power ?

La curiosité comme moteur

Il résonne dans ma tête que si un jour je peux m’amuser avec Linux sur ppc64le autant que je le fais sur x86 ou progressivement sur ARM (Mac, Raspberry), cela signifiera que Power pourrait être “la troisième” architecture pour Linux, bien au-delà des cas d’utilisation réels et des charges de travail critiques.

Autrement dit, si je peux faire la même chose sur ppc64le que sur d’autres architectures, je peux utiliser Power pour n’importe quel cas d’utilisation.

Pourquoi avoir des milliers de serveurs x86 gaspillant de l’énergie et occupant de l’espace dans le centre de données alors que nous pouvons avoir quelques serveurs Power faisant le même travail plus efficacement et plus sécuritairement ?

Les clients pourraient dire que c’est pour la compatibilité, pour utiliser des outils standards. Mais l’architecture multiple pourrait être la nouvelle norme, si ce n’est pas déjà le cas.

Je ne veux pas m’attarder trop sur ce sujet aujourd’hui. Plusieurs idées ont été publiées sur le portail IBM et je crois que les équipes de IBM, Debian, Canonical et Red Hat font un excellent travail, que je couvrirais dans des articles futurs.

Il y a eu des mises à jour dans le blog SIXE au cours des derniers mois concernant le travail difficile effectué dans ce domaine, et avec la sortie du nouveau niveau de firmware FW1060, nous avons enfin un support complet de KVM sur PowerVM. C’est équivalent à ce qui existe sur IBM Z/Linux One. Super !

Comme toujours, je voulais repousser la technologie à ses limites, y compris un vieux rêve : faire fonctionner Windows (l'”ennemi” pour les utilisateurs d’AIX et Linux), et dans ce cas, faire fonctionner Windows XP sur un IBM Power10, en utilisant KVM et QEMU.

Préparation

Configurer une LPAR pour exécuter Windows sur IBM Power nécessite des étapes spécifiques, comme l’assignation d’un processeur dédié. Nous devons configurer la LPAR pour être un hôte KVM, ce qui changera la façon dont elle utilise PowerVM pour éviter les frais généraux. Nous devons également assigner au moins un processeur dédié (pas en mode “donneur”, bien sûr). Cela nous donnera 8 threads dédiés pour exécuter nos processeurs virtuels dans KVM. Oui, c’est plus simple et moins puissant que PowerVM avec ses micro-partitions, mais c’est toujours un standard industriel, et tout le monde n’a pas besoin de voler pour aller au travail. N’est-ce pas ?

KVM Capable sélectionné

Choisir la distribution

De mon expérience, le meilleur support pour les expérimentations avec ppc64le tend à être Debian ou Fedora. Dans ce cas, j’ai installé Fedora 40 et l’ai mise à jour avec les derniers niveaux. Ensuite, vous devez installer tous les paquets de virtualisation et le support QEMU pour d’autres architectures. Suivant mon idée de créer des articles interactifs, je vais utiliser virt-manager pour éviter les configurations QEMU complexes. Dans mon environnement, j’ai installé tous les paquets qemu-system-*

commande qemu-system

Pour que Windows détecte nos disques SATA virtuels comme étant utilisables, vous devrez configurer cela. Une fois cela fait, vous pouvez installer ce dont vos disques auront besoin :

dnf install virtio-win-stable

Vous aurez également besoin d’un ISO de Windows XP et de ses numéros de licence. Je recommande de le placer dans /var/lib/libvirtd/images pour qu’il soit automatiquement détecté par virt-manager.

Créer la machine virtuelle (suivez simplement l’assistant)

Assurez-vous de sélectionner x86 comme architecture (QEMU s’en occupera).

Menu création machine virtuelle

 

Gestionnaire de machines virtuelles

Tout comme lors de l’exécution d’AIX sur x86, ne vous attendez pas à ce que ce soit très rapide, bien que cela m’ait pris environ une heure pour installer… à peu près le même temps qu’il aurait fallu sur un PC à l’époque.

Je ne peux pas attendre de revoir MS Messenger ! Profitez de la vidéo et restez à jour en nous suivant !

Autres tests

Que pensez-vous de faire tourner MS PowerShell pour ARM64 dans Docker ? Maintenant, je peux faire un “dir” sur Power, trop cool ! :P

Exécution de MS PowerShell pour ARM64 dans Docker

Conclusion

Le travail effectué pour supporter KVM est, pour moi, la plus grande avancée de ces dernières années en raison des possibilités infinies qu’il ouvre pour la plateforme Power. Le travail pour soutenir KVM ne se limite pas à Linux, mais permet également de nouvelles façons d’expérimenter Windows sur IBM Power, une combinaison puissante et innovante.

D’après ce que j’ai pu tester, tout fonctionne et fonctionne bien. Félicitations à tous ceux qui ont rendu cela possible.
Logo Suse En fondo de SIXE

Comprendre la haute disponibilité (HA) sur SUSE Linux

La haute disponibilité et la continuité des activités sont cruciales pour que les applications et les services restent opérationnels.
Les grappes à haute disponibilité permettent aux services essentiels de continuer à fonctionner, même si les serveurs ou les composants matériels tombent en panne.
SUSE Linux offre un ensemble d’outils robustes pour créer et gérer ces grappes.
Dans cet article, nous explorons l’état actuel de la mise en grappe dans SUSE Linux, en nous concentrant sur les technologies clés telles que Pacemaker, Corosync, DRBD et d’autres.
Celles-ci, à quelques différences près, sont disponibles sur x86 et ppc64le.

Pacemaker : le cerveau de la grappe

Pacemaker est le moteur qui gère les grappes à haute disponibilité dans SUSE Linux.
Sa fonction principale est de gérer les ressources des clusters, en veillant à ce que les services critiques soient opérationnels et se rétablissent rapidement en cas de défaillance. Pacemaker surveille en permanence les ressources (bases de données, services Web, systèmes de fichiers, etc.) et, s’il détecte un problème, migre ces ressources vers d’autres nœuds de la grappe pour les maintenir en état de marche.
Pacemaker se distingue par sa flexibilité et sa capacité à gérer une grande variété de ressources.
Des simples services aux systèmes distribués plus complexes, il est capable de gérer la plupart des scénarios de haute disponibilité dont une entreprise peut avoir besoin.

Corosync : le système nerveux du cluster

Corosync est responsable de la communication entre les nœuds de la grappe.
Il veille à ce que tous les nœuds aient à tout moment la même vision de l’état de la grappe, ce qui est essentiel pour une prise de décision coordonnée.
Il gère également le quorum, qui détermine s’il y a suffisamment de nœuds actifs pour que la grappe fonctionne en toute sécurité.
Si le quorum est perdu, des mesures peuvent être prises pour éviter la perte de données ou même l’arrêt du service.

DRBD : l’épine dorsale des données

DRBD (Distributed Replicated Block Device) est une solution de réplication de stockage au niveau des blocs qui réplique les données entre les nœuds en temps réel.
Avec DRBD, les données d’un serveur sont répliquées sur un autre serveur presque instantanément, créant ainsi une copie exacte.
Ceci est particulièrement utile dans les scénarios où il est crucial que les données critiques soient toujours disponibles, même si un nœud tombe en panne.
Combiné à Pacemaker, DRBD permet aux services de continuer à fonctionner en ayant accès aux mêmes données, même s’ils se trouvent sur des nœuds différents.

Autres technologies clés dans les grappes SUSE Linux

En plus de Pacemaker, Corosync et DRBD, il existe d’autres technologies essentielles pour construire des clusters robustes sur SUSE Linux :

  • SBD (Storage-Based Death) : SBD est un outil de clôture qui permet d’isoler un nœud qui se comporte mal et de l’empêcher de causer des problèmes dans la grappe.
    Pour ce faire, on utilise un dispositif de stockage partagé que les nœuds utilisent pour communiquer leur état.
  • OCF (Open Cluster Framework) : les scripts OCF constituent la base des ressources gérées par Pacemaker.
    Ils définissent comment démarrer, arrêter et vérifier l’état d’une ressource, offrant ainsi la flexibilité nécessaire pour intégrer un large éventail de services dans le cluster.
  • Csync2 : Un outil pour synchroniser les fichiers entre les nœuds d’un cluster.
    Il permet de s’assurer que les fichiers de configuration et autres données critiques sont toujours à jour sur tous les nœuds.

Situation actuelle et tendances futures

Les clusters dans SUSE Linux ont mûri et s’adaptent aux nouvelles demandes des entreprises.
Avec l’adoption croissante des environnements de conteneurs et avec des parties dans différents clouds, les clusters dans SUSE Linux évoluent pour mieux s’y intégrer.
Cela inclut une meilleure prise en charge de l’orchestration des conteneurs et des applications distribuées qui nécessitent une haute disponibilité au-delà de la réplication de deux disques par DRBD et du maintien en vie d’une IP virtuelle :). Toujours est-il qu’aujourd’hui, la combinaison de Pacemaker, Corosync, DRBD et d’autres outils constitue une base solide pour créer des clusters à haute disponibilité qui peuvent évoluer et s’adapter aux besoins de SAP HANA et d’autres solutions qui nécessitent une disponibilité élevée, voire totale. Si tu as besoin d’aide, SIXE peut t’aider.

Fiche d’astuces pour créer et gérer des grappes avec Pacemaker sur SUSE Linux

Voici une modeste feuille de contrôle pour t’aider à créer et à gérer des clusters avec Pacemaker sur SUSE Linux.
Partager, c’est se soucier des autres !

Tâche Commande / Description
Installation des paquets
Installation de Pacemaker et Corosync zypper install -y pacemaker corosync crmsh
Configuration de base
Configure le fichier Corosync /etc/corosync/corosync.conf Édite pour définir le transport, les interfaces et le réseau.
Démarrer les services systemctl start corosync && systemctl start pacemaker
Activer les services au démarrage systemctl enable corosync && systemctl enable pacemaker
Gestion de la grappe
Voir l’état de la grappe crm status
Voir les détails du nœud crm_node -l
Ajouter un nouveau noeud crm node add <nombre_del_nodo>
Ejecter un noeud crm node remove <nombre_del_nodo>
Afficher les journaux de la grappe crm_mon --logfile <ruta_del_log>
Configuration des ressources
Créer une ressource crm configure primitive <nombre_recurso> <tipo_agente> params <parámetros>
Supprimer une ressource crm configure delete <nombre_recurso>
Modifier une ressource crm configure edit <nombre_recurso>
Afficher la configuration complète de la grappe crm configure show
Configuration des groupes et des assemblées
Créer un groupe de ressources crm configure group <nombre_grupo> <recurso1> <recurso2> ...
Crée un ensemble ordonné crm configure colocation <nombre_conjunto> inf: <recurso1> <recurso2>
Créer un ordre d’exécution crm configure order <orden> <recurso1> then <recurso2>
Restrictions et placements
Créer une restriction de placement crm configure colocation <nombre_restricción> inf: <recurso1> <recurso2>
Créer une restriction de localisation crm configure location <nombre_ubicación> <recurso> <puntaje> <nodo>
Basculement et récupération
Forcer la migration d’une ressource crm resource migrate <nombre_recurso> <nombre_nodo>
Efface le statut d’une ressource crm resource cleanup <nombre_recurso>
Désactive temporairement une ressource crm resource unmanage <nombre_recurso>
Activer une ressource après l’avoir désactivée crm resource manage <nombre_recurso>
Configuration avancée
Configure le quorum <`crm configure property no-quorum-policy= freeze
Configurer les clôtures crm configure primitive stonith-sbd stonith:external/sbd params pcmk_delay_max=<tiempo>
Configure le délai d’attente d’une ressource crm configure primitive <nombre_recurso> <tipo_agente> op start timeout=<tiempo> interval=<intervalo>
Validation et test
Valider la configuration de la grappe crm_verify --live-check
Simule une panne crm_simulate --run
Gestion des politiques
Configurer la politique de récupération crm configure rsc_defaults resource-stickiness=<valor>
Configurer la priorité des ressources crm configure resource default-resource-stickiness=<valor>
Arrêter et démarrer le cluster
Arrête la grappe entière crm cluster stop --all
Démarre l’ensemble de la grappe crm cluster start --all

 

Logo Sixe Noticia

SIXE : ton partenaire IBM de confiance

Dans cette ère technologique rapide et complexe, le choix des bons fournisseurs est crucial.
Lorsqu’il s’agit de solutions telles que celles d’IBM, la véritable différence n’est pas la taille de l’entreprise, mais sa capacité technique, son capital humain, son engagement et son niveau de spécialisation.
SIXE Ingeniería est ton partenaire IBM idéal, et nous t’expliquons ici pourquoi.

Expertise technique : qui veux-tu pour concevoir et gérer ton projet ?

Chez SIXE, nous ne sommes pas une entreprise qui revend n’importe quel produit ou service à la recherche d’une marge, en passant le défi technique à quelqu’un d’autre et “bye-bye”.
Nous sommes spécialisés dans des domaines clés tels que la cybersécurité et les infrastructures informatiques critiques.
Contrairement aux grands partenaires d’IBM, qui ont tendance à externaliser la plupart de leurs projets, chez SIXE, chaque tâche est exécutée par nos experts internes. Préfères-tu faire confiance à une entreprise qui sous-traite ou à une équipe qui est directement impliquée dans chaque détail technique ? Notre approche en tant que société d’ingénierie nous permet de concevoir des solutions adaptées aux besoins spécifiques de chaque client.
Nous ne proposons pas de configurations ou de déploiements génériques, mais des solutions adaptées à ce dont ton organisation (et ton équipe) a exactement besoin.
Nous avons une expertise en matière d’infrastructure IBM Power, de stockage, de systèmes d’exploitation (AIX, Red Hat, IBM i, Debian, zOS), de bases de données Informix et DB2, de serveurs d’applications, etc.

Engagement personnalisé : quels soins attends-tu de recevoir ?

Dans les grands cabinets de conseil, les projets deviennent souvent un numéro de plus sur ta liste de clients.
Veux-tu être un client de plus ou préfères-tu un traitement exclusif ?
Chez SIXE, nous offrons un service personnalisé, garantissant que chaque projet reçoit l’attention nécessaire à son bon déroulement et que tu pourras compter sur nous pendant de nombreuses années.
Notre structure agile nous permet de nous adapter rapidement et de travailler côte à côte avec les responsables des systèmes, en veillant à ce que les solutions proposées répondent à tes attentes et à tes besoins.

Innovation et flexibilité

Les grandes entreprises sont souvent prisonnières de processus bureaucratiques qui les empêchent d’innover ou de réagir rapidement aux changements du marché.
Combien de fois es-tu tombé sur des solutions dépassées ou lentes à mettre en œuvre ?
Chez SIXE, nous pouvons nous adapter rapidement et proposer des solutions qui non seulement suivent les dernières tendances, mais les anticipent.
C’est essentiel pour les projets qui nécessitent des réponses rapides et efficaces dans un environnement changeant.
Aussi quand quelque chose, Peu importe si c’est à la mode ou si c’est spectaculaire dans un Power Point, il y a des risques, nous en parlerons et nous te le ferons savoir.

Transparence et contrôle

Lorsque les projets sont externalisés, la transparence et le contrôle sont dilués.
Chez SIXE, tu as la sécurité de savoir exactement qui travaille sur ton projet et comment les ressources sont gérées.
Les grands cabinets de conseil, en raison de leur taille, ont tendance à perdre cette transparence, en déléguant des tâches à des tiers sans que le client ait un réel contrôle sur le processus.
Préfères-tu risquer de perdre la visibilité sur ton projet ou avoir un partenaire qui te tient informé et qui contrôle chaque étape importante ?

Relations à long terme : cherches-tu un fournisseur supplémentaire ou un partenaire stratégique ?

Nous ne cherchons pas à conclure des contrats à court terme ; notre objectif est de construire des relations durables basées sur une relation éthique.
Cela signifie qu’une fois la technologie mise en œuvre, nous restons engagés dans le projet, en offrant une assistance technique, une formation et des conseils chaque fois que cela est nécessaire.
Les grandes entreprises, en revanche, ont tendance à se concentrer sur la mise en œuvre initiale, laissant tout le reste de côté.
En externalisant tout, bien sûr, comme le ferait Homer Simpson.

Retour sur investissement : où va ton argent ?

Dans de nombreux grands cabinets de conseil, une grande partie du budget est consacrée aux frais généraux, avec peu d’impact direct sur la qualité du projet.
Ils n’ont pas de bons ingénieurs au sein de leur personnel parce que leurs dirigeants pensent que l’externalisation des talents techniques réduit les risques et améliore les marges.
Chez SIXE, chaque euro investi se traduit par une valeur réelle, nous n’avons pas de pool de managers et de cadres passant des heures en réunions et repas avec les clients.
Ce que nous avons, c’est une équipe d’ingénieurs reconnue internationalement, engagée auprès de l’entreprise et de ses clients depuis plus de 15 ans.
Nous faisons également partie d’un réseau d’experts reconnu internationalement par IBM.

La différence se situe au niveau de l’exécution

Bien que l’on puisse dire le contraire, la véritable différence dans un projet technologique ne réside pas dans la taille de l’entreprise, mais dans la façon dont chaque projet est exécuté et par qui.
Chez SIXE, nous combinons expertise technique, engagement et transparence, offrant une exécution précise et axée sur les résultats.
Dans un marché saturé d’options, pourquoi ne pas choisir un partenaire qui garantit la qualité, l’innovation et une relation basée sur la collaboration ?
Choisir SIXE comme partenaire IBM, c’est choisir une approche basée sur l’excellence technique et un engagement total sur les résultats.
Ne laisse pas le succès de ton projet entre les mains du hasard, nous sommes un partenaire qui se souciera autant que toi (pour notre bien) du résultat final et de la relation entre nos entreprises à moyen et long terme.

Pas seulement IBM

Bien que 50 % de notre activité soit liée à la formation, au conseil et aux projets d’infrastructure d’IBM, nous sommes également un partenaire stratégique de Canonical (Ubuntu), Red Hat et SUSE.

Qu’en est-il de tes concurrents ?

La vérité est que nous ne le faisons pas parce qu’il n’y a pas d’autre entreprise de notre taille avec notre niveau de spécialisation dans les solutions que nous offrons.
Il existe d’autres petites et moyennes entreprises dotées d’un incroyable capital humain qui complètent les technologies sur lesquelles nous travaillons et avec lesquelles nous collaborons toujours, mais nous ne sommes jamais en concurrence.
Lorsque nous ne savons pas comment faire quelque chose, nous demandons toujours de l’aide et nous le faisons savoir à nos clients. Cela fait partie de notre ADN.

SIXE
×