Pictograma de servidor con texto de Power11 en SIXE

IBM Power11 : ce que nous savons jusqu’à présent

Poste constamment mis à jour (basé exclusivement sur les opinions et les attentes de SIXE).

L’évolution de l’architecture Power a toujours été un sujet de curiosité et de débat dans notre communauté. Avec chaque nouvelle génération, IBM cherche à équilibrer l’innovation avec les demandes du marché, mais pas toujours avec l’impact escompté…. Alors que Power11 arrive à grands pas, nous jetons un coup d’œil sur ce qu’il apportera et sur les leçons qu’IBM en a tirées.🙄 Voici également ce que nous souhaitons pour Power11 (si seulement les souhaits pouvaient se réaliser… ).

Quels sont les modèles qui seront commercialisés ?

Nous prévoyons, comme pour Power10, des modèles à 1, 2, 4 et jusqu’à 16 prises. Avec des équivalents aux S1012, S1022, S1024, E1050 ou E1080, ces futurs modèles seront bientôt dévoilés, ainsi que les métriques rPerf pour comprendre l’équivalence avec les modèles actuels et ceux qu’ils remplaceront.

Depuis 2010, chaque génération de Power a répondu à un marché en pleine évolution. Avec l’avènement de DeepSeek et des nouvelles IA “optimisées”, davantage d’options apparaissent pour l’inférence sans dépendre des GPU NVIDIA. En fait, l’une des CONFIRMÉE EST L’INTÉGRATION DE L’ACCÉLÉRATEUR NVIDIA est l’intégration de l’accélérateur Spyre d’IBM.

Pourquoi l’accélérateur IBM Spyre est-il important ?

Image du coprocesseur spyre Tout ce que nous savons sur IBM Power11

Ce composant, conçu pour l’IA, promet de révolutionner le traitement de l’IA générative et des modèles complexes et de s’intégrer à différents cas d’utilisation dans IBM Power. De l’aide à la modernisation du code RPG aux fonctionnalités avancées de l’IA dans DB2, sans oublier toutes les possibilités de l’Open Source sur ppc64le (Linux on Power) et du calcul à haute performance (HPC). Ce dernier est un segment où nous nous attendons à voir Power redevenir une alternative, grâce à son énorme bande passante entre les processeurs, la mémoire et les accélérateurs, surpassant x86 et ARM pour une fraction du prix d’un GPU NVIDIA haut de gamme et avec une mémoire beaucoup plus limitée….

Innovations du processeur Power11

Power11 augmente la vitesse d’horloge et ajoute 25 % de cœurs supplémentaires par puce par rapport à Power10. Ce processeur continue d’améliorer les capacités clés que nous avons introduites avec Power10, telles que l’amélioration de la fiabilité, de la disponibilité et de la facilité d’entretien (RAS), une meilleure efficacité énergétique et une meilleure gestion de l’énergie, ainsi qu’une sécurité quantique.

Innovation dans les technologies de fabrication des processeurs

Nous savons que le processeur Power11 profitera de la nouvelle technologie des condensateurs empilés intégrés (ISC), ainsi que d’innovations en matière de refroidissement, telles que des dissipateurs thermiques améliorés et des ventilateurs plus efficaces. Cela permet d’optimiser la puissance, de booster les cœurs et d’augmenter la capacité de calcul du système.

Mémoire DDR5 : Meilleures performances

L’intégration de la mémoire DDR5, ainsi que la poursuite de l’architecture de mémoire ouverte (OMI), renforce la stratégie de Power11, en la positionnant comme une plateforme non seulement plus puissante, mais aussi plus économe en énergie. La mémoire DDR5 offre des performances supérieures et une plus grande bande passante, ce qui permettra à Power11 de gérer des charges de travail plus exigeantes sans sacrifier l’efficacité énergétique. La prise en charge de la mémoire DDR5 a également été confirmée pour les Power10 (et peut-être aussi pour la DDR4), ce qui permet de réutiliser la mémoire du matériel remis à neuf. De plus, nous sommes à la veille de l’arrivée de la mémoire DDR6, qui pourrait mettre les futurs serveurs Power encore plus en avant si elle est intégrée à l’avenir.

Quel rôle joue KVM dans Power11 ?

Un aspect clé de l’alimentation du Power11 est son intégration avec KVM (Kernel-based Virtual Machine) ; la norme de facto pour la virtualisation dans les environnements Linux et la base de technologies telles que Nutanix AHV ou Oracle Exadata. En intégrant KVM, Power11 pourrait fournir un support complet pour les machines virtuelles Linux et se consolider ainsi en tant que plateforme plus ouverte et plus évolutive. Depuis Power10, KVM fonctionne déjà au sein de PowerVM, ce qui permet d’allouer des ressources système partielles ou complètes à un hôte Linux, où il est possible de déployer des outils de virtualisation natifs tels que LXD de Canonical. Cette flexibilité le rend adapté aux environnements hybrides, comme l’intégration de nœuds Power (architecture ppc64le) dans les déploiements OpenStack . Cela facilite la coexistence de charges de travail hétérogènes. Cependant, KVM ne remplace pas PowerVM, l’hyperviseur gratuit (et encore plus performant) par défaut, dont nous avons déjà parlé dans d’autres articles. nous en avons déjà parlé dans d’autres articles.

Conclusion

Power11 n’est pas seulement une nouvelle génération de matériel ; c’est l’occasion pour IBM de réorienter sa stratégie et de renforcer son lien avec sa communauté. En équilibrant l’innovation technologique avec une approche ouverte et collaborative, elle pourrait offrir une plateforme polyvalente, puissante et, surtout, pertinente pour un marché qui exige de la flexibilité et une innovation constante qui apporte de la valeur à nos clients.

Tu veux en savoir plus sur la façon dont Power peut transformer ton infrastructure ? Chez SIXE, nous sommes experts en tout ce qui concerne Power, que tu aies ton architecture en place ou que tu veuilles migrer.

imagen empresa sostenible, blog de SIXE

IBM Power9 : Mettre à niveau ou maintenir ? Que faire après la fin de l’assistance officielle ?

Mon Power9 est-il obsolète, devons-nous passer à Power10 ou Power11 ?

Arrête-toi un instant, ne te précipite pas. Voici les 4 clés qui expliquent pourquoi l’entretien de tes systèmes Power9 pourrait être la meilleure chose à faire pour ton entreprise et l’environnement.

IBM a annoncé la fin de la prise en charge des systèmes Power9 à partir du 31 janvier 2026. Cela s’accompagne d’un message clair : passe aux modèles Power10 ou attends le nouveau Power11. Mais as-tu vraiment besoin de mettre à niveau tes systèmes maintenant ? Chez SIXE, nous pensons que les Power9 peuvent continuer à fonctionner parfaitement bien s’ils sont gérés correctement. Prendre des décisions hâtives sans évaluer les options peut s’avérer coûteux, à la fois pour ton entreprise et pour l’environnement.

Le dilemme de Power9 : renouveler ou maintenir ?

Il est vrai que les systèmes plus récents offrent des améliorations significatives en termes de performance et d’efficacité. Cependant, la fabrication de nouveaux serveurs génère une grande quantité d’émissions de CO2 et augmente la demande de matériaux rares et ne compense PAS les émissions. Au lieu de cela, l’entretien et l’optimisation de tes Power9 peuvent être une option beaucoup plus durable et rentable. Voici pourquoi :

1) Pourquoi la fabrication de nouveaux serveurs n’est-elle pas durable ?

La mise à niveau vers de nouveaux serveurs s’accompagne d’un coût environnemental important. Même si les systèmes Power11 seront plus efficaces, la fabrication du matériel génère des tonnes d’émissions de CO2. Ton Power9, avec un entretien adéquat, peut rester fonctionnel et moins nocif pour l’environnement. Nous te le montrons avec l’exemple d’infomaniak:


les tableaux de comparaison de la pollution en changeant de matériel informatique

Comme le montre le graphique, prolonger la durée de vie des serveurs en mettant à niveau des composants clés, tels que le processeur ou la mémoire, peut réduire considérablement l’impact sur l’environnement. Cela contribue également à l’ économie circulaire en évitant le gaspillage des ressources.

Solution : opte pour des stratégies de maintenance préventive et des mises à niveau des composants pour optimiser la durée de vie de ton Power9.


2. les avantages de la virtualisation dans Power9

Le manque de virtualisation et de consolidation des serveurs augmente la consommation d’énergie et la production de déchets. Grâce aux outils de virtualisation, tes Power9 peuvent fonctionner beaucoup plus efficacement, ce qui réduit le besoin de nouveaux équipements et l’impact environnemental associé.

Solution : mettre en place des solutions de virtualisation pour optimiser l’utilisation de tes ressources. Chez SIXE, nous proposons des formations à la virtualisation sous Linux et VMware pour t’aider à maximiser les performances de ton infrastructure.


3. mesurer et gérer l’impact sur l’environnement

Sans mesurer l’impact de tes activités, il est impossible d’optimiser tes ressources et de réduire ton empreinte carbone. Les systèmes Power9 peuvent être évalués pour identifier les possibilités d’amélioration de l’efficacité et de la durabilité.

  • Audits énergétiques : identifie les zones de forte consommation et les possibilités d’optimisation.
  • Analyse du cycle de vie : analyse la situation actuelle de ton serveur Power. Cela te permet d’évaluer l’impact environnemental de tes serveurs depuis leur fabrication jusqu’à leur remplacement.

Solution : effectue des audits réguliers et utilise des outils de mesure tels que IBM Cloud Carbon Calculator ou IBM Systems Energy Estimator pour gérer l’impact de ton infrastructure informatique.

 


4. Impact économique d’une décision hâtive

Se précipiter pour renouveler l’équipement n’est peut-être pas rentable si les serveurs IBM Power9 répondent encore aux besoins actuels de ton entreprise. Avant d’investir dans de nouveaux systèmes, il est essentiel d’analyser le retour sur investissement (ROI) pour déterminer si la mise à niveau est financièrement justifiable.

  • Coûts d’acquisition et d’entretien : l’achat de nouveaux serveurs (power10, power11) implique un coût initial élevé. Cependant, les serveurs plus classiques, moyennant un entretien adéquat, peuvent continuer à fonctionner efficacement, ce qui permet d’éviter cette dépense.
  • Long cycle de vie : Grâce à une évaluation du cycle de vie, leur durée de vie peut être correctement prolongée (par exemple en améliorant les composants). Cela signifie que, moyennant une optimisation, ils peuvent constituer une solution viable à long terme.
  • Capacité actuelle vs. besoins futurs : si le Power9 gère encore efficacement les charges de travail actuelles, une mise à niveau immédiate peut s’avérer inutile. Effectue une analyse de performance peut être déterminante.

Solution : Évalue le retour sur investissement du renouvellement de tes serveurs par rapport à leur remplacement. Dans de nombreux cas, l’entretien et l’optimisation de tes Power9 peuvent être l’option la plus rentable et la plus durable pour ton entreprise.


Conclusion

La fin du support des systèmes IBM Power9 ne signifie pas que tu dois te précipiter pour les remplacer par le prochain Power11. Avec les bonnes stratégies, tes Power9 peuvent rester une solution durable et efficace. Notre recommandation est d’évaluer le cas spécifique de ton infrastructure. Avant de prendre une décision, considère l’impact environnemental et économique du renouvellement de ton infrastructure. Chez SIXE, nous t’aidons à optimiser tes systèmes et à faire le premier pas vers une technologie plus durable. Contacte-nous pour un audit.

TUX realizando un Healthcheck a AIX de IBM

Pourquoi est-il crucial d’effectuer un healtcheck d’AIX ?

Sais-tu que de nombreux systèmes AIX fonctionnent bien jusqu’à ce qu’ils cessent soudainement de fonctionner ?😱

Ce qui est amusant, c’est que les problèmes donnent presque toujours un avertissement, mais… les écoutes-tu ? 🤔 Si tu veux découvrir comment un simple bilan de santé peut t’aider à détecter ces avertissements précoces et à prévenir les défaillances critiques avant que ton AIX n'”implose”, lis la suite.👇

La health- quoi ?

Un healthcheck est un examen rapide et préliminaire de l’état d’un système. Son principal objectif est de donner un aperçu des performances, de la stabilité et de la sécurité du système afin d’identifier les domaines qui nécessitent une attention immédiate. Contrairement à un audit complet, qui est beaucoup plus détaillé et approfondi, le healthcheck est une étape initiale qui permet de déterminer “l’état de santé” du système de manière agile et efficace. Et en plus… Chez SIXE, nous réalisons des bilans de santé. Demande-le ici


Quel est l’objectif d’un healthcheck d’AIX ?

Le bilan de santé AIX est une évaluation technique axée sur l’examen des aspects clés du système, tels que l’utilisation des ressources, la santé du matériel, les journaux d’erreurs et la sécurité de base. Ce processus permet d’identifier les problèmes potentiels et les priorités d’intervention sans entrer dans le niveau de détail d’un audit complet. Voici quelques points clés couverts par un bilan de santé AIX:

  • Performance globale : Évaluation de l’utilisation de l’unité centrale, de la mémoire et du stockage pour identifier les goulets d’étranglement et les domaines à améliorer.
  • État du matériel : détection des défauts ou des composants dégradés qui peuvent affecter la stabilité du système.
  • Erreurs récurrentes : Examen des journaux du système (errpt, syslog) pour identifier les modèles d’erreurs et d’anomalies qui peuvent indiquer des problèmes sous-jacents.
  • Conformité à la sécurité de base : vérification des paramètres clés tels que l’accès, les permissions des utilisateurs et les politiques de mot de passe, pour s’assurer que le système est protégé contre les accès non autorisés.

Cette analyse préliminaire est particulièrement utile pour les entreprises qui ont besoin d’un diagnostic initial pour déterminer les aspects à aborder ultérieurement, soit par une optimisation spécifique, soit par un audit complet.


Pourquoi effectuer un healthcheck d’AIX ?

1. identifier rapidement les problèmes critiques

Le healthcheck sert d’alerte précoce pour détecter les défauts ou les faiblesses qui pourraient entraîner des perturbations majeures. Par exemple :

  • Les processus qui consomment trop de ressources.
  • Les configurations dangereuses ou inappropriées.
  • État des disques durs, de la mémoire et des autres composants critiques du système.

2. Optimiser les ressources

Il te permet de trouver les configurations qui limitent les performances du système, comme une utilisation excessive de l’unité centrale ou un stockage mal réparti. Cela aide à faire des ajustements rapides qui améliorent l’opérabilité sans avoir recours à des mesures plus complexes.

3. Fixer les priorités

Le résultat du healthcheck fournit un point de départ clair pour planifier les actions futures : de la mise en place de correctifs à un audit plus détaillé.

Outils utiles pour un healthcheck d’AIX

Voici quelques outils et commandes qui peuvent simplifier le processus :

  • nmon: pour une analyse détaillée des performances.
  • errpt: pour identifier les erreurs matérielles et logicielles.
  • topas: pour surveiller les ressources en temps réel.
  • PowerSC: Pour revoir les paramètres de sécurité.

Tutoriel NMON pour la surveillance de Linux et AIX

À quoi s’attendre en tant que client du healthcheck d’AIX ?

Comment fonctionne un healthcheck AIX, que dois-je demander, en quoi cela va-t-il m’aider ? En tant que client, tu recevras un rapport détaillé sur l’état de ton environnement en termes de sécurité, de performance, de disponibilité et de suggestions d’amélioration. Le processus comprend des recommandations claires et pratiques pour optimiser ton système, améliorer la sécurité et garantir que ton AIX fonctionne efficacement. Ce rapport t’aidera non seulement à prévenir les problèmes futurs, mais il te fournira également un plan d’action concret pour améliorer les performances et maintenir ton infrastructure protégée et opérationnelle.


Conclusion

Un healtcheck est la première étape pour s’assurer qu’un système fonctionne correctement et efficacement. Il agit comme un “healthcheck” qui identifie les problèmes et les priorités, fournissant ainsi une base solide pour des décisions plus complexes, telles qu’un audit complet ou l’optimisation des ressources. En bref, effectuer cet examen simple et rapide permet de gagner du temps, d’éviter des problèmes majeurs et de s’assurer que le système est dans un état optimal pour répondre aux besoins opérationnels de l’organisation. Si tu veux que nous effectuions un healtcheck de ton système AIX , tu peux en faire la demande ici https://sixe.es/sistemas/consultoria/healthcheck-de-sistemas-aix

Pictograma de servidor con texto de Power11 en SIXE

Qu’attendons-nous d’IBM Power11?

L’évolution de l’architecture Power d’IBM a fait l’objet d’un débat intense dans la communauté technologique. Au cours des dernières années, cette architecture a subi d’importants changements stratégiques qui ont suscité autant de critiques que d’attentes. Comme pour KVM, nous avons presque deviné tout ce qu’IBM allait annoncer; tentons une deuxième fois notre chance avec Power11. Dans ce cas, nous n’avons pas les listes de kernel.org pour nous donner des indices, mais nous avons 10 ans de trajectoire depuis Power8 et un marché avec des demandes très claires pour des architectures alternatives à x86, d’autant plus quand… Intel traverse l’un des pires moments de son histoire..

Contexte et un peu d’histoire

Avec Power8 sont arrivés les systèmes Power OEM/LC, les GPU NVIDIA, le connecteur NVLink et la possibilité d’une première version de KVM sur Power(à ne pas confondre avec l’annonce de 2024). Cependant, dans la pratique, les défis l’ont emporté sur les opportunités… et nous en resterons là 🙂. Certains estimaient qu’IBM était en avance sur le marché, tandis que d’autres estimaient qu’il n’y avait pas assez de solutions soutenues et éprouvées sur ces serveurs pour obtenir l’impact escompté ; on parlait même d’une adoption massive par Google ou Rackspace. Power9 a représenté une étape importante dans la stratégie d’IBM en offrant une architecture plus ouverte et accessible à la communauté. Par l’intermédiaire de la fondation OpenPOWER, IBM a publié une grande partie des spécifications et des technologies associées à Power9, permettant ainsi à des tiers de concevoir et de construire leurs propres systèmes basés sur cette architecture, à l’instar de ce qui se fait avec ARM ou x86. Des entreprises telles que Raptor Computing Systems ont développé des systèmes basés sur Power9 en utilisant des micrologiciels et des logiciels open source, offrant ainsi des plateformes hautement vérifiables et contrôlables par l’utilisateur. Cependant, pour la génération suivante, les retards de développement – peut-être exacerbés par la pandémie de COVID-19 – ont conduit IBM, lors du lancement de Power10, àaccorder des licences sur des blocs de propriété intellectuelle de Synopsys pour des composants tels que le DDR4/5 PHY et PCIe 5.0. Cette décision a introduit des microprogrammes propriétaires dans le système, rompant avec la tradition d’ouverture établie avec Power9 et limitant la participation de la communauté au développement de ces technologies. De plus, les changements dans la stratégie de NVIDIA depuis Power9 visant à utiliser des architectures alternatives telles que les GPU basés sur ARM ont rendu difficile le retour des GPU dans Power. En fait, dans Power10, le passage à l’inférence dans le cœur du processeur, sans s’appuyer sur les GPU, a été une réponse stratégique qui a permis au traitement de l’IA de se faire directement sur le processeur.

Avec l’arrivée potentielle de Power11, on s’attend à ce qu’IBM relève les défis précédents et aligne sa stratégie sur les demandes actuelles du marché. Cela implique de réintégrer les GPU et autres accélérateurs, d’améliorer la prise en charge des charges de travail open source et des applications Linux, et de poursuivre le développement d’AIX et d’IBM i en tant qu’éléments centraux de l’écosystème Power.

Imagen de IBM Power desde 2010 en adelante explica las características de cada IBM Power

Nos attentes

Les décisions prises autour de Power10 ont eu des répercussions notables sur la communauté et le marché. L’abandon d’une architecture ouverte a suscité des doutes parmi les développeurs et les entreprises qui privilégient la transparence et le développement collaboratif. Des concurrents avec des architectures ouvertes, tels que RISC-V, ont gagné du terrain en offrant la liberté et la flexibilité que Power10 n’a pas su apporter. Cela met en lumière l’importance de l’ouverture comme avantage compétitif dans un paysage technologique en perpétuelle évolution, où les solutions open source dominent les nouvelles charges de travail.

Pour Power11, les attentes sont claires : IBM doit répondre aux préoccupations soulevées. Chez SIXE, nous prônons un retour à des pratiques de développement ouvertes, garantissant l’accès au code source des micrologiciels et aux spécifications techniques, afin de favoriser une collaboration plus large et une innovation renforcée. Nous espérons que Power11 corrigera les insuffisances de Power10 en reprenant le contrôle du développement de composants clés, tels que les interfaces DDR PHY et PCIe, et en réduisant la dépendance à la propriété intellectuelle de fournisseurs tiers. Cela permettrait à IBM de se réaligner sur les attentes de la communauté et de tirer parti de l’expérience collective des développeurs et des entreprises attachées aux principes open source.

La réintégration des GPU et autres accélérateurs est tout aussi cruciale pour répondre à la demande croissante d’une informatique hétérogène. En prenant en charge une gamme d’accélérateurs – y compris les GPU, FPGA, et processeurs spécialisés dans l’intelligence artificielle – IBM pourrait proposer des solutions flexibles et puissantes, adaptées à des charges de travail spécifiques. Cette approche correspond aux tendances de l’industrie, qui favorisent des architectures modulaires et évolutives, capables de répondre à des exigences computationnelles complexes et changeantes.

Le renforcement du support pour les charges de travail open source et l’expansion de la compatibilité avec les applications Linux seront essentiels à l’adoption de Power11. Assurer une intégration fluide avec les cadres et outils open source attirera une communauté de développeurs plus large, facilitant ainsi la migration des applications existantes vers la plateforme Power. Cette stratégie stimule l’innovation et répond à la demande du marché pour des solutions à la fois flexibles et rentables.

Enfin, nous souhaitons voir comment ces innovations matérielles pourront être exploitées par AIX et IBM i, démontrant ainsi l’engagement de IBM envers sa vaste base de clients. Il est essentiel que les entreprises qui reposent sur ces systèmes d’exploitation bénéficient des avancées de Power11 pour leurs systèmes critiques, sans compromettre la stabilité, la performance, la compatibilité ou la disponibilité.

Conclusion

S’il y a une chose dont nous sommes convaincus, c’est qu’il n’existe pas de système d’exploitation ou d’architecture unique capable de répondre à toutes les charges de travail. Ce qui est véritablement précieux pour les clients Power, c’est la possibilité d’intégrer sur une même machine les bases de données stratégiques sous AIX ou IBM i, les clouds privés avec KVM, les frontaux avec Kubernetes sur Linux, et, à l’avenir, espérons-le, des charges de travail en IA, ML, HPC, et plus encore.

Chez SIXE, nous pensons qu’il n’y a pas de solution universelle, tout comme il n’existe pas de musique parfaite pour chaque moment. Pas de système d’exploitation, de base de données ou de langage de programmation universels. Avec Power, nous pouvons tout avoir, et c’est pourquoi nous l’apprécions tant. Pour nous, Power11 représente une occasion pour IBM de réajuster sa stratégie : intégrer des GPU et des accélérateurs pour répondre aux besoins du calcul haute performance, améliorer le support des charges de travail open source et des applications Linux, tout en poursuivant le développement de ses systèmes d’exploitation de pointe pour les environnements critiques, comme AIX et IBM i.

En équilibrant innovation propriétaire et ouverture, IBM sera en mesure de proposer une plateforme puissante et polyvalente qui séduira un large éventail d’utilisateurs. Le succès de Power11 dépendra de la capacité d’IBM à concilier innovation et collaboration avec des partenaires externes.

Avez-vous besoin d’aide avec IBM Power ?

Contactez SIXE; nous ne sommes pas seulement experts dans tout ce qui fonctionne sur les serveurs Power, mais également des promoteurs actifs et membres de la communauté IBM Champions. Nous possédons une expertise approfondie en virtualisation, sécurité, environnements critiques sous AIX, modernisation d’applications avec RPG et IBM i, ainsi que sur les nouveaux cas d’usage de Linux sur Power.

Logo FreeRTOS con TUX de fondo

Linux en temps réel (RTOS) – Fait maintenant partie de ton noyau

Sais-tu que pendant que tu as ouvert ton navigateur pour lire ceci… ton ordinateur a décidé de donner la priorité à ce processus en laissant beaucoup d’autres derrière lui ? Veux-tu savoir comment il fait ? Qu’est-ce que cela signifie lorsque Linux devient un RTOS ? Eh bien, lis la suite et je vais te montrer. Et attention, car si tu t’intéresses au monde de l’OS des pingouins, nous allons te raconter plus d’un fait que tu ne connais peut-être pas...💥.

Comment fonctionne le planificateur du noyau Linux ?

Le planificateur Linux fonctionne comme dans l’exemple ci-dessus : en gros, il décide dans quel état mettre les processus (en cours d’exécution, interruptible, non interruptible, zombie ou arrêté) et leur ordre d’exécution pour améliorer ton expérience. Pour leur ordre d’exécution, chaque processus a un niveau de priorité. Imaginons qu’un processus d’arrière-plan s’exécute et que tu ouvres le navigateur. Le planificateur interrompra ce processus d’arrière-plan et concentrera les ressources sur l’ouverture du navigateur, en veillant à ce qu’il s’exécute rapidement et efficacement.

Le concept d’expropriation (préemption)

Expropriation sur Linux🐧 ? Ce n’est pas ce à quoi tu penses… L’expropriation est une fonctionnalité fondamentale, car elle permet d ‘interrompre les processus si un processus plus prioritaire fait irruption. Dans la version 2.6 de Linux, la possibilité d’exproprier les processusa été ajoutée au noyau, c’est-à-dire que le noyau peut interrompre les processus. Les systèmes qui ne sont pas préemptibles doivent mettre fin à la tâche en cours pour passer à la suivante.

Dans le cas de Linux, depuis la version 2.6.24, c’est le Completely Fair Scheduler (CFS) qui est utilisé comme ordonnanceur. Ce planificateur est régi par la garantie d’un accès “équitable” au processeur.

Ordonnanceur complètement équitable : comment décider quel processus doit être exécuté à quel moment afin d’avoir un accès équitable à l’unité centrale ?

Il existe deux types de priorités : statiques et dynamiques.

  • Static (Niceness) : peut être défini par l’utilisateur. Plus la valeur est faible, plus le programme est important et plus il consomme de temps processeur.
  • Dynamique: ce paramètre est défini en fonction du comportement du programme. Il peut s’agir de programmes liés aux E/S (programmes qui ont besoin de beaucoup de temps processeur car ils sont généralement en attente) ou de programmes liés au processeur (qui ont besoin de moins de temps processeur, car ils effectuent généralement des tâches intensives qui pourraient faire planter d’autres processus).

Comment le planificateur établit-il ses priorités ?

Le système d’exploitation tient à jour deux listes de programmes :

  • Liste 1 : les programmes qui ont encore le temps d’être utilisés.
  • Liste 2 : les programmes qui t’ont fait perdre du temps.

Lorsqu’un programme utilise son temps, le système calcule le temps dont il devrait disposer la prochaine fois et le déplace dans la deuxième liste. Lorsque la première liste devient vide, les deux listes sont échangées. Cela permet au système de fonctionner efficacement. Linux 2.6, avec le noyau entièrement préemptible, a considérablement amélioré la réactivité du système. Désormais, le noyau peut être interrompu sur des tâches de faible priorité pour répondre à des événements prioritaires.

 

PREEMPT_RT dans le noyau Linux

Grâce à une nouvelle mise à jour du noyau, Linux peut être contrôlé avec une précision millimétrique. Un RTOS signifie que le système sera précis pour les tâches critiques, comme dans les centres médicaux. Cependant, Linux n’étant pas prévu pour cela, le fait qu’il fasse désormais partie du noyau apporte certaines fonctionnalités, même si elles n’en font pas un RTOS.

Fonctionnalité Amélioration
Une intégration simple et une maintenance simplifiée
  • Moins de dépendance à l’égard des correctifs externes : accès direct aux mises à niveau sans gestion des correctifs.
  • Une maintenance plus facile : des mises à jour plus faciles et moins de problèmes de compatibilité.
Stabilité et performances améliorées
  • Test et validation : stabilité et performance accrues grâce à des tests rigoureux.
  • Développement continu : amélioration continue des fonctionnalités et des performances.
Accessibilité pour les développeurs
  • Facilité d’utilisation : permettre des fonctionnalités en temps réel plus accessibles.
  • Documentation et soutien : plus de documentation et de soutien dans la communauté.
Concurrence avec les systèmes dédiés
  • Compétitivité accrue : positionner Linux comme une alternative aux RTOS dédiés.
Cas d’utilisation étendus
  • Applications critiques : Adoption de Linux dans les systèmes critiques où la précision est essentielle.

Pourquoi PREEMPT_RT a-t-il mis si longtemps à faire partie du noyau ?

Outre les problèmes financiers et le manque d’intérêt de la communauté pour une approche en temps réel de Linux, un problème technique s’est posé: le printk. Printk es una función que imprime mensajes en el búfer de registro del kernel. El problema con esta función es que producía retrasos cada vez que se llamaba. Este retraso interrumpía el flujo normal del sistema, y alejado este problema, PREEMPT_RT se pudo incorporar al kernel.

En quoi le fait que Linux devienne un système d’exploitation en temps réel te concerne-t-il ?

Pour l’utilisateur moyen: rien. Cependant, si tu es un développeur, cette innovation dans le noyau de Linux sera une avancée avec laquelle il faudra compter. Jusqu’à présent, les développeurs qui ont besoin d’une précision en temps réel optaient pour d’autres systèmes d’exploitation conçus pour cela. Avec la nouvelle fonction PREEMPT_RT intégrée au noyau Linux, cela ne sera plus nécessaire. Cette fonction permet à Linux d’arrêter n’importe quelle tâche pour donner la priorité à une demande en temps réel, ce qui est essentiel pour les applications qui exigent une faible latence.

Cas d’utilisation : sécurité domestique

Imaginons que tu utilises chez toi un assistant vocal qui contrôle à la fois l’éclairage et le système de sécurité. S’il détecte une intrusion alors que tu es chez toi, il devrait activer en priorité les alarmes et te prévenir immédiatement. Dans ce cas, les lumières ou la musique peuvent attendre ; ce qui compte vraiment, c’est ta sécurité. Cette capacité à réagir immédiatement dans les situations critiques peut faire toute la différence.

Pourquoi le temps réel est-il nécessaire ?

Comme nous l’avons vu dans le cas d’utilisation, les RTOS peuvent accomplir des tâches imprévues, et également les accomplir dans des délais spécifiques et prévisibles. Dans les charges de travail qui nécessitent de la précision, les RTOS jouent un rôle essentiel. En l’occurrence, on voit souvent des RTOS dans les applications IoT:

  • Véhicules: Les voitures pionnières comme Tesla peuvent freiner immédiatement si elles détectent un obstacle.
  • Systèmes critiques: dans les avions ou en médecine, les systèmes doivent fonctionner dans des délais stricts.
  • Industrie: Dans les processus industriels, un léger retard peut provoquer des défaillances.
Le rôle de l’IA et de l’apprentissage automatique

L’IA et l’apprentissage automatique jouent également un rôle clé dans les RTOS et l’IoT. Ils pourraient prédire des événements et favoriser une prise de décision rapide et efficace.

Conclusion

En bref, Linux Real Time va enfin devenir une réalité. L’intégration de Linux en tant que système d’exploitation en temps réel marque un tournant et ouvre de nouvelles perspectives pour les tâches critiques dans des secteurs tels que la santé, la robotique et l’IoT. Grâce à la fonction PREEMPT_RT intégrée au noyau, Ubuntu Linux garantit une plus grande précision. Cependant, il ne faut pas oublier que le système d’exploitation Penguin🐧 n’est pas 100 % RTOS, il n’a pas été conçu pour cela. Nous verrons donc si les entreprises adapteront la solution de Canonical à leurs besoins en temps réel, ou si elles continueront à opter pour d’autres solutions telles que FreeRTOS ou Zephyr. Tu veux continuer à te former sur Linux ? Nous te proposons des certifications officielles. Et si tu n’en as pas assez… nous nous adaptons à toi avec des formations personnalisées 👇.

Formation intensive sur les systèmes Linux

Linux est à l’ordre du jour… si tu ne veux pas rester à l’écart des dernières exigences technologiques, nous te recommandons nos cours Canonical Ubuntu 👇.

Formation officielle SIXE chez Canonical, créateur d’Ubuntu

Installer Windows XP sur IBM Power (pour le plaisir)

Pourquoi ne pas émuler d’autres architectures sur Power ?

Lors d’une récente conversation avec ce que j’aime appeler les Magiciens de Power – les responsables techniques derrière cette plateforme incroyable, y compris les inventeurs, architectes, ingénieurs distingués et les équipes incroyables – ils m’ont demandé :

“Pourquoi êtes-vous intéressé par l’émulation ? Qui voudrait émuler d’autres architectures sur Power, et quel est l’intérêt ?”

Ma réponse a été que, dans le monde de l’open-source, beaucoup de choses que nous faisons sont motivées par la curiosité ou même juste pour le plaisir. Alors… pourquoi ne pas installer Windows sur IBM Power ?

La curiosité comme moteur

Il résonne dans ma tête que si un jour je peux m’amuser avec Linux sur ppc64le autant que je le fais sur x86 ou progressivement sur ARM (Mac, Raspberry), cela signifiera que Power pourrait être “la troisième” architecture pour Linux, bien au-delà des cas d’utilisation réels et des charges de travail critiques.

Autrement dit, si je peux faire la même chose sur ppc64le que sur d’autres architectures, je peux utiliser Power pour n’importe quel cas d’utilisation.

Pourquoi avoir des milliers de serveurs x86 gaspillant de l’énergie et occupant de l’espace dans le centre de données alors que nous pouvons avoir quelques serveurs Power faisant le même travail plus efficacement et plus sécuritairement ?

Les clients pourraient dire que c’est pour la compatibilité, pour utiliser des outils standards. Mais l’architecture multiple pourrait être la nouvelle norme, si ce n’est pas déjà le cas.

Je ne veux pas m’attarder trop sur ce sujet aujourd’hui. Plusieurs idées ont été publiées sur le portail IBM et je crois que les équipes de IBM, Debian, Canonical et Red Hat font un excellent travail, que je couvrirais dans des articles futurs.

Il y a eu des mises à jour dans le blog SIXE au cours des derniers mois concernant le travail difficile effectué dans ce domaine, et avec la sortie du nouveau niveau de firmware FW1060, nous avons enfin un support complet de KVM sur PowerVM. C’est équivalent à ce qui existe sur IBM Z/Linux One. Super !

Comme toujours, je voulais repousser la technologie à ses limites, y compris un vieux rêve : faire fonctionner Windows (l'”ennemi” pour les utilisateurs d’AIX et Linux), et dans ce cas, faire fonctionner Windows XP sur un IBM Power10, en utilisant KVM et QEMU.

Préparation

Configurer une LPAR pour exécuter Windows sur IBM Power nécessite des étapes spécifiques, comme l’assignation d’un processeur dédié. Nous devons configurer la LPAR pour être un hôte KVM, ce qui changera la façon dont elle utilise PowerVM pour éviter les frais généraux. Nous devons également assigner au moins un processeur dédié (pas en mode “donneur”, bien sûr). Cela nous donnera 8 threads dédiés pour exécuter nos processeurs virtuels dans KVM. Oui, c’est plus simple et moins puissant que PowerVM avec ses micro-partitions, mais c’est toujours un standard industriel, et tout le monde n’a pas besoin de voler pour aller au travail. N’est-ce pas ?

KVM Capable sélectionné

Choisir la distribution

De mon expérience, le meilleur support pour les expérimentations avec ppc64le tend à être Debian ou Fedora. Dans ce cas, j’ai installé Fedora 40 et l’ai mise à jour avec les derniers niveaux. Ensuite, vous devez installer tous les paquets de virtualisation et le support QEMU pour d’autres architectures. Suivant mon idée de créer des articles interactifs, je vais utiliser virt-manager pour éviter les configurations QEMU complexes. Dans mon environnement, j’ai installé tous les paquets qemu-system-*

commande qemu-system

Pour que Windows détecte nos disques SATA virtuels comme étant utilisables, vous devrez configurer cela. Une fois cela fait, vous pouvez installer ce dont vos disques auront besoin :

dnf install virtio-win-stable

Vous aurez également besoin d’un ISO de Windows XP et de ses numéros de licence. Je recommande de le placer dans /var/lib/libvirtd/images pour qu’il soit automatiquement détecté par virt-manager.

Créer la machine virtuelle (suivez simplement l’assistant)

Assurez-vous de sélectionner x86 comme architecture (QEMU s’en occupera).

Menu création machine virtuelle

 

Gestionnaire de machines virtuelles

Tout comme lors de l’exécution d’AIX sur x86, ne vous attendez pas à ce que ce soit très rapide, bien que cela m’ait pris environ une heure pour installer… à peu près le même temps qu’il aurait fallu sur un PC à l’époque.

Je ne peux pas attendre de revoir MS Messenger ! Profitez de la vidéo et restez à jour en nous suivant !

Installing Windows on IBM Power (for fun)Installing Windows on IBM Power (for fun)

Autres tests

Que pensez-vous de faire tourner MS PowerShell pour ARM64 dans Docker ? Maintenant, je peux faire un “dir” sur Power, trop cool ! :P

Exécution de MS PowerShell pour ARM64 dans Docker

Conclusion

Le travail effectué pour supporter KVM est, pour moi, la plus grande avancée de ces dernières années en raison des possibilités infinies qu’il ouvre pour la plateforme Power. Le travail pour soutenir KVM ne se limite pas à Linux, mais permet également de nouvelles façons d’expérimenter Windows sur IBM Power, une combinaison puissante et innovante.

D’après ce que j’ai pu tester, tout fonctionne et fonctionne bien. Félicitations à tous ceux qui ont rendu cela possible.
Logo Suse En fondo de SIXE

Comprendre la haute disponibilité (HA) sur SUSE Linux

La haute disponibilité et la continuité des activités sont cruciales pour que les applications et les services restent opérationnels.
Les grappes à haute disponibilité permettent aux services essentiels de continuer à fonctionner, même si les serveurs ou les composants matériels tombent en panne.
SUSE Linux offre un ensemble d’outils robustes pour créer et gérer ces grappes.
Dans cet article, nous explorons l’état actuel de la mise en grappe dans SUSE Linux, en nous concentrant sur les technologies clés telles que Pacemaker, Corosync, DRBD et d’autres.
Celles-ci, à quelques différences près, sont disponibles sur x86 et ppc64le.

Pacemaker : le cerveau de la grappe

Pacemaker est le moteur qui gère les grappes à haute disponibilité dans SUSE Linux.
Sa fonction principale est de gérer les ressources des clusters, en veillant à ce que les services critiques soient opérationnels et se rétablissent rapidement en cas de défaillance. Pacemaker surveille en permanence les ressources (bases de données, services Web, systèmes de fichiers, etc.) et, s’il détecte un problème, migre ces ressources vers d’autres nœuds de la grappe pour les maintenir en état de marche.
Pacemaker se distingue par sa flexibilité et sa capacité à gérer une grande variété de ressources.
Des simples services aux systèmes distribués plus complexes, il est capable de gérer la plupart des scénarios de haute disponibilité dont une entreprise peut avoir besoin.

Corosync : le système nerveux du cluster

Corosync est responsable de la communication entre les nœuds de la grappe.
Il veille à ce que tous les nœuds aient à tout moment la même vision de l’état de la grappe, ce qui est essentiel pour une prise de décision coordonnée.
Il gère également le quorum, qui détermine s’il y a suffisamment de nœuds actifs pour que la grappe fonctionne en toute sécurité.
Si le quorum est perdu, des mesures peuvent être prises pour éviter la perte de données ou même l’arrêt du service.

DRBD : l’épine dorsale des données

DRBD (Distributed Replicated Block Device) est une solution de réplication de stockage au niveau des blocs qui réplique les données entre les nœuds en temps réel.
Avec DRBD, les données d’un serveur sont répliquées sur un autre serveur presque instantanément, créant ainsi une copie exacte.
Ceci est particulièrement utile dans les scénarios où il est crucial que les données critiques soient toujours disponibles, même si un nœud tombe en panne.
Combiné à Pacemaker, DRBD permet aux services de continuer à fonctionner en ayant accès aux mêmes données, même s’ils se trouvent sur des nœuds différents.

Autres technologies clés dans les grappes SUSE Linux

En plus de Pacemaker, Corosync et DRBD, il existe d’autres technologies essentielles pour construire des clusters robustes sur SUSE Linux :

  • SBD (Storage-Based Death) : SBD est un outil de clôture qui permet d’isoler un nœud qui se comporte mal et de l’empêcher de causer des problèmes dans la grappe.
    Pour ce faire, on utilise un dispositif de stockage partagé que les nœuds utilisent pour communiquer leur état.
  • OCF (Open Cluster Framework) : les scripts OCF constituent la base des ressources gérées par Pacemaker.
    Ils définissent comment démarrer, arrêter et vérifier l’état d’une ressource, offrant ainsi la flexibilité nécessaire pour intégrer un large éventail de services dans le cluster.
  • Csync2 : Un outil pour synchroniser les fichiers entre les nœuds d’un cluster.
    Il permet de s’assurer que les fichiers de configuration et autres données critiques sont toujours à jour sur tous les nœuds.

Situation actuelle et tendances futures

Les clusters dans SUSE Linux ont mûri et s’adaptent aux nouvelles demandes des entreprises.
Avec l’adoption croissante des environnements de conteneurs et avec des parties dans différents clouds, les clusters dans SUSE Linux évoluent pour mieux s’y intégrer.
Cela inclut une meilleure prise en charge de l’orchestration des conteneurs et des applications distribuées qui nécessitent une haute disponibilité au-delà de la réplication de deux disques par DRBD et du maintien en vie d’une IP virtuelle :). Toujours est-il qu’aujourd’hui, la combinaison de Pacemaker, Corosync, DRBD et d’autres outils constitue une base solide pour créer des clusters à haute disponibilité qui peuvent évoluer et s’adapter aux besoins de SAP HANA et d’autres solutions qui nécessitent une disponibilité élevée, voire totale. Si tu as besoin d’aide, SIXE peut t’aider.

Fiche d’astuces pour créer et gérer des grappes avec Pacemaker sur SUSE Linux

Voici une modeste feuille de contrôle pour t’aider à créer et à gérer des clusters avec Pacemaker sur SUSE Linux.
Partager, c’est se soucier des autres !

Tâche Commande / Description
Installation des paquets
Installation de Pacemaker et Corosync zypper install -y pacemaker corosync crmsh
Configuration de base
Configure le fichier Corosync /etc/corosync/corosync.conf Édite pour définir le transport, les interfaces et le réseau.
Démarrer les services systemctl start corosync && systemctl start pacemaker
Activer les services au démarrage systemctl enable corosync && systemctl enable pacemaker
Gestion de la grappe
Voir l’état de la grappe crm status
Voir les détails du nœud crm_node -l
Ajouter un nouveau noeud crm node add <nombre_del_nodo>
Ejecter un noeud crm node remove <nombre_del_nodo>
Afficher les journaux de la grappe crm_mon --logfile <ruta_del_log>
Configuration des ressources
Créer une ressource crm configure primitive <nombre_recurso> <tipo_agente> params <parámetros>
Supprimer une ressource crm configure delete <nombre_recurso>
Modifier une ressource crm configure edit <nombre_recurso>
Afficher la configuration complète de la grappe crm configure show
Configuration des groupes et des assemblées
Créer un groupe de ressources crm configure group <nombre_grupo> <recurso1> <recurso2> ...
Crée un ensemble ordonné crm configure colocation <nombre_conjunto> inf: <recurso1> <recurso2>
Créer un ordre d’exécution crm configure order <orden> <recurso1> then <recurso2>
Restrictions et placements
Créer une restriction de placement crm configure colocation <nombre_restricción> inf: <recurso1> <recurso2>
Créer une restriction de localisation crm configure location <nombre_ubicación> <recurso> <puntaje> <nodo>
Basculement et récupération
Forcer la migration d’une ressource crm resource migrate <nombre_recurso> <nombre_nodo>
Efface le statut d’une ressource crm resource cleanup <nombre_recurso>
Désactive temporairement une ressource crm resource unmanage <nombre_recurso>
Activer une ressource après l’avoir désactivée crm resource manage <nombre_recurso>
Configuration avancée
Configure le quorum <`crm configure property no-quorum-policy= freeze
Configurer les clôtures crm configure primitive stonith-sbd stonith:external/sbd params pcmk_delay_max=<tiempo>
Configure le délai d’attente d’une ressource crm configure primitive <nombre_recurso> <tipo_agente> op start timeout=<tiempo> interval=<intervalo>
Validation et test
Valider la configuration de la grappe crm_verify --live-check
Simule une panne crm_simulate --run
Gestion des politiques
Configurer la politique de récupération crm configure rsc_defaults resource-stickiness=<valor>
Configurer la priorité des ressources crm configure resource default-resource-stickiness=<valor>
Arrêter et démarrer le cluster
Arrête la grappe entière crm cluster stop --all
Démarre l’ensemble de la grappe crm cluster start --all

 

Logo Sixe Noticia

SIXE : ton partenaire IBM de confiance

Dans cette ère technologique rapide et complexe, le choix des bons fournisseurs est crucial.
Lorsqu’il s’agit de solutions telles que celles d’IBM, la véritable différence n’est pas la taille de l’entreprise, mais sa capacité technique, son capital humain, son engagement et son niveau de spécialisation.
SIXE Ingeniería est ton partenaire IBM idéal, et nous t’expliquons ici pourquoi.

Expertise technique : qui veux-tu pour concevoir et gérer ton projet ?

Chez SIXE, nous ne sommes pas une entreprise qui revend n’importe quel produit ou service à la recherche d’une marge, en passant le défi technique à quelqu’un d’autre et “bye-bye”.
Nous sommes spécialisés dans des domaines clés tels que la cybersécurité et les infrastructures informatiques critiques.
Contrairement aux grands partenaires d’IBM, qui ont tendance à externaliser la plupart de leurs projets, chez SIXE, chaque tâche est exécutée par nos experts internes. Préfères-tu faire confiance à une entreprise qui sous-traite ou à une équipe qui est directement impliquée dans chaque détail technique ? Notre approche en tant que société d’ingénierie nous permet de concevoir des solutions adaptées aux besoins spécifiques de chaque client.
Nous ne proposons pas de configurations ou de déploiements génériques, mais des solutions adaptées à ce dont ton organisation (et ton équipe) a exactement besoin.
Nous avons une expertise en matière d’infrastructure IBM Power, de stockage, de systèmes d’exploitation (AIX, Red Hat, IBM i, Debian, zOS), de bases de données Informix et DB2, de serveurs d’applications, etc.

Engagement personnalisé : quels soins attends-tu de recevoir ?

Dans les grands cabinets de conseil, les projets deviennent souvent un numéro de plus sur ta liste de clients.
Veux-tu être un client de plus ou préfères-tu un traitement exclusif ?
Chez SIXE, nous offrons un service personnalisé, garantissant que chaque projet reçoit l’attention nécessaire à son bon déroulement et que tu pourras compter sur nous pendant de nombreuses années.
Notre structure agile nous permet de nous adapter rapidement et de travailler côte à côte avec les responsables des systèmes, en veillant à ce que les solutions proposées répondent à tes attentes et à tes besoins.

Innovation et flexibilité

Les grandes entreprises sont souvent prisonnières de processus bureaucratiques qui les empêchent d’innover ou de réagir rapidement aux changements du marché.
Combien de fois es-tu tombé sur des solutions dépassées ou lentes à mettre en œuvre ?
Chez SIXE, nous pouvons nous adapter rapidement et proposer des solutions qui non seulement suivent les dernières tendances, mais les anticipent.
C’est essentiel pour les projets qui nécessitent des réponses rapides et efficaces dans un environnement changeant.
Aussi quand quelque chose, Peu importe si c’est à la mode ou si c’est spectaculaire dans un Power Point, il y a des risques, nous en parlerons et nous te le ferons savoir.

Transparence et contrôle

Lorsque les projets sont externalisés, la transparence et le contrôle sont dilués.
Chez SIXE, tu as la sécurité de savoir exactement qui travaille sur ton projet et comment les ressources sont gérées.
Les grands cabinets de conseil, en raison de leur taille, ont tendance à perdre cette transparence, en déléguant des tâches à des tiers sans que le client ait un réel contrôle sur le processus.
Préfères-tu risquer de perdre la visibilité sur ton projet ou avoir un partenaire qui te tient informé et qui contrôle chaque étape importante ?

Relations à long terme : cherches-tu un fournisseur supplémentaire ou un partenaire stratégique ?

Nous ne cherchons pas à conclure des contrats à court terme ; notre objectif est de construire des relations durables basées sur une relation éthique.
Cela signifie qu’une fois la technologie mise en œuvre, nous restons engagés dans le projet, en offrant une assistance technique, une formation et des conseils chaque fois que cela est nécessaire.
Les grandes entreprises, en revanche, ont tendance à se concentrer sur la mise en œuvre initiale, laissant tout le reste de côté.
En externalisant tout, bien sûr, comme le ferait Homer Simpson.

Retour sur investissement : où va ton argent ?

Dans de nombreux grands cabinets de conseil, une grande partie du budget est consacrée aux frais généraux, avec peu d’impact direct sur la qualité du projet.
Ils n’ont pas de bons ingénieurs au sein de leur personnel parce que leurs dirigeants pensent que l’externalisation des talents techniques réduit les risques et améliore les marges.
Chez SIXE, chaque euro investi se traduit par une valeur réelle, nous n’avons pas de pool de managers et de cadres passant des heures en réunions et repas avec les clients.
Ce que nous avons, c’est une équipe d’ingénieurs reconnue internationalement, engagée auprès de l’entreprise et de ses clients depuis plus de 15 ans.
Nous faisons également partie d’un réseau d’experts reconnu internationalement par IBM.

La différence se situe au niveau de l’exécution

Bien que l’on puisse dire le contraire, la véritable différence dans un projet technologique ne réside pas dans la taille de l’entreprise, mais dans la façon dont chaque projet est exécuté et par qui.
Chez SIXE, nous combinons expertise technique, engagement et transparence, offrant une exécution précise et axée sur les résultats.
Dans un marché saturé d’options, pourquoi ne pas choisir un partenaire qui garantit la qualité, l’innovation et une relation basée sur la collaboration ?
Choisir SIXE comme partenaire IBM, c’est choisir une approche basée sur l’excellence technique et un engagement total sur les résultats.
Ne laisse pas le succès de ton projet entre les mains du hasard, nous sommes un partenaire qui se souciera autant que toi (pour notre bien) du résultat final et de la relation entre nos entreprises à moyen et long terme.

Pas seulement IBM

Bien que 50 % de notre activité soit liée à la formation, au conseil et aux projets d’infrastructure d’IBM, nous sommes également un partenaire stratégique de Canonical (Ubuntu), Red Hat et SUSE.

Qu’en est-il de tes concurrents ?

La vérité est que nous ne le faisons pas parce qu’il n’y a pas d’autre entreprise de notre taille avec notre niveau de spécialisation dans les solutions que nous offrons.
Il existe d’autres petites et moyennes entreprises dotées d’un incroyable capital humain qui complètent les technologies sur lesquelles nous travaillons et avec lesquelles nous collaborons toujours, mais nous ne sommes jamais en concurrence.
Lorsque nous ne savons pas comment faire quelque chose, nous demandons toujours de l’aide et nous le faisons savoir à nos clients. Cela fait partie de notre ADN.

ibm i logo sixe

Apprendre IBM i et RPG avec SIXE

Formation IBM RPG : SIXE❤️IBM i et RPG

SIXE est une référence en matière de formation officielle IBM.
Depuis des années, nous proposons des cours spécialisés sur IBM i et RPG, des technologies clés pour de nombreux CRM et ERP utilisés par de grandes entreprises dans le monde entier.
Parmi nos cours les plus remarquables, il y a l’atelier de programmation avancée en RPG IV.
Si tu es novice en RPG, tu peux commencer à apprendre IBM i et RPG avec SIXE dans notre atelier de base RPG IV.
Ces cours te permettront de tout couvrir, des bases aux techniques les plus avancées de ce langage de programmation robuste.

Personnalisation et qualité de l’enseignement

L’un des principaux facteurs de différenciation de SIXE est notre approche personnalisée.
Chaque cours peut être adapté aux besoins spécifiques de ton équipe, ce qui garantit une formation pratique et pertinente.
Savais-tu que de nombreux cours sont dispensés par des champions IBM?
Ces experts reconnus à l’échelle internationale veillent à ce que les étudiants reçoivent une formation de la plus haute qualité et la plus récente possible.
De plus, nous sommes une entreprise intégrée dirigée par des instructeurs IBM.

Histoire et pertinence d’IBM i aujourd’hui

IBM i, lancé en 1988, est l’évolution du système AS/400, conçu pour être robuste, évolutif et sécurisé.
En plus de trois décennies, il a maintenu sa mission de fournir une plateforme stable et fiable pour la gestion des données d’entreprise.
La dernière version, IBM i 7.5, comprend des améliorations clés en matière de sécurité, de performances et d’intégration au cloud, renforçant ainsi sa pertinence dans l’environnement informatique d’aujourd’hui.

Cas d’utilisation actuels du RPG : Puis-je avoir le billet ?

RPG (Report Program Generator) reste un élément central pour de nombreuses organisations utilisant IBM i, en particulier dans des secteurs tels que la banque, la fabrication et la vente au détail.
RPG a été mis à jour avec des techniques de programmation modernes, ce qui le rend aussi pertinent aujourd’hui qu’il l’était à ses débuts.
Par exemple, lorsque tu paies dans un supermarché, le ticket et les processus associés (inventaire, commande, facturation) sont gérés par un programme en RPG sur un système IBM Power fonctionnant sous IBM i.

Ne m’appelle pas AS/400

Une anecdote intéressante à propos d’IBM i est que son prédécesseur, l’AS/400, a été présenté en 1988 comme un système “aussi facile à utiliser qu’un réfrigérateur”.
À une époque où les systèmes informatiques étaient compliqués, cette promesse mettait en avant IBM i comme un système révolutionnaire en termes d’accessibilité et de simplicité.
Bien que le nom ait changé, si tu as besoin d’un cours sur l’AS/400, nous pouvons aussi l’organiser.

Pourquoi choisir SIXE ?

Avec plus de 15 ans d’expérience, SIXE n’offre pas seulement une formation, mais une expérience éducative complète qui est adaptée aux besoins de chaque client.
L’accent mis sur la qualité et la personnalisation, associé à l’expertise d’instructeurs hautement qualifiés, fait de SIXE le meilleur choix pour ceux qui recherchent une formation officielle IBM efficace et personnalisée.
Pour en savoir plus sur ces cours et pour t’inscrire, visite les liens suivants sur notre site Web :

logos de sixe avec ses partenaires suse, canonical, red hat et ibm

Logos sixe podman docker y lxd ubuntu

Découvre Ubuntu LXD : l’alternative à Docker ou Podman

Tu utilises toujours uniquement Docker ou Podman ? Découvre pourquoi tu devrais essayer Ubuntu LXD

INTRODUCTION

Ubuntu LXD est le gestionnaire de conteneurs d’Ubuntu, basé sur LXC(Linux Containers), qui malgré la montée en puissance de technologies telles que Docker dans l’écosystème Kubernetes, reste très pertinent. Cet article explore les raisons de la persistance de LXD, ses cas d’utilisation distinctifs et les produits qui l’emploient dans le monde réel. Prêt à découvrir pourquoi tu devrais y prêter attention?

QU’EST-CE QUE UBUNTU LXD ?

LXD est un outil de gestion de conteneurs qui agit comme une amélioration de LXC, offrant une expérience de conteneurisation plus complète pour les machines virtuelles légères. Alors que Docker et d’autres conteneurs basés sur la norme OCI sont éphémères de par leur conception, LXD se concentre davantage sur la fourniture de conteneurs de systèmes complets, permettant à plusieurs processus et services de s’exécuter à la manière d’une machine virtuelle. Tu peux même déployer un environnement Kubernetes complet, avec ses conteneurs à l’intérieur d’un LXD. En cela, il ressemble beaucoup plus à ses proches parents tels que les jails BSD, les zones Solaris et les WPAR AIX. Tu penses toujours que Docker ou Podman sont tes seules options ?

Capture d'écran de l'interface LXD

L’évolution des conteneurs

Tu te souviens quand Docker était l’unique outil de conteneurisation que tout le monde aimait ? Depuis son lancement en 2013, Docker a révolutionné le développement et le déploiement d’applications en rendant les conteneurs accessibles et faciles à utiliser. Docker a permis aux développeurs de regrouper leurs applications avec toutes leurs dépendances, garantissant ainsi un fonctionnement cohérent dans n’importe quel environnement. Cette innovation a conduit à une adoption massive des conteneurs dans l’industrie, Docker et Podman devenant des standards de facto, quand ce n’est pas directement leurs orchestrateurs tels que Kubernetes. Mais Docker est-il la seule star du spectacle ?

Alors que Docker attirait toute l’attention, LXD travaillait discrètement pour offrir quelque chose de différent: des conteneurs de système d’exploitation complets. À mesure que les organisations adoptent les conteneurs pour davantage de cas d’utilisation, la nécessité d’une gestion plus sophistiquée et plus efficace est apparue. C’est là que LXD entre en jeu. Peux-tu imaginer avoir la flexibilité des machines virtuelles mais avec l’efficacité des conteneurs, sans avoir à faire des folies et à changer totalement les cas d’utilisation ?

Comparaison entre Ubuntu LXD, Podman et Docker

Docker et Podman sont conçus pour emballer et déployer des applications individuelles, tandis qu’Ubuntu LXD offre une expérience plus complète. Son architecture est axée sur la conteneurisation des microservices, les applications cloud et le déploiement continu.

Ils sont également étroitement intégrés à Kubernetes, l’outil d’orchestration de conteneurs le plus populaire du marché. D’autre part, LXD te permet de faire fonctionner un système complet à l’intérieur d’un conteneur. Cette capacité le rend idéal pour les cas d’utilisation où un environnement complet est nécessaire, semblable à une machine virtuelle mais avec l’efficacité des conteneurs. Tu vois la différence ?image des logos LXD et Docker

Cas d’utilisation d’Ubuntu LXD

LXD excelle dans plusieurs scénarios spécifiques. Par exemple, en
Infrastructure as a Service (IaaS)
LXD permet de créer et de gérer des conteneurs de systèmes d’exploitation complets. C’est idéal pour les fournisseurs de services cloud qui ont besoin de proposer des environnements complets sans les frais généraux des machines virtuelles traditionnelles. As-tu déjà eu des problèmes pour reproduire un environnement de développement identique à l’environnement de production ? Avec LXD, les développeurs peuvent créer des environnements de développement isolés et reproductibles, ce qui minimise les problèmes de configuration et de dépendance.

Machines virtuelles à image lxd et conteneurs linux

Dans le domaine des simulations et des tests de réseaux, LXD permet de simuler des réseaux complexes et de tester des services au niveau du réseau. Cette capacité est cruciale pour répliquer des infrastructures de réseau entières au sein d’un seul hôte. Pour les tâches d’administration système et de DevOps, LXD offre une flexibilité qui va au-delà de la conteneurisation d’applications. Il permet de créer des environnements complets qui peuvent être gérés, mis à jour et surveillés comme s’il s’agissait de machines physiques, mais avec l’efficacité des conteneurs. Tu penses toujours que ta seule alternative est Docker ?

Solutions utilisant Ubuntu LXD

Canonical, la société à l’origine d’Ubuntu et partenaire de Sixe, a développé plusieurs solutions basées sur Ubuntu LXD pour offrir des performances et une flexibilité exceptionnelles. Parmi ces solutions, il y a MAAS (Metal as a Service), qui utilise LXD pour fournir des environnements de développement et de test hautement configurables. Il permet aux utilisateurs de déployer des systèmes d’exploitation complets dans des conteneurs, ce qui facilite la gestion d’infrastructures vastes et complexes.

Les statistiques github microcloud de canonical

Microcloud bénéficie de LXD en l’intégrant pour proposer des conteneurs de systèmes d’exploitation complets comme option supplémentaire (ou alternative) aux machines virtuelles traditionnelles, ce qui améliore la flexibilité et l’efficacité de la gestion des ressources. En outre, Travis CI, une plateforme d’intégration continue, utilise LXD pour exécuter ses environnements de test, ce qui lui permet de fournir des environnements de test rapides et reproductibles, améliorant ainsi l’efficacité des développeurs. Surpris ? Ce n’est pas tout.

Pour celles et ceux qui cherchent à mettre en place ces solutions dans leur environnement,
SIXE Engineering
est le partenaire de référence de Canonical et d’Ubuntu que tu cherches. Grâce à sa grande expérience dans la mise en œuvre de LXD et d’autres technologies de virtualisation, SIXE peut t’aider à maximiser le potentiel de tes infrastructures informatiques. Que tu aies besoin d’une assistance pour MAAS, OpenStack ou toute autre solution basée sur LXD, SIXE possède les connaissances et l’expérience nécessaires pour te guider à chaque étape du processus. Quand les chemins de bifurcation sont nombreux, nous saurons te recommander, te conseiller et t’accompagner sur celui qui te convient le mieux. Sans compromis ni lien avec un quelconque fabricant, car avec Canonical, nous ne proposons pas de produits fermés, mais des technologies ouvertes, réalisées avec et pour la communauté, en poussant la philosophie du logiciel libre jusqu’à ses ultimes conséquences.

Conclusion

Malgré la domination des technologies de conteneurisation légères telles que Docker et Podman dans Kubernetes, LXD reste pertinent dans de nombreux cas d’utilisation en raison de sa capacité à fournir des conteneurs de système d’exploitation complets. Son utilisation dans l’infrastructure en tant que service, les environnements de développement, les simulations de réseau et l’ administration système ainsi que son adoption dans des produits tels que MAAS, OpenStack et Travis en sont la preuve.

Selon nous, les avantages de LXD résident dans sa capacité unique à combiner l’efficacité des conteneurs avec la simplicité des machines virtuelles, offrant ainsi une solution hybride qui reste essentielle pour de multiples applications. Tu penses toujours que Docker est la seule option ? Certainement pas. Nous espérons que cet article t’a plu et n’oublie pas que, pour toute mise en œuvre de ces technologies,
tu peux compter sur le soutien des experts de SIXE en cliquant ici.
Nous serons toujours à tes côtés avec les meilleures solutions gratuites.

SIXE