Logo FreeRTOS con TUX de fondo

Linux en temps réel (RTOS) – Fait maintenant partie de ton noyau

Sais-tu que pendant que tu as ouvert ton navigateur pour lire ceci… ton ordinateur a décidé de donner la priorité à ce processus en laissant beaucoup d’autres derrière lui ? Veux-tu savoir comment il fait ? Qu’est-ce que cela signifie lorsque Linux devient un RTOS ? Eh bien, lis la suite et je vais te montrer. Et attention, car si tu t’intéresses au monde de l’OS des pingouins, nous allons te raconter plus d’un fait que tu ne connais peut-être pas...💥.

Comment fonctionne le planificateur du noyau Linux ?

Le planificateur Linux fonctionne comme dans l’exemple ci-dessus : en gros, il décide dans quel état mettre les processus (en cours d’exécution, interruptible, non interruptible, zombie ou arrêté) et leur ordre d’exécution pour améliorer ton expérience. Pour leur ordre d’exécution, chaque processus a un niveau de priorité. Imaginons qu’un processus d’arrière-plan s’exécute et que tu ouvres le navigateur. Le planificateur interrompra ce processus d’arrière-plan et concentrera les ressources sur l’ouverture du navigateur, en veillant à ce qu’il s’exécute rapidement et efficacement.

Le concept d’expropriation (préemption)

Expropriation sur Linux🐧 ? Ce n’est pas ce à quoi tu penses… L’expropriation est une fonctionnalité fondamentale, car elle permet d ‘interrompre les processus si un processus plus prioritaire fait irruption. Dans la version 2.6 de Linux, la possibilité d’exproprier les processusa été ajoutée au noyau, c’est-à-dire que le noyau peut interrompre les processus. Les systèmes qui ne sont pas préemptibles doivent mettre fin à la tâche en cours pour passer à la suivante.

Dans le cas de Linux, depuis la version 2.6.24, c’est le Completely Fair Scheduler (CFS) qui est utilisé comme ordonnanceur. Ce planificateur est régi par la garantie d’un accès “équitable” au processeur.

Ordonnanceur complètement équitable : comment décider quel processus doit être exécuté à quel moment afin d’avoir un accès équitable à l’unité centrale ?

Il existe deux types de priorités : statiques et dynamiques.

  • Static (Niceness) : peut être défini par l’utilisateur. Plus la valeur est faible, plus le programme est important et plus il consomme de temps processeur.
  • Dynamique: ce paramètre est défini en fonction du comportement du programme. Il peut s’agir de programmes liés aux E/S (programmes qui ont besoin de beaucoup de temps processeur car ils sont généralement en attente) ou de programmes liés au processeur (qui ont besoin de moins de temps processeur, car ils effectuent généralement des tâches intensives qui pourraient faire planter d’autres processus).

Comment le planificateur établit-il ses priorités ?

Le système d’exploitation tient à jour deux listes de programmes :

  • Liste 1 : les programmes qui ont encore le temps d’être utilisés.
  • Liste 2 : les programmes qui t’ont fait perdre du temps.

Lorsqu’un programme utilise son temps, le système calcule le temps dont il devrait disposer la prochaine fois et le déplace dans la deuxième liste. Lorsque la première liste devient vide, les deux listes sont échangées. Cela permet au système de fonctionner efficacement. Linux 2.6, avec le noyau entièrement préemptible, a considérablement amélioré la réactivité du système. Désormais, le noyau peut être interrompu sur des tâches de faible priorité pour répondre à des événements prioritaires.

 

PREEMPT_RT dans le noyau Linux

Grâce à une nouvelle mise à jour du noyau, Linux peut être contrôlé avec une précision millimétrique. Un RTOS signifie que le système sera précis pour les tâches critiques, comme dans les centres médicaux. Cependant, Linux n’étant pas prévu pour cela, le fait qu’il fasse désormais partie du noyau apporte certaines fonctionnalités, même si elles n’en font pas un RTOS.

Fonctionnalité Amélioration
Une intégration simple et une maintenance simplifiée
  • Moins de dépendance à l’égard des correctifs externes : accès direct aux mises à niveau sans gestion des correctifs.
  • Une maintenance plus facile : des mises à jour plus faciles et moins de problèmes de compatibilité.
Stabilité et performances améliorées
  • Test et validation : stabilité et performance accrues grâce à des tests rigoureux.
  • Développement continu : amélioration continue des fonctionnalités et des performances.
Accessibilité pour les développeurs
  • Facilité d’utilisation : permettre des fonctionnalités en temps réel plus accessibles.
  • Documentation et soutien : plus de documentation et de soutien dans la communauté.
Concurrence avec les systèmes dédiés
  • Compétitivité accrue : positionner Linux comme une alternative aux RTOS dédiés.
Cas d’utilisation étendus
  • Applications critiques : Adoption de Linux dans les systèmes critiques où la précision est essentielle.

Pourquoi PREEMPT_RT a-t-il mis si longtemps à faire partie du noyau ?

Outre les problèmes financiers et le manque d’intérêt de la communauté pour une approche en temps réel de Linux, un problème technique s’est posé: le printk. Printk es una función que imprime mensajes en el búfer de registro del kernel. El problema con esta función es que producía retrasos cada vez que se llamaba. Este retraso interrumpía el flujo normal del sistema, y alejado este problema, PREEMPT_RT se pudo incorporar al kernel.

En quoi le fait que Linux devienne un système d’exploitation en temps réel te concerne-t-il ?

Pour l’utilisateur moyen: rien. Cependant, si tu es un développeur, cette innovation dans le noyau de Linux sera une avancée avec laquelle il faudra compter. Jusqu’à présent, les développeurs qui ont besoin d’une précision en temps réel optaient pour d’autres systèmes d’exploitation conçus pour cela. Avec la nouvelle fonction PREEMPT_RT intégrée au noyau Linux, cela ne sera plus nécessaire. Cette fonction permet à Linux d’arrêter n’importe quelle tâche pour donner la priorité à une demande en temps réel, ce qui est essentiel pour les applications qui exigent une faible latence.

Cas d’utilisation : sécurité domestique

Imaginons que tu utilises chez toi un assistant vocal qui contrôle à la fois l’éclairage et le système de sécurité. S’il détecte une intrusion alors que tu es chez toi, il devrait activer en priorité les alarmes et te prévenir immédiatement. Dans ce cas, les lumières ou la musique peuvent attendre ; ce qui compte vraiment, c’est ta sécurité. Cette capacité à réagir immédiatement dans les situations critiques peut faire toute la différence.

Pourquoi le temps réel est-il nécessaire ?

Comme nous l’avons vu dans le cas d’utilisation, les RTOS peuvent accomplir des tâches imprévues, et également les accomplir dans des délais spécifiques et prévisibles. Dans les charges de travail qui nécessitent de la précision, les RTOS jouent un rôle essentiel. En l’occurrence, on voit souvent des RTOS dans les applications IoT:

  • Véhicules: Les voitures pionnières comme Tesla peuvent freiner immédiatement si elles détectent un obstacle.
  • Systèmes critiques: dans les avions ou en médecine, les systèmes doivent fonctionner dans des délais stricts.
  • Industrie: Dans les processus industriels, un léger retard peut provoquer des défaillances.
Le rôle de l’IA et de l’apprentissage automatique

L’IA et l’apprentissage automatique jouent également un rôle clé dans les RTOS et l’IoT. Ils pourraient prédire des événements et favoriser une prise de décision rapide et efficace.

Conclusion

En bref, Linux Real Time va enfin devenir une réalité. L’intégration de Linux en tant que système d’exploitation en temps réel marque un tournant et ouvre de nouvelles perspectives pour les tâches critiques dans des secteurs tels que la santé, la robotique et l’IoT. Grâce à la fonction PREEMPT_RT intégrée au noyau, Ubuntu Linux garantit une plus grande précision. Cependant, il ne faut pas oublier que le système d’exploitation Penguin🐧 n’est pas 100 % RTOS, il n’a pas été conçu pour cela. Nous verrons donc si les entreprises adapteront la solution de Canonical à leurs besoins en temps réel, ou si elles continueront à opter pour d’autres solutions telles que FreeRTOS ou Zephyr. Tu veux continuer à te former sur Linux ? Nous te proposons des certifications officielles. Et si tu n’en as pas assez… nous nous adaptons à toi avec des formations personnalisées 👇.

Formation intensive sur les systèmes Linux

Linux est à l’ordre du jour… si tu ne veux pas rester à l’écart des dernières exigences technologiques, nous te recommandons nos cours Canonical Ubuntu 👇.

Formation officielle SIXE chez Canonical, créateur d’Ubuntu

Installer Windows XP sur IBM Power (pour le plaisir)

Pourquoi ne pas émuler d’autres architectures sur Power ?

Lors d’une récente conversation avec ce que j’aime appeler les Magiciens de Power – les responsables techniques derrière cette plateforme incroyable, y compris les inventeurs, architectes, ingénieurs distingués et les équipes incroyables – ils m’ont demandé :

“Pourquoi êtes-vous intéressé par l’émulation ? Qui voudrait émuler d’autres architectures sur Power, et quel est l’intérêt ?”

Ma réponse a été que, dans le monde de l’open-source, beaucoup de choses que nous faisons sont motivées par la curiosité ou même juste pour le plaisir. Alors… pourquoi ne pas installer Windows sur IBM Power ?

La curiosité comme moteur

Il résonne dans ma tête que si un jour je peux m’amuser avec Linux sur ppc64le autant que je le fais sur x86 ou progressivement sur ARM (Mac, Raspberry), cela signifiera que Power pourrait être “la troisième” architecture pour Linux, bien au-delà des cas d’utilisation réels et des charges de travail critiques.

Autrement dit, si je peux faire la même chose sur ppc64le que sur d’autres architectures, je peux utiliser Power pour n’importe quel cas d’utilisation.

Pourquoi avoir des milliers de serveurs x86 gaspillant de l’énergie et occupant de l’espace dans le centre de données alors que nous pouvons avoir quelques serveurs Power faisant le même travail plus efficacement et plus sécuritairement ?

Les clients pourraient dire que c’est pour la compatibilité, pour utiliser des outils standards. Mais l’architecture multiple pourrait être la nouvelle norme, si ce n’est pas déjà le cas.

Je ne veux pas m’attarder trop sur ce sujet aujourd’hui. Plusieurs idées ont été publiées sur le portail IBM et je crois que les équipes de IBM, Debian, Canonical et Red Hat font un excellent travail, que je couvrirais dans des articles futurs.

Il y a eu des mises à jour dans le blog SIXE au cours des derniers mois concernant le travail difficile effectué dans ce domaine, et avec la sortie du nouveau niveau de firmware FW1060, nous avons enfin un support complet de KVM sur PowerVM. C’est équivalent à ce qui existe sur IBM Z/Linux One. Super !

Comme toujours, je voulais repousser la technologie à ses limites, y compris un vieux rêve : faire fonctionner Windows (l'”ennemi” pour les utilisateurs d’AIX et Linux), et dans ce cas, faire fonctionner Windows XP sur un IBM Power10, en utilisant KVM et QEMU.

Préparation

Configurer une LPAR pour exécuter Windows sur IBM Power nécessite des étapes spécifiques, comme l’assignation d’un processeur dédié. Nous devons configurer la LPAR pour être un hôte KVM, ce qui changera la façon dont elle utilise PowerVM pour éviter les frais généraux. Nous devons également assigner au moins un processeur dédié (pas en mode “donneur”, bien sûr). Cela nous donnera 8 threads dédiés pour exécuter nos processeurs virtuels dans KVM. Oui, c’est plus simple et moins puissant que PowerVM avec ses micro-partitions, mais c’est toujours un standard industriel, et tout le monde n’a pas besoin de voler pour aller au travail. N’est-ce pas ?

KVM Capable sélectionné

Choisir la distribution

De mon expérience, le meilleur support pour les expérimentations avec ppc64le tend à être Debian ou Fedora. Dans ce cas, j’ai installé Fedora 40 et l’ai mise à jour avec les derniers niveaux. Ensuite, vous devez installer tous les paquets de virtualisation et le support QEMU pour d’autres architectures. Suivant mon idée de créer des articles interactifs, je vais utiliser virt-manager pour éviter les configurations QEMU complexes. Dans mon environnement, j’ai installé tous les paquets qemu-system-*

commande qemu-system

Pour que Windows détecte nos disques SATA virtuels comme étant utilisables, vous devrez configurer cela. Une fois cela fait, vous pouvez installer ce dont vos disques auront besoin :

dnf install virtio-win-stable

Vous aurez également besoin d’un ISO de Windows XP et de ses numéros de licence. Je recommande de le placer dans /var/lib/libvirtd/images pour qu’il soit automatiquement détecté par virt-manager.

Créer la machine virtuelle (suivez simplement l’assistant)

Assurez-vous de sélectionner x86 comme architecture (QEMU s’en occupera).

Menu création machine virtuelle

 

Gestionnaire de machines virtuelles

Tout comme lors de l’exécution d’AIX sur x86, ne vous attendez pas à ce que ce soit très rapide, bien que cela m’ait pris environ une heure pour installer… à peu près le même temps qu’il aurait fallu sur un PC à l’époque.

Je ne peux pas attendre de revoir MS Messenger ! Profitez de la vidéo et restez à jour en nous suivant !

Installing Windows on IBM Power (for fun)Installing Windows on IBM Power (for fun)

Autres tests

Que pensez-vous de faire tourner MS PowerShell pour ARM64 dans Docker ? Maintenant, je peux faire un “dir” sur Power, trop cool ! :P

Exécution de MS PowerShell pour ARM64 dans Docker

Conclusion

Le travail effectué pour supporter KVM est, pour moi, la plus grande avancée de ces dernières années en raison des possibilités infinies qu’il ouvre pour la plateforme Power. Le travail pour soutenir KVM ne se limite pas à Linux, mais permet également de nouvelles façons d’expérimenter Windows sur IBM Power, une combinaison puissante et innovante.

D’après ce que j’ai pu tester, tout fonctionne et fonctionne bien. Félicitations à tous ceux qui ont rendu cela possible.
Logo Suse En fondo de SIXE

Comprendre la haute disponibilité (HA) sur SUSE Linux

La haute disponibilité et la continuité des activités sont cruciales pour que les applications et les services restent opérationnels.
Les grappes à haute disponibilité permettent aux services essentiels de continuer à fonctionner, même si les serveurs ou les composants matériels tombent en panne.
SUSE Linux offre un ensemble d’outils robustes pour créer et gérer ces grappes.
Dans cet article, nous explorons l’état actuel de la mise en grappe dans SUSE Linux, en nous concentrant sur les technologies clés telles que Pacemaker, Corosync, DRBD et d’autres.
Celles-ci, à quelques différences près, sont disponibles sur x86 et ppc64le.

Pacemaker : le cerveau de la grappe

Pacemaker est le moteur qui gère les grappes à haute disponibilité dans SUSE Linux.
Sa fonction principale est de gérer les ressources des clusters, en veillant à ce que les services critiques soient opérationnels et se rétablissent rapidement en cas de défaillance. Pacemaker surveille en permanence les ressources (bases de données, services Web, systèmes de fichiers, etc.) et, s’il détecte un problème, migre ces ressources vers d’autres nœuds de la grappe pour les maintenir en état de marche.
Pacemaker se distingue par sa flexibilité et sa capacité à gérer une grande variété de ressources.
Des simples services aux systèmes distribués plus complexes, il est capable de gérer la plupart des scénarios de haute disponibilité dont une entreprise peut avoir besoin.

Corosync : le système nerveux du cluster

Corosync est responsable de la communication entre les nœuds de la grappe.
Il veille à ce que tous les nœuds aient à tout moment la même vision de l’état de la grappe, ce qui est essentiel pour une prise de décision coordonnée.
Il gère également le quorum, qui détermine s’il y a suffisamment de nœuds actifs pour que la grappe fonctionne en toute sécurité.
Si le quorum est perdu, des mesures peuvent être prises pour éviter la perte de données ou même l’arrêt du service.

DRBD : l’épine dorsale des données

DRBD (Distributed Replicated Block Device) est une solution de réplication de stockage au niveau des blocs qui réplique les données entre les nœuds en temps réel.
Avec DRBD, les données d’un serveur sont répliquées sur un autre serveur presque instantanément, créant ainsi une copie exacte.
Ceci est particulièrement utile dans les scénarios où il est crucial que les données critiques soient toujours disponibles, même si un nœud tombe en panne.
Combiné à Pacemaker, DRBD permet aux services de continuer à fonctionner en ayant accès aux mêmes données, même s’ils se trouvent sur des nœuds différents.

Autres technologies clés dans les grappes SUSE Linux

En plus de Pacemaker, Corosync et DRBD, il existe d’autres technologies essentielles pour construire des clusters robustes sur SUSE Linux :

  • SBD (Storage-Based Death) : SBD est un outil de clôture qui permet d’isoler un nœud qui se comporte mal et de l’empêcher de causer des problèmes dans la grappe.
    Pour ce faire, on utilise un dispositif de stockage partagé que les nœuds utilisent pour communiquer leur état.
  • OCF (Open Cluster Framework) : les scripts OCF constituent la base des ressources gérées par Pacemaker.
    Ils définissent comment démarrer, arrêter et vérifier l’état d’une ressource, offrant ainsi la flexibilité nécessaire pour intégrer un large éventail de services dans le cluster.
  • Csync2 : Un outil pour synchroniser les fichiers entre les nœuds d’un cluster.
    Il permet de s’assurer que les fichiers de configuration et autres données critiques sont toujours à jour sur tous les nœuds.

Situation actuelle et tendances futures

Les clusters dans SUSE Linux ont mûri et s’adaptent aux nouvelles demandes des entreprises.
Avec l’adoption croissante des environnements de conteneurs et avec des parties dans différents clouds, les clusters dans SUSE Linux évoluent pour mieux s’y intégrer.
Cela inclut une meilleure prise en charge de l’orchestration des conteneurs et des applications distribuées qui nécessitent une haute disponibilité au-delà de la réplication de deux disques par DRBD et du maintien en vie d’une IP virtuelle :). Toujours est-il qu’aujourd’hui, la combinaison de Pacemaker, Corosync, DRBD et d’autres outils constitue une base solide pour créer des clusters à haute disponibilité qui peuvent évoluer et s’adapter aux besoins de SAP HANA et d’autres solutions qui nécessitent une disponibilité élevée, voire totale. Si tu as besoin d’aide, SIXE peut t’aider.

Fiche d’astuces pour créer et gérer des grappes avec Pacemaker sur SUSE Linux

Voici une modeste feuille de contrôle pour t’aider à créer et à gérer des clusters avec Pacemaker sur SUSE Linux.
Partager, c’est se soucier des autres !

Tâche Commande / Description
Installation des paquets
Installation de Pacemaker et Corosync zypper install -y pacemaker corosync crmsh
Configuration de base
Configure le fichier Corosync /etc/corosync/corosync.conf Édite pour définir le transport, les interfaces et le réseau.
Démarrer les services systemctl start corosync && systemctl start pacemaker
Activer les services au démarrage systemctl enable corosync && systemctl enable pacemaker
Gestion de la grappe
Voir l’état de la grappe crm status
Voir les détails du nœud crm_node -l
Ajouter un nouveau noeud crm node add <nombre_del_nodo>
Ejecter un noeud crm node remove <nombre_del_nodo>
Afficher les journaux de la grappe crm_mon --logfile <ruta_del_log>
Configuration des ressources
Créer une ressource crm configure primitive <nombre_recurso> <tipo_agente> params <parámetros>
Supprimer une ressource crm configure delete <nombre_recurso>
Modifier une ressource crm configure edit <nombre_recurso>
Afficher la configuration complète de la grappe crm configure show
Configuration des groupes et des assemblées
Créer un groupe de ressources crm configure group <nombre_grupo> <recurso1> <recurso2> ...
Crée un ensemble ordonné crm configure colocation <nombre_conjunto> inf: <recurso1> <recurso2>
Créer un ordre d’exécution crm configure order <orden> <recurso1> then <recurso2>
Restrictions et placements
Créer une restriction de placement crm configure colocation <nombre_restricción> inf: <recurso1> <recurso2>
Créer une restriction de localisation crm configure location <nombre_ubicación> <recurso> <puntaje> <nodo>
Basculement et récupération
Forcer la migration d’une ressource crm resource migrate <nombre_recurso> <nombre_nodo>
Efface le statut d’une ressource crm resource cleanup <nombre_recurso>
Désactive temporairement une ressource crm resource unmanage <nombre_recurso>
Activer une ressource après l’avoir désactivée crm resource manage <nombre_recurso>
Configuration avancée
Configure le quorum <`crm configure property no-quorum-policy= freeze
Configurer les clôtures crm configure primitive stonith-sbd stonith:external/sbd params pcmk_delay_max=<tiempo>
Configure le délai d’attente d’une ressource crm configure primitive <nombre_recurso> <tipo_agente> op start timeout=<tiempo> interval=<intervalo>
Validation et test
Valider la configuration de la grappe crm_verify --live-check
Simule une panne crm_simulate --run
Gestion des politiques
Configurer la politique de récupération crm configure rsc_defaults resource-stickiness=<valor>
Configurer la priorité des ressources crm configure resource default-resource-stickiness=<valor>
Arrêter et démarrer le cluster
Arrête la grappe entière crm cluster stop --all
Démarre l’ensemble de la grappe crm cluster start --all

 

Logo Sixe Noticia

SIXE : ton partenaire IBM de confiance

Dans cette ère technologique rapide et complexe, le choix des bons fournisseurs est crucial.
Lorsqu’il s’agit de solutions telles que celles d’IBM, la véritable différence n’est pas la taille de l’entreprise, mais sa capacité technique, son capital humain, son engagement et son niveau de spécialisation.
SIXE Ingeniería est ton partenaire IBM idéal, et nous t’expliquons ici pourquoi.

Expertise technique : qui veux-tu pour concevoir et gérer ton projet ?

Chez SIXE, nous ne sommes pas une entreprise qui revend n’importe quel produit ou service à la recherche d’une marge, en passant le défi technique à quelqu’un d’autre et “bye-bye”.
Nous sommes spécialisés dans des domaines clés tels que la cybersécurité et les infrastructures informatiques critiques.
Contrairement aux grands partenaires d’IBM, qui ont tendance à externaliser la plupart de leurs projets, chez SIXE, chaque tâche est exécutée par nos experts internes. Préfères-tu faire confiance à une entreprise qui sous-traite ou à une équipe qui est directement impliquée dans chaque détail technique ? Notre approche en tant que société d’ingénierie nous permet de concevoir des solutions adaptées aux besoins spécifiques de chaque client.
Nous ne proposons pas de configurations ou de déploiements génériques, mais des solutions adaptées à ce dont ton organisation (et ton équipe) a exactement besoin.
Nous avons une expertise en matière d’infrastructure IBM Power, de stockage, de systèmes d’exploitation (AIX, Red Hat, IBM i, Debian, zOS), de bases de données Informix et DB2, de serveurs d’applications, etc.

Engagement personnalisé : quels soins attends-tu de recevoir ?

Dans les grands cabinets de conseil, les projets deviennent souvent un numéro de plus sur ta liste de clients.
Veux-tu être un client de plus ou préfères-tu un traitement exclusif ?
Chez SIXE, nous offrons un service personnalisé, garantissant que chaque projet reçoit l’attention nécessaire à son bon déroulement et que tu pourras compter sur nous pendant de nombreuses années.
Notre structure agile nous permet de nous adapter rapidement et de travailler côte à côte avec les responsables des systèmes, en veillant à ce que les solutions proposées répondent à tes attentes et à tes besoins.

Innovation et flexibilité

Les grandes entreprises sont souvent prisonnières de processus bureaucratiques qui les empêchent d’innover ou de réagir rapidement aux changements du marché.
Combien de fois es-tu tombé sur des solutions dépassées ou lentes à mettre en œuvre ?
Chez SIXE, nous pouvons nous adapter rapidement et proposer des solutions qui non seulement suivent les dernières tendances, mais les anticipent.
C’est essentiel pour les projets qui nécessitent des réponses rapides et efficaces dans un environnement changeant.
Aussi quand quelque chose, Peu importe si c’est à la mode ou si c’est spectaculaire dans un Power Point, il y a des risques, nous en parlerons et nous te le ferons savoir.

Transparence et contrôle

Lorsque les projets sont externalisés, la transparence et le contrôle sont dilués.
Chez SIXE, tu as la sécurité de savoir exactement qui travaille sur ton projet et comment les ressources sont gérées.
Les grands cabinets de conseil, en raison de leur taille, ont tendance à perdre cette transparence, en déléguant des tâches à des tiers sans que le client ait un réel contrôle sur le processus.
Préfères-tu risquer de perdre la visibilité sur ton projet ou avoir un partenaire qui te tient informé et qui contrôle chaque étape importante ?

Relations à long terme : cherches-tu un fournisseur supplémentaire ou un partenaire stratégique ?

Nous ne cherchons pas à conclure des contrats à court terme ; notre objectif est de construire des relations durables basées sur une relation éthique.
Cela signifie qu’une fois la technologie mise en œuvre, nous restons engagés dans le projet, en offrant une assistance technique, une formation et des conseils chaque fois que cela est nécessaire.
Les grandes entreprises, en revanche, ont tendance à se concentrer sur la mise en œuvre initiale, laissant tout le reste de côté.
En externalisant tout, bien sûr, comme le ferait Homer Simpson.

Retour sur investissement : où va ton argent ?

Dans de nombreux grands cabinets de conseil, une grande partie du budget est consacrée aux frais généraux, avec peu d’impact direct sur la qualité du projet.
Ils n’ont pas de bons ingénieurs au sein de leur personnel parce que leurs dirigeants pensent que l’externalisation des talents techniques réduit les risques et améliore les marges.
Chez SIXE, chaque euro investi se traduit par une valeur réelle, nous n’avons pas de pool de managers et de cadres passant des heures en réunions et repas avec les clients.
Ce que nous avons, c’est une équipe d’ingénieurs reconnue internationalement, engagée auprès de l’entreprise et de ses clients depuis plus de 15 ans.
Nous faisons également partie d’un réseau d’experts reconnu internationalement par IBM.

La différence se situe au niveau de l’exécution

Bien que l’on puisse dire le contraire, la véritable différence dans un projet technologique ne réside pas dans la taille de l’entreprise, mais dans la façon dont chaque projet est exécuté et par qui.
Chez SIXE, nous combinons expertise technique, engagement et transparence, offrant une exécution précise et axée sur les résultats.
Dans un marché saturé d’options, pourquoi ne pas choisir un partenaire qui garantit la qualité, l’innovation et une relation basée sur la collaboration ?
Choisir SIXE comme partenaire IBM, c’est choisir une approche basée sur l’excellence technique et un engagement total sur les résultats.
Ne laisse pas le succès de ton projet entre les mains du hasard, nous sommes un partenaire qui se souciera autant que toi (pour notre bien) du résultat final et de la relation entre nos entreprises à moyen et long terme.

Pas seulement IBM

Bien que 50 % de notre activité soit liée à la formation, au conseil et aux projets d’infrastructure d’IBM, nous sommes également un partenaire stratégique de Canonical (Ubuntu), Red Hat et SUSE.

Qu’en est-il de tes concurrents ?

La vérité est que nous ne le faisons pas parce qu’il n’y a pas d’autre entreprise de notre taille avec notre niveau de spécialisation dans les solutions que nous offrons.
Il existe d’autres petites et moyennes entreprises dotées d’un incroyable capital humain qui complètent les technologies sur lesquelles nous travaillons et avec lesquelles nous collaborons toujours, mais nous ne sommes jamais en concurrence.
Lorsque nous ne savons pas comment faire quelque chose, nous demandons toujours de l’aide et nous le faisons savoir à nos clients. Cela fait partie de notre ADN.

ibm i logo sixe

Apprendre IBM i et RPG avec SIXE

Formation IBM RPG : SIXE❤️IBM i et RPG

SIXE est une référence en matière de formation officielle IBM.
Depuis des années, nous proposons des cours spécialisés sur IBM i et RPG, des technologies clés pour de nombreux CRM et ERP utilisés par de grandes entreprises dans le monde entier.
Parmi nos cours les plus remarquables, il y a l’atelier de programmation avancée en RPG IV.
Si tu es novice en RPG, tu peux commencer à apprendre IBM i et RPG avec SIXE dans notre atelier de base RPG IV.
Ces cours te permettront de tout couvrir, des bases aux techniques les plus avancées de ce langage de programmation robuste.

Personnalisation et qualité de l’enseignement

L’un des principaux facteurs de différenciation de SIXE est notre approche personnalisée.
Chaque cours peut être adapté aux besoins spécifiques de ton équipe, ce qui garantit une formation pratique et pertinente.
Savais-tu que de nombreux cours sont dispensés par des champions IBM?
Ces experts reconnus à l’échelle internationale veillent à ce que les étudiants reçoivent une formation de la plus haute qualité et la plus récente possible.
De plus, nous sommes une entreprise intégrée dirigée par des instructeurs IBM.

Histoire et pertinence d’IBM i aujourd’hui

IBM i, lancé en 1988, est l’évolution du système AS/400, conçu pour être robuste, évolutif et sécurisé.
En plus de trois décennies, il a maintenu sa mission de fournir une plateforme stable et fiable pour la gestion des données d’entreprise.
La dernière version, IBM i 7.5, comprend des améliorations clés en matière de sécurité, de performances et d’intégration au cloud, renforçant ainsi sa pertinence dans l’environnement informatique d’aujourd’hui.

Cas d’utilisation actuels du RPG : Puis-je avoir le billet ?

RPG (Report Program Generator) reste un élément central pour de nombreuses organisations utilisant IBM i, en particulier dans des secteurs tels que la banque, la fabrication et la vente au détail.
RPG a été mis à jour avec des techniques de programmation modernes, ce qui le rend aussi pertinent aujourd’hui qu’il l’était à ses débuts.
Par exemple, lorsque tu paies dans un supermarché, le ticket et les processus associés (inventaire, commande, facturation) sont gérés par un programme en RPG sur un système IBM Power fonctionnant sous IBM i.

Ne m’appelle pas AS/400

Une anecdote intéressante à propos d’IBM i est que son prédécesseur, l’AS/400, a été présenté en 1988 comme un système “aussi facile à utiliser qu’un réfrigérateur”.
À une époque où les systèmes informatiques étaient compliqués, cette promesse mettait en avant IBM i comme un système révolutionnaire en termes d’accessibilité et de simplicité.
Bien que le nom ait changé, si tu as besoin d’un cours sur l’AS/400, nous pouvons aussi l’organiser.

Pourquoi choisir SIXE ?

Avec plus de 15 ans d’expérience, SIXE n’offre pas seulement une formation, mais une expérience éducative complète qui est adaptée aux besoins de chaque client.
L’accent mis sur la qualité et la personnalisation, associé à l’expertise d’instructeurs hautement qualifiés, fait de SIXE le meilleur choix pour ceux qui recherchent une formation officielle IBM efficace et personnalisée.
Pour en savoir plus sur ces cours et pour t’inscrire, visite les liens suivants sur notre site Web :

logos de sixe avec ses partenaires suse, canonical, red hat et ibm

Logos sixe podman docker y lxd ubuntu

Découvre Ubuntu LXD : l’alternative à Docker ou Podman

Tu utilises toujours uniquement Docker ou Podman ? Découvre pourquoi tu devrais essayer Ubuntu LXD

INTRODUCTION

Ubuntu LXD est le gestionnaire de conteneurs d’Ubuntu, basé sur LXC(Linux Containers), qui malgré la montée en puissance de technologies telles que Docker dans l’écosystème Kubernetes, reste très pertinent. Cet article explore les raisons de la persistance de LXD, ses cas d’utilisation distinctifs et les produits qui l’emploient dans le monde réel. Prêt à découvrir pourquoi tu devrais y prêter attention?

QU’EST-CE QUE UBUNTU LXD ?

LXD est un outil de gestion de conteneurs qui agit comme une amélioration de LXC, offrant une expérience de conteneurisation plus complète pour les machines virtuelles légères. Alors que Docker et d’autres conteneurs basés sur la norme OCI sont éphémères de par leur conception, LXD se concentre davantage sur la fourniture de conteneurs de systèmes complets, permettant à plusieurs processus et services de s’exécuter à la manière d’une machine virtuelle. Tu peux même déployer un environnement Kubernetes complet, avec ses conteneurs à l’intérieur d’un LXD. En cela, il ressemble beaucoup plus à ses proches parents tels que les jails BSD, les zones Solaris et les WPAR AIX. Tu penses toujours que Docker ou Podman sont tes seules options ?

Capture d'écran de l'interface LXD

L’évolution des conteneurs

Tu te souviens quand Docker était l’unique outil de conteneurisation que tout le monde aimait ? Depuis son lancement en 2013, Docker a révolutionné le développement et le déploiement d’applications en rendant les conteneurs accessibles et faciles à utiliser. Docker a permis aux développeurs de regrouper leurs applications avec toutes leurs dépendances, garantissant ainsi un fonctionnement cohérent dans n’importe quel environnement. Cette innovation a conduit à une adoption massive des conteneurs dans l’industrie, Docker et Podman devenant des standards de facto, quand ce n’est pas directement leurs orchestrateurs tels que Kubernetes. Mais Docker est-il la seule star du spectacle ?

Alors que Docker attirait toute l’attention, LXD travaillait discrètement pour offrir quelque chose de différent: des conteneurs de système d’exploitation complets. À mesure que les organisations adoptent les conteneurs pour davantage de cas d’utilisation, la nécessité d’une gestion plus sophistiquée et plus efficace est apparue. C’est là que LXD entre en jeu. Peux-tu imaginer avoir la flexibilité des machines virtuelles mais avec l’efficacité des conteneurs, sans avoir à faire des folies et à changer totalement les cas d’utilisation ?

Comparaison entre Ubuntu LXD, Podman et Docker

Docker et Podman sont conçus pour emballer et déployer des applications individuelles, tandis qu’Ubuntu LXD offre une expérience plus complète. Son architecture est axée sur la conteneurisation des microservices, les applications cloud et le déploiement continu.

Ils sont également étroitement intégrés à Kubernetes, l’outil d’orchestration de conteneurs le plus populaire du marché. D’autre part, LXD te permet de faire fonctionner un système complet à l’intérieur d’un conteneur. Cette capacité le rend idéal pour les cas d’utilisation où un environnement complet est nécessaire, semblable à une machine virtuelle mais avec l’efficacité des conteneurs. Tu vois la différence ?image des logos LXD et Docker

Cas d’utilisation d’Ubuntu LXD

LXD excelle dans plusieurs scénarios spécifiques. Par exemple, en
Infrastructure as a Service (IaaS)
LXD permet de créer et de gérer des conteneurs de systèmes d’exploitation complets. C’est idéal pour les fournisseurs de services cloud qui ont besoin de proposer des environnements complets sans les frais généraux des machines virtuelles traditionnelles. As-tu déjà eu des problèmes pour reproduire un environnement de développement identique à l’environnement de production ? Avec LXD, les développeurs peuvent créer des environnements de développement isolés et reproductibles, ce qui minimise les problèmes de configuration et de dépendance.

Machines virtuelles à image lxd et conteneurs linux

Dans le domaine des simulations et des tests de réseaux, LXD permet de simuler des réseaux complexes et de tester des services au niveau du réseau. Cette capacité est cruciale pour répliquer des infrastructures de réseau entières au sein d’un seul hôte. Pour les tâches d’administration système et de DevOps, LXD offre une flexibilité qui va au-delà de la conteneurisation d’applications. Il permet de créer des environnements complets qui peuvent être gérés, mis à jour et surveillés comme s’il s’agissait de machines physiques, mais avec l’efficacité des conteneurs. Tu penses toujours que ta seule alternative est Docker ?

Solutions utilisant Ubuntu LXD

Canonical, la société à l’origine d’Ubuntu et partenaire de Sixe, a développé plusieurs solutions basées sur Ubuntu LXD pour offrir des performances et une flexibilité exceptionnelles. Parmi ces solutions, il y a MAAS (Metal as a Service), qui utilise LXD pour fournir des environnements de développement et de test hautement configurables. Il permet aux utilisateurs de déployer des systèmes d’exploitation complets dans des conteneurs, ce qui facilite la gestion d’infrastructures vastes et complexes.

Les statistiques github microcloud de canonical

Microcloud bénéficie de LXD en l’intégrant pour proposer des conteneurs de systèmes d’exploitation complets comme option supplémentaire (ou alternative) aux machines virtuelles traditionnelles, ce qui améliore la flexibilité et l’efficacité de la gestion des ressources. En outre, Travis CI, une plateforme d’intégration continue, utilise LXD pour exécuter ses environnements de test, ce qui lui permet de fournir des environnements de test rapides et reproductibles, améliorant ainsi l’efficacité des développeurs. Surpris ? Ce n’est pas tout.

Pour celles et ceux qui cherchent à mettre en place ces solutions dans leur environnement,
SIXE Engineering
est le partenaire de référence de Canonical et d’Ubuntu que tu cherches. Grâce à sa grande expérience dans la mise en œuvre de LXD et d’autres technologies de virtualisation, SIXE peut t’aider à maximiser le potentiel de tes infrastructures informatiques. Que tu aies besoin d’une assistance pour MAAS, OpenStack ou toute autre solution basée sur LXD, SIXE possède les connaissances et l’expérience nécessaires pour te guider à chaque étape du processus. Quand les chemins de bifurcation sont nombreux, nous saurons te recommander, te conseiller et t’accompagner sur celui qui te convient le mieux. Sans compromis ni lien avec un quelconque fabricant, car avec Canonical, nous ne proposons pas de produits fermés, mais des technologies ouvertes, réalisées avec et pour la communauté, en poussant la philosophie du logiciel libre jusqu’à ses ultimes conséquences.

Conclusion

Malgré la domination des technologies de conteneurisation légères telles que Docker et Podman dans Kubernetes, LXD reste pertinent dans de nombreux cas d’utilisation en raison de sa capacité à fournir des conteneurs de système d’exploitation complets. Son utilisation dans l’infrastructure en tant que service, les environnements de développement, les simulations de réseau et l’ administration système ainsi que son adoption dans des produits tels que MAAS, OpenStack et Travis en sont la preuve.

Selon nous, les avantages de LXD résident dans sa capacité unique à combiner l’efficacité des conteneurs avec la simplicité des machines virtuelles, offrant ainsi une solution hybride qui reste essentielle pour de multiples applications. Tu penses toujours que Docker est la seule option ? Certainement pas. Nous espérons que cet article t’a plu et n’oublie pas que, pour toute mise en œuvre de ces technologies,
tu peux compter sur le soutien des experts de SIXE en cliquant ici.
Nous serons toujours à tes côtés avec les meilleures solutions gratuites.

Logo MicroStack sobre fondo azul

Exploration de MicroStack : Une solution de nuage privé léger

TIRER PARTI DE MICROSTACK EN TANT QUE SOLUTION DE NUAGE PRIVÉ LÉGER

Alors que les organisations continuent d’adopter l’informatique en nuage, le choix de la bonne infrastructure en nuage devient une décision cruciale. De plus, MicroStack : Lightweight Private Cloud Solution, un outil open-source léger, facile à installer et basé sur la plateformeOpenstack, s’est imposé comme un choix incontournable pour de nombreuses entreprises. Ce billet de blog explorera les avantages de l’utilisation de MicroStack, soulignera la part de marché croissante de la plateforme Openstack et discutera de la hausse des prix des concurrents du cloud public, ainsi qu’une prise en main directe du tableau de bord intuitif d’Openstack, afin d’explorer ses capacités et sa facilité d’utilisation.

 

Ilsutración de una mujer usando un ordenador en la nube

POURQUOI CHOISIR MICROSTACK ?

MicroStack offre la flexibilité des logiciels open-source par rapport aux déploiements traditionnels de clouds publics, et propose une version plus légère et facile à déployer de la plateforme Openstack . Cette variante d’Openstack convient parfaitement aux startups ou aux petits déploiements de nuages au sein de grandes organisations.

Flexibilité de l’open source🌐

MicroStack offre la flexibilité des logiciels libres sans le fardeau des frais de licence ou de la dépendance à l’égard des fournisseurs. Cela permet aux organisations de mettre en place une infrastructure en nuage à moindre coût et avec la liberté de modifier et d’étendre la plateforme en fonction de leurs besoins spécifiques. Le modèle de développement dirigé par la communauté garantit des améliorationset des innovations continues, favorisant un écosystème solide autour de MicroStack.


Customizability🛠️

De plus, avec MicroStack, les organisations ont un accès complet au code source et peuvent adapter la plateforme à leurs besoins uniques. Cela inclut l’intégration d’un large éventail de plug-ins et d’extensions, permettant aux entreprises de construire un environnement cloud qui s’aligne précisément sur leurs objectifs opérationnels. Cette flexibilité est cruciale pour s’adapter à l’évolution des demandes des entreprises et optimiser l’utilisation des ressources.


Déploiement simplifié 🚀

MicroStack est conçu pour faciliter le déploiement, offrant un processus d’installation rationalisé qui minimise la complexité et le temps de configuration, étant capable de démarrer un déploiement cloud dans un nœud de calcul en moins de 6 commandes, avec un temps de déploiement moyen de 30 minutes. Cela le rend particulièrement adapté aux organisations qui cherchent à établir ou à étendre rapidement leur empreinte sur le nuage sans disposer d’une expertise technique approfondie. Le déploiement simple réduit également les obstacles initiaux à l’adoption, ce qui permet de rentabiliser plus rapidement les initiatives liées au nuage.


Vendeur neutrality🛡️

Contrairement aux solutions cloud propriétaires qui enferment les utilisateurs dans des fournisseurs spécifiques, MicroStack prend en charge une gamme variée de configurations matérielles et logicielles.
La conviction de Canonical
croit fermement au logiciel libre et à la neutralité vis-à-vis des fournisseurs, ce qui réduit les risques de dépendance et permet aux organisations de sélectionner les meilleurs composantspour leur infrastructure. Il s’aligne également sur les tendances de l’industrie en matière de normes ouvertes et d’interopérabilité, ce qui améliore l’évolutivité à long terme et l’efficacité opérationnelle. Par conséquent, MicroStack prend en charge une gamme variée de configurations matérielles et logicielles.


Empreinte légère🌱

Contrairement aux déploiements OpenStack à grande échelle qui nécessitent des ressources matérielles importantes, MicroStack fonctionne efficacement sur des environnements à plus petite échelle. Cela en fait un choix idéal pour les scénarios d’informatique périphérique ou les organisations dont le budget d’infrastructure est limité. En optimisant l’utilisation des ressources et en minimisant les frais généraux, MicroStack améliore l’efficacité opérationnelle tout en réduisant le coût total de possession.

AVANTAGES TECHNIQUES ET DE PERFORMANCE

De plus, MicroStack offre des capacités techniques robustes qui prennent en charge diverses exigences en matière de charge de travail, telles que :

Évolutivité📈

MicroStack est conçu pour s’adapter horizontalement à la croissance des charges de travail et à l’évolution des besoins de l’entreprise. Qu’il s’agisse de déployer quelques nœuds ou de passer à des milliers, MicroStack assure une expansion transparente sans compromettre les performances ou la stabilité. Cette évolutivité est essentielle pour les organisations qui connaissent une croissance rapide ou des modèles de demande fluctuants dans leurs opérations dans le nuage.


networking🛰️ avancé

Les capacités de mise en réseau de MicroStack, alimentées par des composants tels que Neutron, offrent des fonctionnalités avancées telles que.
la mise en réseau définie par logiciel (SDN)
et la virtualisation des fonctions réseau (NFV). Ces capacités permettent aux organisations de créer des topologies de réseau complexes, d’optimiser la gestion du trafic et d’améliorer les performances globales du réseau. L’accent mis par MicroStack sur les paradigmes de mise en réseau modernes prend en charge les technologies émergentes comme les
conteneurs
et l’edge computing, s’alignant sur les tendances de l’industrie vers des infrastructures informatiques agiles et adaptatives.


Des solutions de stockage efficaces📦

MicroStack prend en charge une variété de backends de stockage grâce à des composants tels que Cinder (stockage en bloc) et Swift (stockage d’objets). Cette polyvalence permet aux organisations de mettre en place des solutions de stockage très performantes et évolutives, adaptées aux exigences spécifiques des applications.


Rentabilité💰

Les outils de gestion efficace des ressources de MicroStack optimisent l’utilisation des ressources, minimisent les déchets et améliorent l’efficacité opérationnelle. En maximisant l’utilisation des ressources d’infrastructure existantes et en réduisant le besoin de solutions propriétaires coûteuses, MicroStack permet aux organisations d’allouer leurs ressources de manière plus stratégique et de se concentrer sur l’innovation plutôt que sur la gestion de l’infrastructure.

Illustration en tons verts d'une carte de paiement

AVANTAGES EN TERMES DE COÛTS

Les outils efficaces de gestion des ressources de MicroStack optimisent l’utilisation des ressources des solutions cloud traditionnelles :

  • Réduction du coût total de possession (TCO)

En éliminant les frais de licence et en tirant parti du matériel de base, MicroStack réduit considérablement les dépenses initiales et les dépenses permanentes au fur et à mesure que l’organisation et le déploiement dans le nuage s’étendent.

Les organisations peuvent réaliser des économies substantielles tout en conservant la flexibilité et l’évolutivité d’une plateforme cloud open-source. Cette rentabilité rend la plateforme Openstack accessible aux organisations de toutes tailles, des startups aux grandes entreprises, qui cherchent à optimiser leurs investissements informatiques et à maximiser leur retour sur investissement.

  • Rentabilité

Les outils de gestion efficace des ressources de MicroStack optimisent l’utilisation des ressources, minimisent les déchets et améliorent l’efficacité opérationnelle. En maximisant l’utilisation des ressources d’infrastructure existantes et en réduisant le besoin de solutions propriétaires coûteuses, MicroStack permet aux organisations d’allouer leurs ressources de manière plus stratégique et de se concentrer sur l’innovation plutôt que sur la gestion de l’infrastructure.

Mujer mirando sus ingresos

TENDANCES DU MARCHÉ ET AUGMENTATION DES PRIX DES SERVICES DE CLOUD PUBLIC

L’essor d’OpenStack : Un marché en pleine croissance

MicroStack offre une alternative viable en fournissant des solutions cloud rentables, devrait connaître une croissance significative du marché, passant de 5,46 milliards de dollars en 2024 à un montant stupéfiant de 29,5 milliards de dollars en 2031 . Cette croissance souligne l’adoption et la reconnaissance croissantes des avantages d’OpenStack parmi les organisations du monde entier. Sa flexibilité, sa rentabilité et le soutien solide de la communauté en font un choix privilégié pour les entreprises qui visent à déployer des infrastructures cloud évolutives et efficaces.

Défis en matière de coûts dans les services de cloud public

En revanche, le coût des services de cloud public a augmenté. Bien que ces plateformes offrent des fonctionnalités étendues et une portée mondiale, l’escalade de leurs prix présente des défis pour les organisations qui cherchent à gérer efficacement les coûts du nuage. MicroStack offre une alternative viable en proposant des solutions cloud rentables sans compromettre les performances ou l’évolutivité.

Le passage des déploiements sans serveur aux déploiements monolithiques.

Paradoxalement, même les géants du cloud public comme Amazon s’abstiennent d’utiliser leur propre cloud public, AWS en tant que micro service / plateforme sans serveur , s’éloignant du serverless et choisissant plutôt d’opter pour un déploiement monolithique, ce qui a diminué leur OPEX de 90%. Ce type d’architecture, s’il est bénéfique, peut être intégré rapidement et de façon transparente dans ton environnement avec Microstack, en exploitant pleinement la plateforme Openstack en quelques étapes simples, en ayant toute ton architecture pertinente sous un seul réseau privé, avec une gestion simple et intuitive de la topologie du réseau dans le cas d’un futur scénario de montée en gamme. Pour les petites entreprises, Microstack simplifiera encore plus la migration ou le déploiement d’une telle infrastructure.

L’adoption d’OpenStack par les grandes entreprises

Par exemple, plus de 50 % des entreprises du classement Fortune 100 ont adopté Openstack , ce qui souligne leur confiance et leur dépendance à l’égard de ces technologies pour prendre en charge les opérations critiques et les initiatives stratégiques.
Des entreprises comme Comcast, Allstate, Bosch et Capital One s’appuient sur Openstack pour stimuler l’innovation et obtenir des avantages concurrentiels.

L’impact mondial d’OpenStack

De plus, dans des régions comme l’APAC, des organisations telles que UnionPay, China Mobile et China Railway s’appuient sur OpenStack pour faire évoluer et transformer leurs opérations informatiques, ce qui stimule encore davantage l’adoption et la croissance des solutions cloud open-source à l’échelle mondiale.

MicroStack offre des avantages convaincants en termes de coûts par rapport aux solutions cloud traditionnelles :
Graphique présentant la position d'Openstack sur le marché

NOTRE EXPÉRIENCE AVEC MICROSTACK CHEZ SIXE

Dans l’ensemble, notre expérience avec MicroStack chez SIXE d’un point de vue opérationnel peut être décrite comme le summum de la praticité et de l’efficacité. L’installation, l’utilisation et le déploiement de MicroStack ont été simples et intuitifs, ce qui nous a permis de démarrer un nuage privé en moins de 30 minutes.

Pour résumer, naviguer dans les complexités de la gestion de l’infrastructure cloud est un aspect crucial des opérations informatiques modernes. Dans cette dernière section, nous nous plongeons dans notre expérience d’utilisateur avec le tableau de bord de MicroStack.

Le tableau de bord MicroStack illustre la façon dont notre partenaire
Canonical
l’engagement de notre partenaire Canonical en faveur de la facilité d’utilisation et de l’accessibilité. En s’appuyant sur le tableau de bord, les utilisateurs peuvent facilement déployer et gérer des machines virtuelles, configurer la mise en réseau et surveiller l’utilisation des ressources, le tout à partir d’un hub centralisé, aplanissant ainsi la courbe d’apprentissage nécessaire au déploiement et à l’exploitation d’infrastructures critiques basées sur le cloud.

✨Comment lancer et configurer une instance virtuelle ?

Il suffit de quelques clics pour lancer et configurer une instance virtuelle via le tableau de bord.

Nous lançons une instance à partir du bouton qui se trouve en haut à droite, un menu contextuel apparaît où nous pouvons définir la configuration du serveur.

Nous fournissons le nom et le projet de notre instance.

Ensuite, nous choisissons l’image de notre VM, nous pouvons utiliser une image OS-ISO standard, ou importer nos snapshots personnalisés à partir d’une VM configurée précédemment pour un déploiement rapide mais personnalisé des besoins spécifiques de notre entreprise.

Ensuite, nous sélectionnons la saveur de l’instance, les saveurs sont la façon dont Openstack configure les spécifications du matériel virtuel, tu peux utiliser l’une des saveurs prédéfinies ou en créer une pour répondre à tes besoins spécifiques en matière d’infrastructure et d’application.

Nous utiliserons la spécification de saveur moyenne, Openstack nous avertit même de manière préemptive des contraintes matérielles auxquelles chaque snapshot ou image est soumis.

En supposant que ton réseau soit déjà configuré, la dernière étape (et facultative) consiste à ajouter un groupe de sécurité afin que nous puissions accéder à l’instance via SSH et opérer à l’intérieur de celle-ci.

Maintenant, notre instance personnalisée est prête à fonctionner! :)

Dans le menu d’actions situé à droite, nous pouvons associer une adresse IP flottante afin d’accéder directement à l’instance par SSH depuis notre réseau interne.

Nous pouvons maintenant utiliser cette adresse IP pour accéder directement à l’instance via SSH !

Nouveau cours sur l’automatisation des systèmes Power d’IBM avec Ansible !

Nous avons le plaisir d’annoncer le lancement du
cours officiel d’IBM et de SIXE sur l’automatisation des systèmes IBM Power avec Ansible.
. Ce programme de formation est conçu pour fournir des compétences avancées et pratiques dans l’automatisation de diverses plates-formes IBM Power Systems, notamment AIX, Linux et IBM i, ainsi que les serveurs VIOS et PowerHA.

🏆 Les choses que tu apprendras pendant le cours:

  • Automatisation AIX : Maîtrise l’automatisation des tâches répétitives et complexes sur AIX.
  • Automatisation Linux sur Power : Apprends à gérer et à automatiser les opérations sur les serveurs Linux dans les environnements Power Systems et à déployer des environnements complexes tels que SAP HANA.
  • Automatisation IBM i : découvre comment simplifier l’administration des systèmes IBM i à l’aide d’Ansible.
  • Gestion des VIOS : Améliore l’efficacité des serveurs d’E/S virtuels (VIOS) grâce à des techniques d’automatisation avancées.
  • Mise en œuvre de PowerHA : Apprends les meilleures pratiques pour automatiser la haute disponibilité dans les systèmes Power à l’aide de PowerHA.

🎓 À qui s’adresse-t-il ?

Ce cours s’adresse aux administrateurs système, aux ingénieurs informatiques, aux architectes de solutions et à tout professionnel désireux d’améliorer ses compétences en matière d’automatisation dans les environnements IBM Power Systems. Aucune expérience préalable avec Ansible n’est requise, bien qu’une connaissance de base de l’administration système soit bénéfique. Si tu le souhaites, tu peux suivre au préalable notre cours sur Ansible et AWX.

💼 Avantages du cours:

  • Certification officielle : obtiens une certification reconnue internationalement par IBM et SIXE.
  • Compétences pratiques : participe à des exercices pratiques et à des projets concrets qui te prépareront à relever les défis du monde réel.
  • Matériel exclusif : accède à des ressources de formation exclusives et actualisées.

📍 Modalité:

Le cours sera proposé dans un format hybride, avec des options en face à face et en ligne pour répondre à tes besoins.

📝 Inscription:

Ne manque pas cette occasion de faire progresser ta carrière et de transformer ta façon de travailler avec IBM Power Systems !
Inscris-toi dès aujourd’hui
et assure ta place pour la prochaine édition.

Rejoins-nous et fais passer tes compétences en automatisation des environnements critiques au niveau supérieur. Nous nous réjouissons de te voir au cours officiel d’IBM et de SIXE sur l’automatisation des systèmes IBM Power avec Ansible !

Peut-on faire fonctionner des VM KVM (imbriquées) au-dessus des LPAR Linux IBM PowerVM ?

Mise à jour ! Ce n’est plus une rumeur mais officiellement pris en charge à partir du 19 juillet 2024 (voir annonce).

Une brève histoire de la virtualisation imbriquée sur le matériel IBM

La virtualisation imbriquée permet à une machine virtuelle (VM) d’héberger d’autres VM, créant ainsi un environnement de virtualisation en couches. Cette capacité est particulièrement bénéfique dans les scénarios d’entreprise où la flexibilité, l’évolutivité et la gestion efficace des ressources (si nous économisons sur l’unité centrale, nous économisons sur les licences en $$$) sont essentielles.

Bien qu’il puisse être utilisé à des fins de test avec KVM sur x86 ou VMware, les performances sont souvent sous-optimales en raison des multiples traductions et modifications des instructions matérielles avant qu’elles n’atteignent l’unité centrale ou le sous-système d’E/S. Ce problème n’est pas propre à ces plateformes et peut également affecter d’autres technologies de virtualisation.

Sur des plateformes comme Z, bien que l’impact de la virtualisation imbriquée sur les performances existe, les améliorations et les optimisations de l’hyperviseur peuvent atténuer ces effets, ce qui la rend viable à 100 % pour une utilisation en entreprise.

Couches de virtualisation sur IBM Mainframe

Avant de se plonger dans le KVM imbriqué sur PowerVM, il est essentiel de comprendre les technologies similaires. Si le mainframe est le grand-père de la technologie actuelle des serveurs, le partitionnement logique (LPAR) et les technologies de virtualisation (zVM) sont les grands-mères des solutions d’hyperviseurs.

zvm linuxone kvm powervm hyperviseurs

Sur cette image (tirée de cet excellent article d’), tu peux voir jusqu’à 4 couches.

Virtualisation de niveau 1 : Montre une LPAR fonctionnant sous Linux en mode natif

Virtualisation de niveau 2 : Montre les machines virtuelles fonctionnant sur l’hyperviseur z/VM ou KVM.

Virtualisation de niveau 3 : Montre l’imbrication des machines virtuelles z/VM

Virtualisation de niveau 4 : Montre des conteneurs Linux qui peuvent soit fonctionner comme des conteneurs autonomes, soit être orchestrés avec kubernetes.

Jette maintenant un coup d’œil à cette ancienne image (2010) de l’architecture de la plateforme Power d’IBM. Est-ce que tu vois quelque chose de similaire ? :) Passons à autre chose !

virtualisation powervm

Déployer des machines virtuelles au sommet d’une LPAR PowerVM Linux

Si nous avons des LPAR sur Power où nous pouvons exécuter AIX, Linux et IBM i, et dans Linux, nous pouvons installer KVM, pouvons-nous exécuter des VM à l’intérieur d’une LPAR ?

Pas tout à fait ; il échouera à un moment ou à un autre. Pourquoi ? Parce que KVM n’est pas zVM (pour l’instant), et que nous avons besoin de quelques ajustements dans le code du noyau Linux pour prendre en charge la virtualisation imbriquée non seulement avec les processeurs IBM Power9 ou Power10, mais aussi avec le sous-système de mémoire et les E/S Power.

En examinant les listes de diffusion de kernel.org, nous pouvons voir des développements prometteurs. Réussir à faire fonctionner plusieurs VM avec KVM sur un LPAR PowerVM signifie porter une fantastique technologie de virtualisation mainframe sur IBM Power, ce qui nous permet de faire fonctionner des VM et la virtualisation Kubernetes/OpenShift sur ppc64le à des fins de production. Cela ferait une différence significative si la pénalité de performance était minime.La virtualisation du processeur sur les systèmes Power et Mainframe alloue simplement du temps de processeur sans mapper un thread complet comme le font KVM ou VMware. Par conséquent, il est techniquement possible d’ajouter un hyperviseur par-dessus sans affecter de manière significative les performances, comme le fait IBM avec LinuxOne.

Dernières nouvelles de KVM sur IBM PowerVM LPARs (mai 2024)

Chez Sixe, nous suivons de près les développements de ppc64 et ppc64le depuis des années. Récemment, nous avons trouvé des messages intrigants sur les listes de diffusion du noyau Linux. Ces messages donnent un aperçu de la feuille de route immédiate de cette technologie très attendue et demandée.

1) Ajouter une capacité VM pour permettre la virtualisation imbriquée
Résumé : Ce message traite de la mise en œuvre des capacités de virtualisation imbriquée dans KVM pour PowerPC, y compris les configurations de modules et la prise en charge des processeurs POWER9.

2) API PAPR imbriquée (KVM sur PowerVM)
Résumé : Il détaille l’extension de l’état des registres pour l’API PAPR imbriquée, la gestion de plusieurs VCPU et la mise en œuvre d’hyperappels spécifiques.

3) KVM : PPC : Book3S HV : virtualisation HV imbriquée
Résumé : Une série de correctifs améliorant la virtualisation imbriquée dans KVM pour PowerPC, notamment la gestion des hypercalls, des défauts de page et des tables de mappage dans debugfs.

Pour des informations plus détaillées, tu peux consulter les liens suivants :

Pourrons-nous installer Windows sur les systèmes Power (pour le plaisir) ?

CAKE - Perhaps, Perhaps, Perhaps (Official Audio)CAKE – Perhaps, Perhaps, Perhaps (Official Audio)

Reste à l’écoute !

Alianza de Sixe con Canonical

SIXE annonce une alliance stratégique avec Canonical / Ubuntu dans le cadre de son engagement en faveur des logiciels libres.

Madrid, Espagne – 8 mai 2024 – SIXEun chef de file en matière de solutions d’infrastructure informatique pour les environnements critiques, avec plus de 15 ans d’expérience. a annoncé son partenariat stratégique avec Canonicalle premier développeur mondial de logiciels open source basés sur la technologie Ubuntula distribution Linux la plus populaire au monde.

SIXE apporte une grande expérience dans la mise en œuvre et le soutien de solutions pour de grands clients en Europe et en Amérique. Tout au long de sa carrière, il a travaillé avec des entreprises de premier plan dans des secteurs tels que la banque, les télécommunications, l’énergie, l’administration publique et la fabrication. Nous sommes très enthousiastes à l’idée de rejoindre Canonical en tant que partenaire stratégique. Nous partageons une passion pour l’open source, un ADN ouvert dans le code mais aussi dans les affaires, en plaçant nos clients au centre. Ce partenariat nous permettra d’offrir des solutions encore plus innovantes et efficaces à nos clients en Europe et en Amérique.

Une expérience éprouvée et des valeurs partagées

SIXE dispose d’une équipe hautement qualifiée, certifiée dans les principales technologies logicielles libres et open source telles que Ubuntu, Red Hat et SUSE. En outre, l’entreprise a conclu des partenariats avec d’autres leaders technologiques, ce qui lui permet d’offrir des solutions de bout en bout comprenant du matériel, des logiciels, des services de mise en œuvre et une assistance technique avancée.

Engagement en faveur de la liberté et de la transparence

Les logiciels libres reposent sur la liberté des utilisateurs d’exécuter, de modifier et de distribuer le logiciel sans restrictions. Canonical se distingue par son engagement en faveur de licences telles que la GPLv3, garantissant ces libertés fondamentales. En outre, son engagement en faveur de l’accessibilité et de la transparence se reflète dans le développement ouvert d’Ubuntu, dont le code source est publiquement disponible pour examen et modification, ce qui favorise la collaboration et la confiance au sein de la communauté des développeurs.

Soutien à long terme

Canonical se différencie par son soutien à long terme avec Ubuntu LTS (Long Term Support), qui offre des mises à jour de sécurité et de maintenance pendant 5 ans, extensibles à 10 ans pour les petits environnements. Cela apporte stabilité et prévisibilité aux utilisateurs professionnels, ce que SIXE apprécie. L’engagement de Canonical en faveur de la liberté des clients de décider quand et comment mettre à niveau sans perdre l’accès aux correctifs de sécurité est l’une des nombreuses raisons pour lesquelles nous avons choisi de nous associer.

Des solutions pour les entreprises et les organisations de toutes tailles et de tous secteurs.

Canonical a développé des moyens innovants pour mettre en œuvre non seulement des environnements Linux avec Ubuntu, mais des solutions complètes de cloud public et privé avec OpenStack, des plateformes de conteneurs avec Kubernetes et des environnements de virtualisation avec KVM, fonctionnant à la fois dans des centres de données petits et grands, à travers des ordinateurs de bureau et des environnements d’edge computing.

Un partenariat stratégique pour un avenir ouvert

L’alliance stratégique entre SIXE et Canonical permettra de proposer une gamme encore plus large de solutions logicielles libres et open source, ainsi qu’une assistance renforcée. Grâce à cette collaboration, les entreprises aideront leurs clients à exploiter le potentiel des logiciels libres pour transformer leurs activités, en leur apportant de la valeur et de l’efficacité.

SIXE