Logo Sixe Noticia

SIXE : ton partenaire IBM de confiance

Dans cette ère technologique rapide et complexe, le choix des bons fournisseurs est crucial.
Lorsqu’il s’agit de solutions telles que celles d’IBM, la véritable différence n’est pas la taille de l’entreprise, mais sa capacité technique, son capital humain, son engagement et son niveau de spécialisation.
SIXE Ingeniería est ton partenaire IBM idéal, et nous t’expliquons ici pourquoi.

Expertise technique : qui veux-tu pour concevoir et gérer ton projet ?

Chez SIXE, nous ne sommes pas une entreprise qui revend n’importe quel produit ou service à la recherche d’une marge, en passant le défi technique à quelqu’un d’autre et “bye-bye”.
Nous sommes spécialisés dans des domaines clés tels que la cybersécurité et les infrastructures informatiques critiques.
Contrairement aux grands partenaires d’IBM, qui ont tendance à externaliser la plupart de leurs projets, chez SIXE, chaque tâche est exécutée par nos experts internes. Préfères-tu faire confiance à une entreprise qui sous-traite ou à une équipe qui est directement impliquée dans chaque détail technique ? Notre approche en tant que société d’ingénierie nous permet de concevoir des solutions adaptées aux besoins spécifiques de chaque client.
Nous ne proposons pas de configurations ou de déploiements génériques, mais des solutions adaptées à ce dont ton organisation (et ton équipe) a exactement besoin.
Nous avons une expertise en matière d’infrastructure IBM Power, de stockage, de systèmes d’exploitation (AIX, Red Hat, IBM i, Debian, zOS), de bases de données Informix et DB2, de serveurs d’applications, etc.

Engagement personnalisé : quels soins attends-tu de recevoir ?

Dans les grands cabinets de conseil, les projets deviennent souvent un numéro de plus sur ta liste de clients.
Veux-tu être un client de plus ou préfères-tu un traitement exclusif ?
Chez SIXE, nous offrons un service personnalisé, garantissant que chaque projet reçoit l’attention nécessaire à son bon déroulement et que tu pourras compter sur nous pendant de nombreuses années.
Notre structure agile nous permet de nous adapter rapidement et de travailler côte à côte avec les responsables des systèmes, en veillant à ce que les solutions proposées répondent à tes attentes et à tes besoins.

Innovation et flexibilité

Les grandes entreprises sont souvent prisonnières de processus bureaucratiques qui les empêchent d’innover ou de réagir rapidement aux changements du marché.
Combien de fois es-tu tombé sur des solutions dépassées ou lentes à mettre en œuvre ?
Chez SIXE, nous pouvons nous adapter rapidement et proposer des solutions qui non seulement suivent les dernières tendances, mais les anticipent.
C’est essentiel pour les projets qui nécessitent des réponses rapides et efficaces dans un environnement changeant.
Aussi quand quelque chose, Peu importe si c’est à la mode ou si c’est spectaculaire dans un Power Point, il y a des risques, nous en parlerons et nous te le ferons savoir.

Transparence et contrôle

Lorsque les projets sont externalisés, la transparence et le contrôle sont dilués.
Chez SIXE, tu as la sécurité de savoir exactement qui travaille sur ton projet et comment les ressources sont gérées.
Les grands cabinets de conseil, en raison de leur taille, ont tendance à perdre cette transparence, en déléguant des tâches à des tiers sans que le client ait un réel contrôle sur le processus.
Préfères-tu risquer de perdre la visibilité sur ton projet ou avoir un partenaire qui te tient informé et qui contrôle chaque étape importante ?

Relations à long terme : cherches-tu un fournisseur supplémentaire ou un partenaire stratégique ?

Nous ne cherchons pas à conclure des contrats à court terme ; notre objectif est de construire des relations durables basées sur une relation éthique.
Cela signifie qu’une fois la technologie mise en œuvre, nous restons engagés dans le projet, en offrant une assistance technique, une formation et des conseils chaque fois que cela est nécessaire.
Les grandes entreprises, en revanche, ont tendance à se concentrer sur la mise en œuvre initiale, laissant tout le reste de côté.
En externalisant tout, bien sûr, comme le ferait Homer Simpson.

Retour sur investissement : où va ton argent ?

Dans de nombreux grands cabinets de conseil, une grande partie du budget est consacrée aux frais généraux, avec peu d’impact direct sur la qualité du projet.
Ils n’ont pas de bons ingénieurs au sein de leur personnel parce que leurs dirigeants pensent que l’externalisation des talents techniques réduit les risques et améliore les marges.
Chez SIXE, chaque euro investi se traduit par une valeur réelle, nous n’avons pas de pool de managers et de cadres passant des heures en réunions et repas avec les clients.
Ce que nous avons, c’est une équipe d’ingénieurs reconnue internationalement, engagée auprès de l’entreprise et de ses clients depuis plus de 15 ans.
Nous faisons également partie d’un réseau d’experts reconnu internationalement par IBM.

La différence se situe au niveau de l’exécution

Bien que l’on puisse dire le contraire, la véritable différence dans un projet technologique ne réside pas dans la taille de l’entreprise, mais dans la façon dont chaque projet est exécuté et par qui.
Chez SIXE, nous combinons expertise technique, engagement et transparence, offrant une exécution précise et axée sur les résultats.
Dans un marché saturé d’options, pourquoi ne pas choisir un partenaire qui garantit la qualité, l’innovation et une relation basée sur la collaboration ?
Choisir SIXE comme partenaire IBM, c’est choisir une approche basée sur l’excellence technique et un engagement total sur les résultats.
Ne laisse pas le succès de ton projet entre les mains du hasard, nous sommes un partenaire qui se souciera autant que toi (pour notre bien) du résultat final et de la relation entre nos entreprises à moyen et long terme.

Pas seulement IBM

Bien que 50 % de notre activité soit liée à la formation, au conseil et aux projets d’infrastructure d’IBM, nous sommes également un partenaire stratégique de Canonical (Ubuntu), Red Hat et SUSE.

Qu’en est-il de tes concurrents ?

La vérité est que nous ne le faisons pas parce qu’il n’y a pas d’autre entreprise de notre taille avec notre niveau de spécialisation dans les solutions que nous offrons.
Il existe d’autres petites et moyennes entreprises dotées d’un incroyable capital humain qui complètent les technologies sur lesquelles nous travaillons et avec lesquelles nous collaborons toujours, mais nous ne sommes jamais en concurrence.
Lorsque nous ne savons pas comment faire quelque chose, nous demandons toujours de l’aide et nous le faisons savoir à nos clients. Cela fait partie de notre ADN.

ibm i logo sixe

Apprendre IBM i et RPG avec SIXE

Formation IBM RPG : SIXE❤️IBM i et RPG

SIXE est une référence en matière de formation officielle IBM.
Depuis des années, nous proposons des cours spécialisés sur IBM i et RPG, des technologies clés pour de nombreux CRM et ERP utilisés par de grandes entreprises dans le monde entier.
Parmi nos cours les plus remarquables, il y a l’atelier de programmation avancée en RPG IV.
Si tu es novice en RPG, tu peux commencer à apprendre IBM i et RPG avec SIXE dans notre atelier de base RPG IV.
Ces cours te permettront de tout couvrir, des bases aux techniques les plus avancées de ce langage de programmation robuste.

Personnalisation et qualité de l’enseignement

L’un des principaux facteurs de différenciation de SIXE est notre approche personnalisée.
Chaque cours peut être adapté aux besoins spécifiques de ton équipe, ce qui garantit une formation pratique et pertinente.
Savais-tu que de nombreux cours sont dispensés par des champions IBM?
Ces experts reconnus à l’échelle internationale veillent à ce que les étudiants reçoivent une formation de la plus haute qualité et la plus récente possible.
De plus, nous sommes une entreprise intégrée dirigée par des instructeurs IBM.

Histoire et pertinence d’IBM i aujourd’hui

IBM i, lancé en 1988, est l’évolution du système AS/400, conçu pour être robuste, évolutif et sécurisé.
En plus de trois décennies, il a maintenu sa mission de fournir une plateforme stable et fiable pour la gestion des données d’entreprise.
La dernière version, IBM i 7.5, comprend des améliorations clés en matière de sécurité, de performances et d’intégration au cloud, renforçant ainsi sa pertinence dans l’environnement informatique d’aujourd’hui.

Cas d’utilisation actuels du RPG : Puis-je avoir le billet ?

RPG (Report Program Generator) reste un élément central pour de nombreuses organisations utilisant IBM i, en particulier dans des secteurs tels que la banque, la fabrication et la vente au détail.
RPG a été mis à jour avec des techniques de programmation modernes, ce qui le rend aussi pertinent aujourd’hui qu’il l’était à ses débuts.
Par exemple, lorsque tu paies dans un supermarché, le ticket et les processus associés (inventaire, commande, facturation) sont gérés par un programme en RPG sur un système IBM Power fonctionnant sous IBM i.

Ne m’appelle pas AS/400

Une anecdote intéressante à propos d’IBM i est que son prédécesseur, l’AS/400, a été présenté en 1988 comme un système “aussi facile à utiliser qu’un réfrigérateur”.
À une époque où les systèmes informatiques étaient compliqués, cette promesse mettait en avant IBM i comme un système révolutionnaire en termes d’accessibilité et de simplicité.
Bien que le nom ait changé, si tu as besoin d’un cours sur l’AS/400, nous pouvons aussi l’organiser.

Pourquoi choisir SIXE ?

Avec plus de 15 ans d’expérience, SIXE n’offre pas seulement une formation, mais une expérience éducative complète qui est adaptée aux besoins de chaque client.
L’accent mis sur la qualité et la personnalisation, associé à l’expertise d’instructeurs hautement qualifiés, fait de SIXE le meilleur choix pour ceux qui recherchent une formation officielle IBM efficace et personnalisée.
Pour en savoir plus sur ces cours et pour t’inscrire, visite les liens suivants sur notre site Web :

logos de sixe avec ses partenaires suse, canonical, red hat et ibm

Logos sixe podman docker y lxd ubuntu

Découvre Ubuntu LXD : l’alternative à Docker ou Podman

Tu utilises toujours uniquement Docker ou Podman ? Découvre pourquoi tu devrais essayer Ubuntu LXD

INTRODUCTION

Ubuntu LXD est le gestionnaire de conteneurs d’Ubuntu, basé sur LXC(Linux Containers), qui malgré la montée en puissance de technologies telles que Docker dans l’écosystème Kubernetes, reste très pertinent. Cet article explore les raisons de la persistance de LXD, ses cas d’utilisation distinctifs et les produits qui l’emploient dans le monde réel. Prêt à découvrir pourquoi tu devrais y prêter attention?

QU’EST-CE QUE UBUNTU LXD ?

LXD est un outil de gestion de conteneurs qui agit comme une amélioration de LXC, offrant une expérience de conteneurisation plus complète pour les machines virtuelles légères. Alors que Docker et d’autres conteneurs basés sur la norme OCI sont éphémères de par leur conception, LXD se concentre davantage sur la fourniture de conteneurs de systèmes complets, permettant à plusieurs processus et services de s’exécuter à la manière d’une machine virtuelle. Tu peux même déployer un environnement Kubernetes complet, avec ses conteneurs à l’intérieur d’un LXD. En cela, il ressemble beaucoup plus à ses proches parents tels que les jails BSD, les zones Solaris et les WPAR AIX. Tu penses toujours que Docker ou Podman sont tes seules options ?

Capture d'écran de l'interface LXD

L’évolution des conteneurs

Tu te souviens quand Docker était l’unique outil de conteneurisation que tout le monde aimait ? Depuis son lancement en 2013, Docker a révolutionné le développement et le déploiement d’applications en rendant les conteneurs accessibles et faciles à utiliser. Docker a permis aux développeurs de regrouper leurs applications avec toutes leurs dépendances, garantissant ainsi un fonctionnement cohérent dans n’importe quel environnement. Cette innovation a conduit à une adoption massive des conteneurs dans l’industrie, Docker et Podman devenant des standards de facto, quand ce n’est pas directement leurs orchestrateurs tels que Kubernetes. Mais Docker est-il la seule star du spectacle ?

Alors que Docker attirait toute l’attention, LXD travaillait discrètement pour offrir quelque chose de différent: des conteneurs de système d’exploitation complets. À mesure que les organisations adoptent les conteneurs pour davantage de cas d’utilisation, la nécessité d’une gestion plus sophistiquée et plus efficace est apparue. C’est là que LXD entre en jeu. Peux-tu imaginer avoir la flexibilité des machines virtuelles mais avec l’efficacité des conteneurs, sans avoir à faire des folies et à changer totalement les cas d’utilisation ?

Comparaison entre Ubuntu LXD, Podman et Docker

Docker et Podman sont conçus pour emballer et déployer des applications individuelles, tandis qu’Ubuntu LXD offre une expérience plus complète. Son architecture est axée sur la conteneurisation des microservices, les applications cloud et le déploiement continu.

Ils sont également étroitement intégrés à Kubernetes, l’outil d’orchestration de conteneurs le plus populaire du marché. D’autre part, LXD te permet de faire fonctionner un système complet à l’intérieur d’un conteneur. Cette capacité le rend idéal pour les cas d’utilisation où un environnement complet est nécessaire, semblable à une machine virtuelle mais avec l’efficacité des conteneurs. Tu vois la différence ?image des logos LXD et Docker

Cas d’utilisation d’Ubuntu LXD

LXD excelle dans plusieurs scénarios spécifiques. Par exemple, en
Infrastructure as a Service (IaaS)
LXD permet de créer et de gérer des conteneurs de systèmes d’exploitation complets. C’est idéal pour les fournisseurs de services cloud qui ont besoin de proposer des environnements complets sans les frais généraux des machines virtuelles traditionnelles. As-tu déjà eu des problèmes pour reproduire un environnement de développement identique à l’environnement de production ? Avec LXD, les développeurs peuvent créer des environnements de développement isolés et reproductibles, ce qui minimise les problèmes de configuration et de dépendance.

Machines virtuelles à image lxd et conteneurs linux

Dans le domaine des simulations et des tests de réseaux, LXD permet de simuler des réseaux complexes et de tester des services au niveau du réseau. Cette capacité est cruciale pour répliquer des infrastructures de réseau entières au sein d’un seul hôte. Pour les tâches d’administration système et de DevOps, LXD offre une flexibilité qui va au-delà de la conteneurisation d’applications. Il permet de créer des environnements complets qui peuvent être gérés, mis à jour et surveillés comme s’il s’agissait de machines physiques, mais avec l’efficacité des conteneurs. Tu penses toujours que ta seule alternative est Docker ?

Solutions utilisant Ubuntu LXD

Canonical, la société à l’origine d’Ubuntu et partenaire de Sixe, a développé plusieurs solutions basées sur Ubuntu LXD pour offrir des performances et une flexibilité exceptionnelles. Parmi ces solutions, il y a MAAS (Metal as a Service), qui utilise LXD pour fournir des environnements de développement et de test hautement configurables. Il permet aux utilisateurs de déployer des systèmes d’exploitation complets dans des conteneurs, ce qui facilite la gestion d’infrastructures vastes et complexes.

Les statistiques github microcloud de canonical

Microcloud bénéficie de LXD en l’intégrant pour proposer des conteneurs de systèmes d’exploitation complets comme option supplémentaire (ou alternative) aux machines virtuelles traditionnelles, ce qui améliore la flexibilité et l’efficacité de la gestion des ressources. En outre, Travis CI, une plateforme d’intégration continue, utilise LXD pour exécuter ses environnements de test, ce qui lui permet de fournir des environnements de test rapides et reproductibles, améliorant ainsi l’efficacité des développeurs. Surpris ? Ce n’est pas tout.

Pour celles et ceux qui cherchent à mettre en place ces solutions dans leur environnement,
SIXE Engineering
est le partenaire de référence de Canonical et d’Ubuntu que tu cherches. Grâce à sa grande expérience dans la mise en œuvre de LXD et d’autres technologies de virtualisation, SIXE peut t’aider à maximiser le potentiel de tes infrastructures informatiques. Que tu aies besoin d’une assistance pour MAAS, OpenStack ou toute autre solution basée sur LXD, SIXE possède les connaissances et l’expérience nécessaires pour te guider à chaque étape du processus. Quand les chemins de bifurcation sont nombreux, nous saurons te recommander, te conseiller et t’accompagner sur celui qui te convient le mieux. Sans compromis ni lien avec un quelconque fabricant, car avec Canonical, nous ne proposons pas de produits fermés, mais des technologies ouvertes, réalisées avec et pour la communauté, en poussant la philosophie du logiciel libre jusqu’à ses ultimes conséquences.

Conclusion

Malgré la domination des technologies de conteneurisation légères telles que Docker et Podman dans Kubernetes, LXD reste pertinent dans de nombreux cas d’utilisation en raison de sa capacité à fournir des conteneurs de système d’exploitation complets. Son utilisation dans l’infrastructure en tant que service, les environnements de développement, les simulations de réseau et l’ administration système ainsi que son adoption dans des produits tels que MAAS, OpenStack et Travis en sont la preuve.

Selon nous, les avantages de LXD résident dans sa capacité unique à combiner l’efficacité des conteneurs avec la simplicité des machines virtuelles, offrant ainsi une solution hybride qui reste essentielle pour de multiples applications. Tu penses toujours que Docker est la seule option ? Certainement pas. Nous espérons que cet article t’a plu et n’oublie pas que, pour toute mise en œuvre de ces technologies,
tu peux compter sur le soutien des experts de SIXE en cliquant ici.
Nous serons toujours à tes côtés avec les meilleures solutions gratuites.

Logo MicroStack sobre fondo azul

Exploration de MicroStack : Une solution de nuage privé léger

TIRER PARTI DE MICROSTACK EN TANT QUE SOLUTION DE NUAGE PRIVÉ LÉGER

Alors que les organisations continuent d’adopter l’informatique en nuage, le choix de la bonne infrastructure en nuage devient une décision cruciale. De plus, MicroStack : Lightweight Private Cloud Solution, un outil open-source léger, facile à installer et basé sur la plateformeOpenstack, s’est imposé comme un choix incontournable pour de nombreuses entreprises. Ce billet de blog explorera les avantages de l’utilisation de MicroStack, soulignera la part de marché croissante de la plateforme Openstack et discutera de la hausse des prix des concurrents du cloud public, ainsi qu’une prise en main directe du tableau de bord intuitif d’Openstack, afin d’explorer ses capacités et sa facilité d’utilisation.

 

Ilsutración de una mujer usando un ordenador en la nube

POURQUOI CHOISIR MICROSTACK ?

MicroStack offre la flexibilité des logiciels open-source par rapport aux déploiements traditionnels de clouds publics, et propose une version plus légère et facile à déployer de la plateforme Openstack . Cette variante d’Openstack convient parfaitement aux startups ou aux petits déploiements de nuages au sein de grandes organisations.

Flexibilité de l’open source🌐

MicroStack offre la flexibilité des logiciels libres sans le fardeau des frais de licence ou de la dépendance à l’égard des fournisseurs. Cela permet aux organisations de mettre en place une infrastructure en nuage à moindre coût et avec la liberté de modifier et d’étendre la plateforme en fonction de leurs besoins spécifiques. Le modèle de développement dirigé par la communauté garantit des améliorationset des innovations continues, favorisant un écosystème solide autour de MicroStack.


Customizability🛠️

De plus, avec MicroStack, les organisations ont un accès complet au code source et peuvent adapter la plateforme à leurs besoins uniques. Cela inclut l’intégration d’un large éventail de plug-ins et d’extensions, permettant aux entreprises de construire un environnement cloud qui s’aligne précisément sur leurs objectifs opérationnels. Cette flexibilité est cruciale pour s’adapter à l’évolution des demandes des entreprises et optimiser l’utilisation des ressources.


Déploiement simplifié 🚀

MicroStack est conçu pour faciliter le déploiement, offrant un processus d’installation rationalisé qui minimise la complexité et le temps de configuration, étant capable de démarrer un déploiement cloud dans un nœud de calcul en moins de 6 commandes, avec un temps de déploiement moyen de 30 minutes. Cela le rend particulièrement adapté aux organisations qui cherchent à établir ou à étendre rapidement leur empreinte sur le nuage sans disposer d’une expertise technique approfondie. Le déploiement simple réduit également les obstacles initiaux à l’adoption, ce qui permet de rentabiliser plus rapidement les initiatives liées au nuage.


Vendeur neutrality🛡️

Contrairement aux solutions cloud propriétaires qui enferment les utilisateurs dans des fournisseurs spécifiques, MicroStack prend en charge une gamme variée de configurations matérielles et logicielles.
La conviction de Canonical
croit fermement au logiciel libre et à la neutralité vis-à-vis des fournisseurs, ce qui réduit les risques de dépendance et permet aux organisations de sélectionner les meilleurs composantspour leur infrastructure. Il s’aligne également sur les tendances de l’industrie en matière de normes ouvertes et d’interopérabilité, ce qui améliore l’évolutivité à long terme et l’efficacité opérationnelle. Par conséquent, MicroStack prend en charge une gamme variée de configurations matérielles et logicielles.


Empreinte légère🌱

Contrairement aux déploiements OpenStack à grande échelle qui nécessitent des ressources matérielles importantes, MicroStack fonctionne efficacement sur des environnements à plus petite échelle. Cela en fait un choix idéal pour les scénarios d’informatique périphérique ou les organisations dont le budget d’infrastructure est limité. En optimisant l’utilisation des ressources et en minimisant les frais généraux, MicroStack améliore l’efficacité opérationnelle tout en réduisant le coût total de possession.

AVANTAGES TECHNIQUES ET DE PERFORMANCE

De plus, MicroStack offre des capacités techniques robustes qui prennent en charge diverses exigences en matière de charge de travail, telles que :

Évolutivité📈

MicroStack est conçu pour s’adapter horizontalement à la croissance des charges de travail et à l’évolution des besoins de l’entreprise. Qu’il s’agisse de déployer quelques nœuds ou de passer à des milliers, MicroStack assure une expansion transparente sans compromettre les performances ou la stabilité. Cette évolutivité est essentielle pour les organisations qui connaissent une croissance rapide ou des modèles de demande fluctuants dans leurs opérations dans le nuage.


networking🛰️ avancé

Les capacités de mise en réseau de MicroStack, alimentées par des composants tels que Neutron, offrent des fonctionnalités avancées telles que.
la mise en réseau définie par logiciel (SDN)
et la virtualisation des fonctions réseau (NFV). Ces capacités permettent aux organisations de créer des topologies de réseau complexes, d’optimiser la gestion du trafic et d’améliorer les performances globales du réseau. L’accent mis par MicroStack sur les paradigmes de mise en réseau modernes prend en charge les technologies émergentes comme les
conteneurs
et l’edge computing, s’alignant sur les tendances de l’industrie vers des infrastructures informatiques agiles et adaptatives.


Des solutions de stockage efficaces📦

MicroStack prend en charge une variété de backends de stockage grâce à des composants tels que Cinder (stockage en bloc) et Swift (stockage d’objets). Cette polyvalence permet aux organisations de mettre en place des solutions de stockage très performantes et évolutives, adaptées aux exigences spécifiques des applications.


Rentabilité💰

Les outils de gestion efficace des ressources de MicroStack optimisent l’utilisation des ressources, minimisent les déchets et améliorent l’efficacité opérationnelle. En maximisant l’utilisation des ressources d’infrastructure existantes et en réduisant le besoin de solutions propriétaires coûteuses, MicroStack permet aux organisations d’allouer leurs ressources de manière plus stratégique et de se concentrer sur l’innovation plutôt que sur la gestion de l’infrastructure.

Illustration en tons verts d'une carte de paiement

AVANTAGES EN TERMES DE COÛTS

Les outils efficaces de gestion des ressources de MicroStack optimisent l’utilisation des ressources des solutions cloud traditionnelles :

  • Réduction du coût total de possession (TCO)

En éliminant les frais de licence et en tirant parti du matériel de base, MicroStack réduit considérablement les dépenses initiales et les dépenses permanentes au fur et à mesure que l’organisation et le déploiement dans le nuage s’étendent.

Les organisations peuvent réaliser des économies substantielles tout en conservant la flexibilité et l’évolutivité d’une plateforme cloud open-source. Cette rentabilité rend la plateforme Openstack accessible aux organisations de toutes tailles, des startups aux grandes entreprises, qui cherchent à optimiser leurs investissements informatiques et à maximiser leur retour sur investissement.

  • Rentabilité

Les outils de gestion efficace des ressources de MicroStack optimisent l’utilisation des ressources, minimisent les déchets et améliorent l’efficacité opérationnelle. En maximisant l’utilisation des ressources d’infrastructure existantes et en réduisant le besoin de solutions propriétaires coûteuses, MicroStack permet aux organisations d’allouer leurs ressources de manière plus stratégique et de se concentrer sur l’innovation plutôt que sur la gestion de l’infrastructure.

Mujer mirando sus ingresos

TENDANCES DU MARCHÉ ET AUGMENTATION DES PRIX DES SERVICES DE CLOUD PUBLIC

L’essor d’OpenStack : Un marché en pleine croissance

MicroStack offre une alternative viable en fournissant des solutions cloud rentables, devrait connaître une croissance significative du marché, passant de 5,46 milliards de dollars en 2024 à un montant stupéfiant de 29,5 milliards de dollars en 2031 . Cette croissance souligne l’adoption et la reconnaissance croissantes des avantages d’OpenStack parmi les organisations du monde entier. Sa flexibilité, sa rentabilité et le soutien solide de la communauté en font un choix privilégié pour les entreprises qui visent à déployer des infrastructures cloud évolutives et efficaces.

Défis en matière de coûts dans les services de cloud public

En revanche, le coût des services de cloud public a augmenté. Bien que ces plateformes offrent des fonctionnalités étendues et une portée mondiale, l’escalade de leurs prix présente des défis pour les organisations qui cherchent à gérer efficacement les coûts du nuage. MicroStack offre une alternative viable en proposant des solutions cloud rentables sans compromettre les performances ou l’évolutivité.

Le passage des déploiements sans serveur aux déploiements monolithiques.

Paradoxalement, même les géants du cloud public comme Amazon s’abstiennent d’utiliser leur propre cloud public, AWS en tant que micro service / plateforme sans serveur , s’éloignant du serverless et choisissant plutôt d’opter pour un déploiement monolithique, ce qui a diminué leur OPEX de 90%. Ce type d’architecture, s’il est bénéfique, peut être intégré rapidement et de façon transparente dans ton environnement avec Microstack, en exploitant pleinement la plateforme Openstack en quelques étapes simples, en ayant toute ton architecture pertinente sous un seul réseau privé, avec une gestion simple et intuitive de la topologie du réseau dans le cas d’un futur scénario de montée en gamme. Pour les petites entreprises, Microstack simplifiera encore plus la migration ou le déploiement d’une telle infrastructure.

L’adoption d’OpenStack par les grandes entreprises

Par exemple, plus de 50 % des entreprises du classement Fortune 100 ont adopté Openstack , ce qui souligne leur confiance et leur dépendance à l’égard de ces technologies pour prendre en charge les opérations critiques et les initiatives stratégiques.
Des entreprises comme Comcast, Allstate, Bosch et Capital One s’appuient sur Openstack pour stimuler l’innovation et obtenir des avantages concurrentiels.

L’impact mondial d’OpenStack

De plus, dans des régions comme l’APAC, des organisations telles que UnionPay, China Mobile et China Railway s’appuient sur OpenStack pour faire évoluer et transformer leurs opérations informatiques, ce qui stimule encore davantage l’adoption et la croissance des solutions cloud open-source à l’échelle mondiale.

MicroStack offre des avantages convaincants en termes de coûts par rapport aux solutions cloud traditionnelles :
Graphique présentant la position d'Openstack sur le marché

NOTRE EXPÉRIENCE AVEC MICROSTACK CHEZ SIXE

Dans l’ensemble, notre expérience avec MicroStack chez SIXE d’un point de vue opérationnel peut être décrite comme le summum de la praticité et de l’efficacité. L’installation, l’utilisation et le déploiement de MicroStack ont été simples et intuitifs, ce qui nous a permis de démarrer un nuage privé en moins de 30 minutes.

Pour résumer, naviguer dans les complexités de la gestion de l’infrastructure cloud est un aspect crucial des opérations informatiques modernes. Dans cette dernière section, nous nous plongeons dans notre expérience d’utilisateur avec le tableau de bord de MicroStack.

Le tableau de bord MicroStack illustre la façon dont notre partenaire
Canonical
l’engagement de notre partenaire Canonical en faveur de la facilité d’utilisation et de l’accessibilité. En s’appuyant sur le tableau de bord, les utilisateurs peuvent facilement déployer et gérer des machines virtuelles, configurer la mise en réseau et surveiller l’utilisation des ressources, le tout à partir d’un hub centralisé, aplanissant ainsi la courbe d’apprentissage nécessaire au déploiement et à l’exploitation d’infrastructures critiques basées sur le cloud.

✨Comment lancer et configurer une instance virtuelle ?

Il suffit de quelques clics pour lancer et configurer une instance virtuelle via le tableau de bord.

Nous lançons une instance à partir du bouton qui se trouve en haut à droite, un menu contextuel apparaît où nous pouvons définir la configuration du serveur.

Nous fournissons le nom et le projet de notre instance.

Ensuite, nous choisissons l’image de notre VM, nous pouvons utiliser une image OS-ISO standard, ou importer nos snapshots personnalisés à partir d’une VM configurée précédemment pour un déploiement rapide mais personnalisé des besoins spécifiques de notre entreprise.

Ensuite, nous sélectionnons la saveur de l’instance, les saveurs sont la façon dont Openstack configure les spécifications du matériel virtuel, tu peux utiliser l’une des saveurs prédéfinies ou en créer une pour répondre à tes besoins spécifiques en matière d’infrastructure et d’application.

Nous utiliserons la spécification de saveur moyenne, Openstack nous avertit même de manière préemptive des contraintes matérielles auxquelles chaque snapshot ou image est soumis.

En supposant que ton réseau soit déjà configuré, la dernière étape (et facultative) consiste à ajouter un groupe de sécurité afin que nous puissions accéder à l’instance via SSH et opérer à l’intérieur de celle-ci.

Maintenant, notre instance personnalisée est prête à fonctionner! :)

Dans le menu d’actions situé à droite, nous pouvons associer une adresse IP flottante afin d’accéder directement à l’instance par SSH depuis notre réseau interne.

Nous pouvons maintenant utiliser cette adresse IP pour accéder directement à l’instance via SSH !

Nouveau cours sur l’automatisation des systèmes Power d’IBM avec Ansible !

Nous avons le plaisir d’annoncer le lancement du
cours officiel d’IBM et de SIXE sur l’automatisation des systèmes IBM Power avec Ansible.
. Ce programme de formation est conçu pour fournir des compétences avancées et pratiques dans l’automatisation de diverses plates-formes IBM Power Systems, notamment AIX, Linux et IBM i, ainsi que les serveurs VIOS et PowerHA.

🏆 Les choses que tu apprendras pendant le cours:

  • Automatisation AIX : Maîtrise l’automatisation des tâches répétitives et complexes sur AIX.
  • Automatisation Linux sur Power : Apprends à gérer et à automatiser les opérations sur les serveurs Linux dans les environnements Power Systems et à déployer des environnements complexes tels que SAP HANA.
  • Automatisation IBM i : découvre comment simplifier l’administration des systèmes IBM i à l’aide d’Ansible.
  • Gestion des VIOS : Améliore l’efficacité des serveurs d’E/S virtuels (VIOS) grâce à des techniques d’automatisation avancées.
  • Mise en œuvre de PowerHA : Apprends les meilleures pratiques pour automatiser la haute disponibilité dans les systèmes Power à l’aide de PowerHA.

🎓 À qui s’adresse-t-il ?

Ce cours s’adresse aux administrateurs système, aux ingénieurs informatiques, aux architectes de solutions et à tout professionnel désireux d’améliorer ses compétences en matière d’automatisation dans les environnements IBM Power Systems. Aucune expérience préalable avec Ansible n’est requise, bien qu’une connaissance de base de l’administration système soit bénéfique. Si tu le souhaites, tu peux suivre au préalable notre cours sur Ansible et AWX.

💼 Avantages du cours:

  • Certification officielle : obtiens une certification reconnue internationalement par IBM et SIXE.
  • Compétences pratiques : participe à des exercices pratiques et à des projets concrets qui te prépareront à relever les défis du monde réel.
  • Matériel exclusif : accède à des ressources de formation exclusives et actualisées.

📍 Modalité:

Le cours sera proposé dans un format hybride, avec des options en face à face et en ligne pour répondre à tes besoins.

📝 Inscription:

Ne manque pas cette occasion de faire progresser ta carrière et de transformer ta façon de travailler avec IBM Power Systems !
Inscris-toi dès aujourd’hui
et assure ta place pour la prochaine édition.

Rejoins-nous et fais passer tes compétences en automatisation des environnements critiques au niveau supérieur. Nous nous réjouissons de te voir au cours officiel d’IBM et de SIXE sur l’automatisation des systèmes IBM Power avec Ansible !

Peut-on faire fonctionner des VM KVM (imbriquées) au-dessus des LPAR Linux IBM PowerVM ?

Mise à jour ! Ce n’est plus une rumeur mais officiellement pris en charge à partir du 19 juillet 2024 (voir annonce).

Une brève histoire de la virtualisation imbriquée sur le matériel IBM

La virtualisation imbriquée permet à une machine virtuelle (VM) d’héberger d’autres VM, créant ainsi un environnement de virtualisation en couches. Cette capacité est particulièrement bénéfique dans les scénarios d’entreprise où la flexibilité, l’évolutivité et la gestion efficace des ressources (si nous économisons sur l’unité centrale, nous économisons sur les licences en $$$) sont essentielles.

Bien qu’il puisse être utilisé à des fins de test avec KVM sur x86 ou VMware, les performances sont souvent sous-optimales en raison des multiples traductions et modifications des instructions matérielles avant qu’elles n’atteignent l’unité centrale ou le sous-système d’E/S. Ce problème n’est pas propre à ces plateformes et peut également affecter d’autres technologies de virtualisation.

Sur des plateformes comme Z, bien que l’impact de la virtualisation imbriquée sur les performances existe, les améliorations et les optimisations de l’hyperviseur peuvent atténuer ces effets, ce qui la rend viable à 100 % pour une utilisation en entreprise.

Couches de virtualisation sur IBM Mainframe

Avant de se plonger dans le KVM imbriqué sur PowerVM, il est essentiel de comprendre les technologies similaires. Si le mainframe est le grand-père de la technologie actuelle des serveurs, le partitionnement logique (LPAR) et les technologies de virtualisation (zVM) sont les grands-mères des solutions d’hyperviseurs.

zvm linuxone kvm powervm hyperviseurs

Sur cette image (tirée de cet excellent article d’), tu peux voir jusqu’à 4 couches.

Virtualisation de niveau 1 : Montre une LPAR fonctionnant sous Linux en mode natif

Virtualisation de niveau 2 : Montre les machines virtuelles fonctionnant sur l’hyperviseur z/VM ou KVM.

Virtualisation de niveau 3 : Montre l’imbrication des machines virtuelles z/VM

Virtualisation de niveau 4 : Montre des conteneurs Linux qui peuvent soit fonctionner comme des conteneurs autonomes, soit être orchestrés avec kubernetes.

Jette maintenant un coup d’œil à cette ancienne image (2010) de l’architecture de la plateforme Power d’IBM. Est-ce que tu vois quelque chose de similaire ? :) Passons à autre chose !

virtualisation powervm

Déployer des machines virtuelles au sommet d’une LPAR PowerVM Linux

Si nous avons des LPAR sur Power où nous pouvons exécuter AIX, Linux et IBM i, et dans Linux, nous pouvons installer KVM, pouvons-nous exécuter des VM à l’intérieur d’une LPAR ?

Pas tout à fait ; il échouera à un moment ou à un autre. Pourquoi ? Parce que KVM n’est pas zVM (pour l’instant), et que nous avons besoin de quelques ajustements dans le code du noyau Linux pour prendre en charge la virtualisation imbriquée non seulement avec les processeurs IBM Power9 ou Power10, mais aussi avec le sous-système de mémoire et les E/S Power.

En examinant les listes de diffusion de kernel.org, nous pouvons voir des développements prometteurs. Réussir à faire fonctionner plusieurs VM avec KVM sur un LPAR PowerVM signifie porter une fantastique technologie de virtualisation mainframe sur IBM Power, ce qui nous permet de faire fonctionner des VM et la virtualisation Kubernetes/OpenShift sur ppc64le à des fins de production. Cela ferait une différence significative si la pénalité de performance était minime.La virtualisation du processeur sur les systèmes Power et Mainframe alloue simplement du temps de processeur sans mapper un thread complet comme le font KVM ou VMware. Par conséquent, il est techniquement possible d’ajouter un hyperviseur par-dessus sans affecter de manière significative les performances, comme le fait IBM avec LinuxOne.

Dernières nouvelles de KVM sur IBM PowerVM LPARs (mai 2024)

Chez Sixe, nous suivons de près les développements de ppc64 et ppc64le depuis des années. Récemment, nous avons trouvé des messages intrigants sur les listes de diffusion du noyau Linux. Ces messages donnent un aperçu de la feuille de route immédiate de cette technologie très attendue et demandée.

1) Ajouter une capacité VM pour permettre la virtualisation imbriquée
Résumé : Ce message traite de la mise en œuvre des capacités de virtualisation imbriquée dans KVM pour PowerPC, y compris les configurations de modules et la prise en charge des processeurs POWER9.

2) API PAPR imbriquée (KVM sur PowerVM)
Résumé : Il détaille l’extension de l’état des registres pour l’API PAPR imbriquée, la gestion de plusieurs VCPU et la mise en œuvre d’hyperappels spécifiques.

3) KVM : PPC : Book3S HV : virtualisation HV imbriquée
Résumé : Une série de correctifs améliorant la virtualisation imbriquée dans KVM pour PowerPC, notamment la gestion des hypercalls, des défauts de page et des tables de mappage dans debugfs.

Pour des informations plus détaillées, tu peux consulter les liens suivants :

Pourrons-nous installer Windows sur les systèmes Power (pour le plaisir) ?

CAKE - Perhaps, Perhaps, Perhaps (Official Audio)CAKE – Perhaps, Perhaps, Perhaps (Official Audio)

Reste à l’écoute !

Alianza de Sixe con Canonical

SIXE annonce une alliance stratégique avec Canonical / Ubuntu dans le cadre de son engagement en faveur des logiciels libres.

Madrid, Espagne – 8 mai 2024 – SIXEun chef de file en matière de solutions d’infrastructure informatique pour les environnements critiques, avec plus de 15 ans d’expérience. a annoncé son partenariat stratégique avec Canonicalle premier développeur mondial de logiciels open source basés sur la technologie Ubuntula distribution Linux la plus populaire au monde.

SIXE apporte une grande expérience dans la mise en œuvre et le soutien de solutions pour de grands clients en Europe et en Amérique. Tout au long de sa carrière, il a travaillé avec des entreprises de premier plan dans des secteurs tels que la banque, les télécommunications, l’énergie, l’administration publique et la fabrication. Nous sommes très enthousiastes à l’idée de rejoindre Canonical en tant que partenaire stratégique. Nous partageons une passion pour l’open source, un ADN ouvert dans le code mais aussi dans les affaires, en plaçant nos clients au centre. Ce partenariat nous permettra d’offrir des solutions encore plus innovantes et efficaces à nos clients en Europe et en Amérique.

Une expérience éprouvée et des valeurs partagées

SIXE dispose d’une équipe hautement qualifiée, certifiée dans les principales technologies logicielles libres et open source telles que Ubuntu, Red Hat et SUSE. En outre, l’entreprise a conclu des partenariats avec d’autres leaders technologiques, ce qui lui permet d’offrir des solutions de bout en bout comprenant du matériel, des logiciels, des services de mise en œuvre et une assistance technique avancée.

Engagement en faveur de la liberté et de la transparence

Les logiciels libres reposent sur la liberté des utilisateurs d’exécuter, de modifier et de distribuer le logiciel sans restrictions. Canonical se distingue par son engagement en faveur de licences telles que la GPLv3, garantissant ces libertés fondamentales. En outre, son engagement en faveur de l’accessibilité et de la transparence se reflète dans le développement ouvert d’Ubuntu, dont le code source est publiquement disponible pour examen et modification, ce qui favorise la collaboration et la confiance au sein de la communauté des développeurs.

Soutien à long terme

Canonical se différencie par son soutien à long terme avec Ubuntu LTS (Long Term Support), qui offre des mises à jour de sécurité et de maintenance pendant 5 ans, extensibles à 10 ans pour les petits environnements. Cela apporte stabilité et prévisibilité aux utilisateurs professionnels, ce que SIXE apprécie. L’engagement de Canonical en faveur de la liberté des clients de décider quand et comment mettre à niveau sans perdre l’accès aux correctifs de sécurité est l’une des nombreuses raisons pour lesquelles nous avons choisi de nous associer.

Des solutions pour les entreprises et les organisations de toutes tailles et de tous secteurs.

Canonical a développé des moyens innovants pour mettre en œuvre non seulement des environnements Linux avec Ubuntu, mais des solutions complètes de cloud public et privé avec OpenStack, des plateformes de conteneurs avec Kubernetes et des environnements de virtualisation avec KVM, fonctionnant à la fois dans des centres de données petits et grands, à travers des ordinateurs de bureau et des environnements d’edge computing.

Un partenariat stratégique pour un avenir ouvert

L’alliance stratégique entre SIXE et Canonical permettra de proposer une gamme encore plus large de solutions logicielles libres et open source, ainsi qu’une assistance renforcée. Grâce à cette collaboration, les entreprises aideront leurs clients à exploiter le potentiel des logiciels libres pour transformer leurs activités, en leur apportant de la valeur et de l’efficacité.

IBM Power10 Servers

Nouveau serveur IBM Power10 S1012 pour le Edge Computing, HA, DR et les environnements de petite taille.

Le Power10 le plus compact pour ton environnement distant, la reprise après sinistre, l’edge computing et l’inférence de l’IA.

IBM vient d’annoncer un nouveau modèle de serveur IBM Power, le S1012. Une véritable BEAUTÉ que SIXE aura bientôt dans le bureau, et selon le bruit qu’il fait, peut-être même sous le bureau :). Il peut être obtenu en format tour ou rack, soit en joignant deux serveurs, chacun occupant la moitié de la largeur d’un rack classique, comme le montre cette image, soit en laissant un “espace” pour occuper la totalité des 2U. Il peut être configuré comme tu le souhaites. Le serviodr est livré avec 1 socket avec jusqu’à 8 cœurs et 256 Go de RAM et SIXE commencera à le proposer à partir de juin 2024.

Que pouvons-nous faire fonctionner sur le nouveau S1012 ?

Les distributions Linux telles qu’Ubuntu, Rocky, Alma, RHEL et SUSE, ainsi qu’AIX et IBM i, peuvent être installées directement ou virtualisées avec PowerVM. IBM Power S1012 est conçu pour améliorer les capacités de gestion à distance pour les clients qui cherchent à développer des applications telles que l’inférence AI, les nœuds OpenShift, les applications critiques dans le cadre d’architectures d’edge computing, c’est-à-dire en amenant ces serveurs physiquement là où ils sont nécessaires pour traiter les données directement sans avoir à les transférer au préalable, en réalisant des économies, une rapidité et une efficacité significatives. De plus, grâce au format tour, on peut installer ces serveurs où l’on veut sans avoir besoin d’armoires rack.

 

Réduis ton empreinte carbone

Avec les serveurs Power10, tu peux faire beaucoup plus avec moins. Grâce à ses 8 threads par cœur physique, tu peux consolider de très nombreux environnements x86 ou ARM sur une seule Power, ce qui te permet d’économiser de l’énergie et de l’espace dans tes centres de données.

Cas d’utilisation

Il est conçu et optimisé pour l’informatique distribuée telle que les centrales photovoltaïques, les industries, les navires, les avions, les véhicules, les environnements militaires, les engins spatiaux et bien d’autres encore. Il est également idéal pour exécuter des charges de travail importantes dans les petites organisations, qui ont par exemple des ERP ou des applications de gestion industrielle sur IBMi et RPG, ou comme solution très peu coûteuse pour les environnements de sauvegarde (Remote Office / Back Office – ROBO). Il est également facile de se connecter directement à des services en nuage tels que IBM® Power® Virtual Server pour la sauvegarde et la reprise après sinistre. Et pour les bases de données critiques, avec GLVM, nous pouvons créer des clusters entre des sites distants de plusieurs centaines de kilomètres pour Oracle, Informix ou DB2 sans avoir besoin de connexions fibre dédiées.

Détails techniquesAccède au livre rouge qu’IBM a préparé avec tous les détails de ces systèmes.

Prix

Le S1012 offre le prix d’entrée le plus bas de tous les serveurs Power avec des performances jusqu’à trois fois supérieures à celles d’un système x86 équivalent. Si tu es un client IBM i, tu peux obtenir une licence pour un seul cœur et utiliser le reste pour d’autres charges de travail sur AIX ou Linux. Si tu veux en savoir plus, appelle-nous !

 

Docker

Mise à jour de notre cours sur docker, podman et kubernetes.

Chez SIXE, nous visons l’excellence en matière de formation technique, et c’est pourquoi nous sommes heureux d’annoncer la mise à jour de notre cours Docker, Podman et Kubernetes. Cette mise à jour comprend une mise à jour pour que les exercices fonctionnent avec les dernières versions de chacun de ces produits, ainsi que de nouveaux exercices plus amusants basés sur les nœuds Ubuntu (Canonical) au lieu de Red Hat.

Quoi de neuf dans le cours:

  1. Compatibilité: le cours couvre désormais les dernières versions de Kubernetes (1.29) mais aussi de Docker et Podman. Veiller à ce que les élèves apprennent avec les outils les plus actuels et les plus pertinents du marché.
  2. Pratiques avec microk8s: Nous avons introduit des pratiques spécifiques avec microk8s, le système Kubernetes développé par Ubuntu. Cela permet aux élèves d’expérimenter une version légère et efficace de Kubernetes dans leurs propres environnements.
  3. Environnement cloud avec Scaleway: grâce à notre nouveau partenariat avec Scaleway, les élèves auront l’occasion de travailler dans un environnement cloud. Cela permet d’acquérir une expérience pratique inestimable pour ceux qui souhaitent apprendre à gérer et à déployer des applications dans le nuage.

Chez SIXE, nous comprenons que le secteur de la technologie est en constante évolution. Par conséquent, notre priorité est de fournir à nos élèves les compétences et les connaissances les plus pertinentes. Cette mise à jour n’est qu’un exemple de notre engagement permanent en faveur de l’excellence éducative, car nous dispensons tous nos cours directement et sans intermédiaire.

Quel est le groupe cible de ce cours ?

Ce cours est idéal pour les développeurs, les ingénieurs système et les administrateurs système qui souhaitent améliorer leurs compétences et leurs connaissances en matière de conteneurisation et d’orchestration. Il est également parfait pour ceux qui cherchent à se tenir au courant des dernières tendances en matière de technologies de conteneurs à partir de la base.

Comment s’inscrire ?

Les inscriptions sont désormais ouvertes et tu peux obtenir plus d’informations grâce à notre formulaire de contact ou en nous écrivant via le chat de notre site web.

logos LXD, IBM PowerVM, Proxmox y Red Hat OpenShift vs. VMware ESXi

Comparaison des hyperviseurs : LXD, IBM PowerVM, Proxmox et Red Hat OpenShift comme alternatives à VMWare ESXi.

La virtualisation est un outil essentiel dans le monde de l’informatique, qui permet aux entreprises d’optimiser leurs ressources matérielles et d’améliorer l’efficacité et la gestion de leurs systèmes. VMware ESXi a été un leader incontesté dans cet espace, mais avec son rachat par Broadcom et des changements majeurs dans la tarification, et surtout, la suppression de sa version gratuite, des milliers de clients évaluent les alternatives existantes.

Voici notre petite contribution, en tant qu’experts IBM PowerVM mais aussi enthousiastes des autres options basées sur KVM. Tous (sauf VMWare) travaillent dans nos laboratoires et selon les projets, nous choisissons l’un ou l’autre pour nos clients. Si tu souhaites que nous en discutions en détail
contacte-nous sans engagement.

Bien qu’il soit difficile de fournir une comparaison complète de toutes les fonctionnalités d’ESXi, car elles varient selon les versions et les combinaisons spécifiques avec d’autres outils VMware, le tableau suivant fournit un résumé de ce que nous considérons comme les fonctionnalités ESXi les plus importantes et de la façon dont elles sont prises en charge dans LXD, PowerVM, Proxmox et Red Hat OpenShift. Nous espérons que tu le trouveras utile.

Fonctionnalité LXD VMware ESXi PowerVM Proxmox Red Hat OpenShift (OCP)*.
Type de logiciel Source ouverte. Propriétaire Propriétaire (spécifique à IBM) Open source (basé sur KVM et les conteneurs) Propriétaire (basé sur Kubernetes et les conteneurs).
Il est basé sur KVM. Comme OCP, il prend en charge les conteneurs et également les VM. VMkernel Basé sur la technologie IBM héritée des environnements Mainframe, avec un micropartitionnement avancé des processeurs et une isolation HW des VM. KVM et LXC KVM (pour les machines virtuelles *si elles sont installées en mode bare-metal et non au-dessus d’autres hyperviseurs) et Kubernetes pour les conteneurs.
Interface utilisateur Web Oui Oui, mais de façon limitée. vSphere est nécessaire pour de nombreuses fonctionnalités. Oui HMC (équivalent à vSphere) ou PowerVC (basé sur OpenStack) Oui Oui
Regroupement Oui Oui Oui Oui Oui (via Kubernetes)
Haute disponibilité Oui Oui Oui Oui Oui (avec des fonctionnalités avancées de Kubernetes).
Migration de VM en direct Oui Oui Oui Oui Oui (par l’intermédiaire de Kubernetes et de la virtualisation OpenShift).
Stockage partagé Ceph vSAN Prend en charge plusieurs systèmes de fichiers et de stockage Ceph, ZFS et autres GlusterFS, Ceph et al.
Mise en réseau Pont, OVN NSX Compatible avec presque toutes les technologies de réseau Pont, VLAN, VXLAN et autres SDN, OVNI et autres
Instantanés Oui Oui Oui Oui Oui
Sauvegarde Oui Oui Oui (avec IBM et des outils de gestion tiers) Oui Oui
Essai gratuit N/A (utilisation gratuite illimitée) 30 jours Non applicable (inclus gratuitement avec le matériel IBM) N/A (utilisation gratuite illimitée) Essai gratuit disponible
Coût Gratuit, avec un soutien commercial disponible par hôte physique. Les fonctionnalités complètes nécessitent une licence payante. Inclus dans le matériel IBM Power Gratuit, avec un soutien commercial sous forme d’abonnement. Abonnement de base ; varie selon l’environnement.
Nombre de fils Limité à 2 threads par cœur (x86) Limité à 2 threads par cœur (x86) Jusqu’à 1 920 fils (Power10 E1080) Limité à 2 threads par cœur (x86) Limité à 2 threads par cœur (x86)
Type d’hyperviseur Niveau 1 (sur KVM) Niveau 1 Niveau 0 (VM séparées au niveau du micrologiciel avec mappage du processeur) Niveau 1 (KVM) et niveau 2 (LXC) Niveau 2 (sur RHEL)
Maturité technologique (années) > 10 ans > 20 ans > 30 ans (à partir d’environnements Z / LPARs) > 10 ans > 10 ans
Capacité maximale de RAM par VM Jusqu’à 2 To Jusqu’à 2 To Jusqu’à 32 To Jusqu’à 2 To Jusqu’à 2 To
SIXE
×