Mythes, vérités et notre point de vue sur les IBM Cloud Paks

Avec l’achat de Red Hat par IBM, l’ensemble du portefeuille de solutions logicielles pour la cybersécurité, les applications, les bases de données, l’automatisation et la gestion du cloud hybride a été porté sur OpenShift sous la marque IBM Cloud Paks. Les IBM Cloud Paks . Cela signifie que nombre de ces applications ont été repensées et adaptées pour fonctionner au-dessus des conteneurs (bien que certaines, comme QRadar, le fassent depuis des années) et être contrôlées par Kubernetes, qui est l’orchestrateur de conteneurs sur lequel OpenShift est basé.

Comment les IBM Cloud Paks sont-ils déployés ?

Les IBM Cloud Paks sont installés dans un environnement PaaS avec OpenShift aussi bien dans les propres centres de données sur IBM Power Systems, VMWare, KVM (RHEV / LinuxONE) que dans les clouds publics de Microsoft (Azure), IBM, Amazon (AWS) et Google (GCP). Grâce à IBM Satellite, il peut être déployé à la fois sur site et dans le nuage, au moyen d’une architecture hybride flexible. Notre site
département des services professionnels
peut vous aider.

Comment les IBM Cloud Paks sont-ils licenciés ? Combien coûtent-ils ?

C’est peut-être l’une des parties les moins connues et, à notre avis, les plus controversées. IBM a toujours vendu des licences perpétuelles pour toutes ses solutions logicielles. Ces licences sont assorties d’une assistance technique de base pour les problèmes de matériel et d’une assistance plus avancée pour les logiciels (SWMA), qui peut être renouvelée tous les trois ans. En passant à un environnement en nuage, nous nous dirigeons vers des systèmes de paiement à l’utilisation, qui sont très évolutifs et, pour être honnête, parfois… compliqué à estimer. Par exemple, Data propose ces prix par “cœur virtuel”. C’est-à-dire, de quelques centaines de dollars à quelques centaines de milliers… :)

Cela présente des avantages évidents pour les solutions pour lesquelles il est judicieux de renouveler le soutien, comme les solutions ouvertes et extrêmement complexes telles que celles basées sur les microservices et les conteneurs. Les clients qui ne sont pas à l’aise avec ce modèle peuvent continuer à acheter des appliances ou des licences pour déployer nombre de ces solutions dans leur infrastructure moyennant un paiement unique et un support optionnel à renouveler tous les plusieurs années. Dans d’autres, c’est le seul modèle, car il s’agit de solutions natives pour Kubernetes et les environnements basés sur le cloud.

Dois-je avoir OpenShift pour installer un IBM Cloud Pak ?

Réponse courte : oui. Toutefois, si vous n’en disposez pas, vous pouvez le déployer sans trop de problèmes grâce aux installateurs inclus dans les dernières versions, soit sur votre propre infrastructure, soit sur une infrastructure externe (IaaS) de votre fournisseur de cloud préféré.

Les packs IBM Cloud en valent-ils la peine ?

En tant que bon vers libre dans le secteur des intégrateurs de systèmes, nous pensons que certains le font, et d’autres non (du moins pour l’instant). Cela dépend de la façon dont ils vont être utilisés, de la dépendance que nous avons avec d’autres applications et du niveau de maturité dans l’adoption des conteneurs et l’utilisation de Kubernetes dans notre organisation. Si vous débutez avec Dockers, OpenShift et les environnements de cloud computing, il est peut-être préférable de s’en tenir à un bon outil d’aide à la décision.
plan de transformation numérique et de modernisation
plutôt que de “mettre la charrue avant les bœufs”.

Existe-t-il des cours ou des formations IBM Cloud Paks ?

Pour tirer parti de cette technologie, vous devez maîtriser à la fois l’infrastructure (OpenShift), pour laquelle une formation officielle est proposée par Red Hat, et un atelier pratique intensif mis sur pied par nos soins. Une fois l’infrastructure maîtrisée, vous devrez vous former aux différents produits et solutions IBM qui vous intéressent, car il s’agit de collections de logiciels regroupés par catégorie et dont les licences sont communes. Le Cloud Pak pour la sécurité, par exemple, est principalement la plateforme SOAR QRadar d’IBM, tandis que le Cloud Pak pour les applications comprend toute la suite Websphere.

Cela dit, si vous le voulez,on peut en discuter.

 

Mettez à niveau votre IBM Power9 ou vos LPARs risquent de ne pas démarrer.

Nous négligeons souvent la nécessité d’effectuer des mises à jour préventives non seulement du système d’exploitation (AIX, Linux, IBM i) mais aussi du FW des serveurs IBM Power. IBM publie des correctifs pour les problèmes que d’autres clients ont rencontrés et il n’est généralement pas nécessaire que vous fassiez de même. Ce faisant, nous protégeons nos systèmes contre toutes sortes de menaces et de vulnérabilités externes et internes.

Le problème dont nous avons parlé dans ce court article est un bogue qui empêchait les LPAR de démarrer sur les serveurs Power9 s’ils étaient en fonctionnement depuis plus de 814 jours. Cela ressemble un peu aux imprimantes d’il y a quelques années qui n’ont pas réussi à imprimer plusieurs centaines de milliers de pages, on ne sait jamais si c’était délibéré ou une erreur. Dans le cas d’IBM, il s’agit d’un bug reconnu du firmware qui est corrigé avec la mise à jour VH950_045_045 / FW950.00 disponible à partir du 23 novembre 2020. Donc, si vous êtes un client d’IBM et qu’au cours des deux dernières années, vos anciens systèmes Power9 n’ont pas été mis à niveau, vous risquez d’avoir ce problème pour le reste de l’année.

Voici un indice, l’erreur est CA000040 qui empêche le LPAR de démarrer et dont la solution temporaire pourrait être d’utiliser le mode de compatibilité Power8 à partir de la HMC ou ASMI pendant que vous installez les mises à jour en attente.

Chez Sixe, nous assurons la maintenance préventive des systèmes IBM Power de nos clients depuis plus de 15 ans. Nous pouvons vous aider à surveiller, mettre à jour et maintenir préventivement l’ensemble de votre infrastructure. Systèmes de serveurs et de stockage IBM et Lenovo. Nous vous aidons également à minimiser les coûts de licence et offrons les meilleurs prix pour les mises à niveau vers les nouvelles générations de serveurs IBM Power. Contactez-nous pour plus d’informations.

Installation et test de la nouvelle version IBM AIX 7.3

Après avoir rejoint le programme OpenBeta d’IBM, nous avons pu télécharger et tester la nouvelle version d’AIX 7.3 à l’occasion de son 35e anniversaire.

Parmi ses nouveautés, citons les suivantes :

  • Les frameworks Python et Bash qui fonctionnent directement avec AIX, pas besoin de les réinstaller manuellement !
  • Prise en charge de la commande dnf (standard dans Red Hat) pour l’installation de paquets open source à partir de la boîte à outils AIX. AIX a longtemps parlé de Linux, mais depuis la version 7.3, il est de plus en plus intégré, offrant aux développeurs et aux administrateurs système toutes les fonctionnalités nécessaires à la modernisation des environnements UNIX.
  • Réduction du temps nécessaire pour ajouter dynamiquement des processeurs/mémoire à une LPAR en cours d’exécution, utile pour les LPAR dont les bases de données utilisent des centaines de Go ou plusieurs To de RAM. Cela va de pair avec la réduction de l’IPL pour ces partitions.
  • Les commandes pigz et zlibNX utilisent désormais de manière transparente l’accélération GZIP de NX dans Power9 et Power10.
  • Amélioration de la prise en charge du chiffrement des volumes logiques (LVM) pour inclure le rootvg et le dump device.
  • La pile de protocoles TCP prend désormais en charge CUBIC, un algorithme d’évitement de la congestion du réseau TCP qui permet d’établir des connexions à large bande passante sur les réseaux de manière plus rapide et plus fiable.
  • Améliorations supplémentaires de la sécurité IP (IPsec)
  • Possibilité de créer un fichier OVA à partir d’un mksysb en utilisant la commande create_ova afin d’accélérer les déploiements dans les nuages (PowerVS) et hybrides.
  • Création d’une image ISO à partir de la nouvelle commande mksysb_iso
  • Intégration avec les nouveaux compilateurs C/C++ et Fortran d’IBM Open XL
  • Augmentation de la taille des fichiers et du système de fichiers
  • Amélioration de la prise en charge d’Ansible et d’Ansible Tower
  • Intégration avec PowerVC 2.

 

Découvrez les nouveaux serveurs IBM Power10 et AIX 7.3

Le pouvoir de 10

Le 8 septembre est la date de l’annonce officielle des nouveaux serveurs d’IBM équipés de processeurs Power10, qui sera suivie de l’annonce de la version 7.3 d’AIX, qui aura 35 ans en 2021. Sur la base des caractéristiques techniques disponibles, nous savons qu’ils intègrent de la mémoire DDR5, une interface PCIe 5.0 et sont conçus à l’aide de la technologie 7nm de Samsung. Les processeurs Power10 seront à nouveau disponibles en deux versions. L’un avec 15 cœurs en mode SMT-8 (idéal pour AIX et IBM i) et les autres avec 30 cœurs et SMT-4 pour les charges de travail exclusivement Linux. Les puces Power10 intègrent également des améliorations majeures pour l’intelligence artificielle (IA), lui permettant d’exécuter des charges d’apprentissage automatique jusqu’à 20 fois plus rapidement que POWER9.

Un million de SAPS. L’infrastructure compte beaucoup.

Comme d’habitude, les premiers systèmes annoncés seront des systèmes évolutifs conçus pour des environnements hautement virtualisés avec des applications gourmandes en ressources telles que SAP HANA. Les benchmarks publiés indiquent que 1 million de SAPS sont atteints avec 120 cœurs, soit la moitié du nombre de cœurs nécessaires dans la génération précédente de Power9 dans les serveurs E980. Par rapport aux serveurs tiers actuellement disponibles cette année, HPE a atteint environ 670 000 SAPS (équivalent à environ 120 000 utilisateurs simultanés) en utilisant 224 cœurs dans son Superdome Flex 280 basé sur les processeurs les plus puissants d’Intel (le Xeon Platinum). Pour ceux qui n’y connaissent pas grand-chose, l’autre chose à lire est que la performance par cœur a continué à s’améliorer considérablement alors que le reste des fabricants la font stagner en ajoutant d’autres matériels complémentaires (mémoires flash, plus de cœurs, etc.).

Toute la mémoire dont vous avez besoin

L’avènement de la technologie “Memory Inception” permet de créer des grappes de systèmes qui partagent la mémoire entre eux, avec jusqu’à plusieurs pétaoctets de RAM disponibles pour un seul environnement divisé en plusieurs serveurs physiques. IBM se positionne ainsi comme un leader dans le développement de technologies matérielles pour les clusters d’applications sur Red Hat OpenShift. Des serveurs “de taille moyenne” à deux et quatre sockets seront annoncés sous peu, où nous pourrons continuer à bien déployer des environnements mixtes IBMi, AIX et Linux.

Cryptage de bout en bout

Nous ne pouvons pas terminer cet article sans mentionner l’une des principales caractéristiques de la plate-forme Power d’IBM, à savoir la sécurité des données. Les nouveaux processeurs intègrent quatre fois plus de composants de cryptage AES pour anticiper les besoins des normes cryptographiques à venir à partir de 2022, telles que la cryptographie à sécurité quantique ou le cryptage entièrement homomorphique. Tout cela s’applique aux nouvelles charges de travail basées sur les conteneurs, où la sécurité est devenue la principale préoccupation des organisations qui les utilisent.

AIX 7.3, UNIX au-delà de 2030

Même si cela fera l’objet d’un autre article, avec l’arrivée de Power10, la nouvelle version d’AIX sera annoncée, qui sera la 7.3, ce qui n’était pas arrivé depuis 2015. La numérotation est une question de marketing. Si IBM avait choisi d’appeler cette version 8.1, cela aurait pu soulever des questions quant à l’impact des nouvelles fonctionnalités sur la stabilité des applications existantes, mais comme toute nouvelle version, elle intègre de nombreuses nouvelles fonctionnalités intéressantes. Aujourd’hui, nous continuons à déployer de nouveaux environnements sur AIX, ainsi qu’à en migrer d’autres depuis Solaris, HP-UX et même Linux.

Chez tous nos clients, grands et moyens, il existe une partie de leur environnement de production où sont traitées les informations qui font vivre leurs activités et leurs processus internes. Où installez-vous Oracle, DB2, SAP, SAS, etc ? Dans AIX. Aucun autre système d’exploitation de type UNIX n’offre la même maturité, stabilité, performance et évolutivité. C’est un UNIX moderne, avec une grande compatibilité avec les applications modernes telles que Chef, Puppet, Ansible et qui coexiste merveilleusement avec le reste des environnements basés sur Linux, IBM i ou Z/OS, qui a encore beaucoup de vie devant lui et la nouvelle version 7.3 en est une bonne preuve. Il présente également trois grands avantages pour les services et les administrateurs système : tout fonctionne (contrairement à la sensation de bêta-testeur si ancrée dans Linux), il fonctionne sur les serveurs les plus stables et les plus robustes qui existent (à l’exception de l’ordinateur central) et vous n’apprenez qu’une fois, au lieu d’apprendre à chaque fois qu’une nouvelle version est publiée : nous nous souvenons tous du moment où “ifconfig -a” a cessé de fonctionner dans Red Hat :)

Il est temps de renouveler les équipements, les licences… et de procéder à des mises à niveau.

Avec l’arrivée d’une nouvelle technologie de processeur, les “soldes” commencent chez IBM. Si vous avez des équipements Power7 ou Power8 dont les contrats de maintenance arrivent à échéance (ou sont déjà hors service) et que vous vous demandez si vous devez les renouveler ou non, nous pouvons vous aider. Nous vous conseillons sur la manière d’économiser beaucoup d’argent grâce à nos services d’audit et de renouvellement de licences, d’utiliser à 100% votre équipement IBM Power et de vous proposer denouveaux serveurs Power9 et bientôt Power10 à prix coûtant.

Avez-vous besoin d’un soutien technique ?

Chez Sixe Ingeniería, nous offrons un support technique et une maintenance préventive d’AIX et Linux sur Power Systems directement et sans intermédiaire. Nous serons heureux de vous aider.

Saisissez la véritable puissance de CI/CD avec Tekton et Kubernetes Pipelines

L’introduction des pipelines Kubernetes (Tekton) a révolutionné la façon dont nous gérons les flux de travail CI/CD dans le développement logiciel. L’ajout de Tekton, le framework natif de Kubernetes, nous a donné plus de puissance et de flexibilité dans la création et la gestion des pipelines. Cet article se concentre sur l’importance de Kubernetes Pipelines et de Tekton sur Red Hat OpenShift, et sur la manière dont ces outils peuvent vous aider à rendre votre processus de développement véritablement continu.

Qu’est-ce qu’un pipeline ?

Un pipeline est un processus automatisé qui conduit le logiciel à travers les étapes de construction, de test et de déploiement du cycle de vie du développement logiciel. En d’autres termes, un pipeline exécute le flux de travail d’intégration continue et de livraison continue (CI/CD). Il gère automatiquement les tâches d’exécution de la suite de tests, d’analyse du code, de création de binaires, de conteneurisation et de déploiement des modifications dans le nuage ou dans les solutions sur site.

Pourquoi construire des pipelines avec Kubernetes ?

Alors que le monde du développement s’oriente vers des applications basées sur des microservices plutôt que sur des applications monolithiques, le processus CI/CD est devenu véritablement continu avec des mises à jour incrémentielles de la base de code qui peuvent être déployées indépendamment.

Dans un tel contexte, Kubernetes simplifie le processus de création et de maintenance des pipelines CI/CD. Il déploie chaque microservice sur un seul cluster Kubernetes et maintient plusieurs copies de chaque microservice pour servir de versions dev, test et prod.

Avec les pipelines Kubernetes, vous n’avez plus besoin de reconstruire l’ensemble de l’application à chaque construction. Au lieu de cela, Kubernetes met à jour le conteneur du microservice et le déploie via le pipeline défini. Il n’est plus nécessaire d’écrire des scripts de construction, car Kubernetes gère automatiquement le processus avec seulement quelques options de configuration que nous fournissons. Cela réduit le risque d’erreurs humaines dans le flux de travail CI/CD.

Qu’est-ce que Tekton ?

Tekton vous permet de faire passer les pipelines Kubernetes au niveau supérieur. Il s’agit d’un cadre open-source, natif de Kubernetes, pour le développement de pipelines CI/CD. Tekton fournit des extensions aux définitions de ressources personnalisées (CRD) dans Kubernetes pour faciliter la création et la normalisation des pipelines. Il dispose d’un support intégré pour le couplage avec les outils CI/CD existants dans le secteur, tels que Jenkins, Jenkins X, Skaffold, Knative et OpenShift.

L’intégration OpenShift de Tekton, baptisée OpenShift Pipelines, apporte encore plus de puissance et de souplesse à ce système grâce aux outils de développement RedHat et OpenShift.

Pourquoi utiliser Tekton ?

Les pipelines Tekton utilisent les clusters Kubernetes comme type de première classe et les conteneurs comme principaux éléments constitutifs. La nature découplée de Tekton garantit que vous pouvez utiliser un seul pipeline pour déployer sur des clusters Kubernetes distincts. Il est ainsi plus facile de déployer des services sur plusieurs solutions en nuage fournies par différents fournisseurs, voire sur des systèmes sur site.

Tekton vous permet d’exécuter les tâches automatisées de manière isolée, sans être affecté par d’autres processus en cours dans le même système. Une autre spécialité de Tekton est la flexibilité qu’elle offre pour changer de ressources, telles que les dépôts GitHub, entre deux exécutions du pipeline.

Il facilite également la mise en œuvre du pipeline en fonction du type de ressource. Par exemple, vous pouvez mettre en place une implémentation unique pour gérer les images.

Tekton couplé à OpenShift assure la haute disponibilité du système en permettant à chaque unité d’évoluer indépendamment à la demande. De plus, vous bénéficiez d’outils de journalisation et de surveillance améliorés et de fonctions d’autorétablissement rapides intégrées à Kubernetes.

Comment fonctionne Tekton ?

Tekton fournit des CRD de style Kubernetes pour déclarer les pipelines CI/CD. Les ressources sont déclarées dans un yaml qui est, généralement, stocké avec le dépôt de code. Nous allons examiner les CRD de base qui sont essentiels lors de la création de pipelines.

Tâche

Une tâche est la plus petite unité configurable dans un pipeline Tekton. C’est similaire à une fonction qui accepte un ensemble d’entrées et produit certains résultats. Chaque tâche peut être exécutée soit individuellement et indépendamment, soit en tant que partie du pipeline. Une commande exécutée par une tâche est appelée une étape. Chaque tâche consiste en une ou plusieurs étapes. Tekton exécute chaque tâche dans son propre pod Kubernetes.

Pipeline

Un pipeline est constitué d’un certain nombre de tâches qui forment le flux de travail automatisé final de CI/CD. En plus des Tâches, il contient également des PipelineResources. Ils sont fournis comme entrées et sorties aux tâches du pipeline.

PipelineResource

Une PipelineResource est un objet qui est utilisé comme entrée ou sortie d’une tâche. Par exemple, si la tâche accepte un dépôt GitHub en entrée et construit et produit l’image Docker correspondante, les deux sont déclarés comme objets PipelineResource.

PipelineRun

Un PipelineRun est une instance d’une Pipeline qui est en cours d’exécution. Il initie l’exécution de la Pipeline et gère les PipelineResources transmises aux Tasks comme entrées et sorties.

TaskRun

Un TaskRun est une instance en cours d’exécution d’une tâche. PipelineRun crée des objets TaskRun pour chaque tâche du pipeline afin de lancer l’exécution.

Déclencheur

Un Trigger est un événement externe qui déclenche le workflow CI/CD. Par exemple, une demande de retrait Git peut servir de déclencheur. Les informations transmises avec la charge utile de l’événement sont ensuite utilisées pour déclencher les tâches du pipeline.

Condition

Les conditions sont similaires aux instructions if de la programmation régulière. Ils effectuent un contrôle de validation par rapport aux conditions fournies et renvoient une valeur True ou False. Le pipeline vérifie ces conditions avant d’exécuter une tâche. Si la condition renvoie Vrai, la tâche est exécutée, et si elle renvoie Faux, la tâche est ignorée.

Grâce à ces composants, vous pouvez créer des pipelines complexes et entièrement automatisés pour construire, tester et déployer vos applications dans le cloud ou dans des solutions sur site.

Qui devrait utiliser Tekton ?

Les ingénieurs de plate-forme qui élaborent des flux de travail CI/CD pour les développeurs d’une organisation trouveront dans Tekton un cadre idéal pour simplifier ce processus. Les développeurs aussi peuvent créer des flux de travail CI/CD avec Tekton pour les projets de développement de logiciels et d’applications. Cela leur donne la possibilité de gérer facilement les différentes étapes du processus de développement, telles que les versions dev, test, prod du produit, avec un minimum d’intervention humaine.

Quelle est la prochaine étape ?

Reportez-vous à la documentation officielle de Tekton et OpenShift Pipelines pour en savoir plus sur la manière de configurer des pipelines CI/CD qui répondent facilement aux besoins de votre organisation.

Besoin d’aide?

Nous proposons Kubernetes et OpenShift formations et nous pouvons vous aider à acheter, déployer et gérer votre
Environnement OpenShift sur IBM Power Systems
.

Tout ce que vous devez savoir sur Rancher – gestion de Kubernetes pour l’entreprise

L’une des innovations les plus précieuses de l’informatique en nuage est l’utilisation de conteneurs pour exécuter des applications et des services basés sur le nuage. Des plateformes comme Kubernetes ont facilité la gestion des charges de travail et des services conteneurisés sur les plateformes en nuage. Pour ceux qui l’ignorent, Kubernetes est une plateforme open-source permettant de déployer, de gérer et d’automatiser des charges de travail et des services conteneurisés.

En tant que logiciel libre, Kubernetes dispose de plusieurs distributions parmi lesquelles vous pouvez choisir si vous avez l’intention de déployer des charges de travail sur le cloud. Une des distributions que vous choisissez est Rancher. Si vous souhaitez en savoir plus sur Rancher et la comparer aux autres distributions Kubernetes, cet article est fait pour vous. Nous allons voir ce qu’est Rancher, ses principales caractéristiques, pourquoi vous devriez l’utiliser et comment il se compare à d’autres solutions. Plongeons-y !

rancher ce qu'il est

Qu’est-ce que Rancher ?

Rancher est une pile logicielle utilisée pour gérer les clusters Kubernetes. Il s’agit essentiellement d’un logiciel que DevOps peut utiliser tout en adoptant l’utilisateur de conteneurs. Rancher comprend une distribution complète de Kubernetes, Docker Swarm et Apache Mesos, ce qui simplifie la gestion des clusters de conteneurs sur n’importe quelle plateforme en nuage. Parmi les entreprises populaires qui utilisent Rancher, citons : Alibaba Travelers, Abeja, Trivago, UseInsider, Starbucks, Oxylabs, yousign, et bien d’autres.

Rancher a récemment été racheté par SUSE, et cette acquisition va considérablement changer leur direction. SUSE avait déjà sa solution de gestion de conteneurs, mais après avoir acquis Rancher, ils vont très probablement s’éloigner de leur solution initiale et se concentrer sur l’amélioration de Rancher.

L’un des avantages importants de Rancher est la possibilité de gérer plusieurs clusters Kubernetes de manière simplifiée. Il offre une gestion simplifiée de plusieurs clusters Kubernetes qui peuvent être créés manuellement à l’aide de la distribution Kubernetes de Rancher appelée RKE (Rancher Kubernetes Engine) ou importés dans le panneau de gestion du gestionnaire de clusters.

Outre Rancher Kubernetes Engine (RKE), Rancher a lancé plusieurs autres projets innovants, et l’un d’entre eux est le K3S – un panneau de contrôle Kubernetes plus simple qui est principalement utilisé dans l’informatique périphérique. Maintenant que SUSE a repris Rancher, nous espérons qu’ils l’amélioreront encore davantage pour en faire une plateforme Kubernetes complète.

Caractéristiques de Rancher

Voici quelques-unes des principales fonctionnalités de Rancher

  • Application catalogue Docker
  • Distribution Kubernetes incluse
  • Distribution Docker Swarm incluse
  • Distribution Mesos incluse
  • Gestion des infrastructures
  • Voici quelques-unes des principales caractéristiques de Rancher ;
  • Gérer les hôtes, déployer les conteneurs, surveiller les ressources
  • Gestion des utilisateurs et collaboration
  • API et outils natifs de Docker
  • Surveillance et journalisation
  • Connecter des conteneurs, gérer des disques, déployer des équilibreurs de charge

Pourquoi utiliser Rancher ?

Avec plusieurs autres distributions de Kubernetes sur le marché, pourquoi choisir Rancher ? Examinons quelques-uns des principaux avantages/bénéfices que présente Rancher.

  • Elle est facile à utiliser : L’une des raisons pour lesquelles on choisirait Rancher plutôt qu’une autre plateforme Kubernetes est l’interface Web simplifiée qui permet de faire tout ce dont on a besoin. Il s’agit d’une plateforme que même les développeurs qui n’ont pas une grande expérience de Kubernetes peuvent facilement utiliser.
  • Elle peut facilement être déployée sur n’importe quelle infrastructure de cloud : Un autre avantage essentiel de Rancher par rapport aux autres plateformes Kubernetes est sa compatibilité avec différentes plateformes de cloud ; vous pouvez donc le déployer rapidement sur n’importe quelle infrastructure de cloud.
  • Simplifie la gestion des clusters : Rancher est probablement le meilleur choix pour gérer plusieurs clusters Kubernetes à partir d’une seule interface. Sa capacité à gérer de multiples clusters est l’une des forces importantes qui ont été construites au cœur de Rancher.
  • Surveillance et distribution de la charge de travail automatiques: C’est l’une des principales fonctionnalités incluses dans Rancher, ce qui est très pratique si vous avez l’intention de déployer un système susceptible de recevoir un énorme trafic.
  • C’est une source ouverte et totalement gratuite : RKE, K3s, et tous les autres produits Rancher sont open source et gratuits pour tous. Si vous n’avez pas de budget à consacrer à un logiciel de gestion de conteneurs, alors Rancher est le meilleur choix pour vous. Cependant, pour obtenir le soutien des laboratoires Rancher, vous devrez payer un certain montant.

Quand ne pas utiliser Rancher.

Malgré ses nombreux avantages, il existe certains scénarios dans lesquels il est conseillé de ne pas utiliser Rancher. Voici quelques-unes des situations dans lesquelles vous devriez éviter d’utiliser Rancher.

  • Si vous êtes intéressé par des produits plus matures: Par rapport à d’autres plateformes Kubernetes comme OpenShift, Rancher est assez récent et évolue encore. Si vous êtes le genre de personne qui aime utiliser des produits déjà matures qui ne connaîtront pas de changements radicaux, vous pourriez être déçu par Rancher.
  • Si vous n’avez pas l’intention d’utiliser plusieurs clusters: L’un des principaux atouts de Rancher par rapport aux autres distributions Kubernetes est sa capacité à gérer plusieurs clusters de conteneurs à partir d’une seule interface. Pour ceux qui gèrent des clusters uniques, il est probable que vous ne ferez pas bon usage de Rancher, et il est donc préférable de choisir une autre plateforme.

Comment Rancher se compare-t-il à d’autres solutions comme OpenShift ?

L’un des principaux atouts d’OpenShift par rapport à Rancher est qu’il s’agit d’une plateforme mature qui bénéficie du soutien total de Red Hat. Si vous faites déjà partie de l’écosystème Red Hat, votre choix évident pour la gestion des conteneurs devrait être OpenShift. Rancher dispose également du support de Rancher Labs, mais il n’est pas aussi fiable que celui de Red Hat. L’utilisation de Rancher est plus logique si vous avez l’intention de gérer plusieurs grappes de conteneurs.

Conclusion

Rancher est un excellent outil pour gérer et automatiser les clusters Kubernetes. Il dispose également de nombreuses fonctionnalités pratiques dont vous pouvez tirer parti, notamment si vous gérez plusieurs clusters Kubernetes.

La possibilité de gérer tous vos clusters à partir d’un seul endroit est l’une des raisons pour lesquelles vous devriez choisir Rancher plutôt que toute autre plateforme si vous avez l’intention de gérer plusieurs clusters. Rancher est également très facile à apprendre et à utiliser. Kubernetes utilisateurs peuvent rapidement se familiariser avec Rancher.

Vous avez besoin de formation, de conseil ou d’architecture ?

Nous sommes des partenaires commerciaux de SUSE et Red Hat. Nous pouvons vous aider à déployer des PoCs Rancher et OpenShift afin que vous puissiez évaluer et essayer les deux solutions. Nous avons également développé des Docker / kuberneteset Pratique d’OpenShift 4 formations qui pourraient vous intéresser.

red hat openshift plus edition

Red Hat OpenShift Platform Plus : Quoi de neuf ?

Openshift Platform Plus est le dernier membre de la famille OpenShift. La solution PaaS de Red Hat pour les applications basées sur Kubernetes. Il a été annoncé conjointement avec la version 8.4 de Red Hat Linux. Grâce à Red Hat Openshift Plus, les organisations peuvent, moyennant un léger surcoût (dont nous parlerons plus tard), gérer non seulement les applications mais aussi leurs politiques et configurations de sécurité, quel que soit l’endroit où se trouvent leurs applications, car il comprend une nouvelle prise en charge intégrée du cycle de vie des applications dans les environnements multi-clusters, ainsi que la possibilité de créer des clusters de seulement 3 nœuds ou même avec des nœuds ” travailleurs ” distants permettant d’étendre les clusters Kubernetes à presque n’importe quel endroit, ce qui inclut les installations à faible puissance disponible.

red hat openshift plus edition

Qu’est-ce qui est inclus dans OpenShift Platform Plus ?

  • Moteur Kubernetes (couche de base d’OpenShift sur Linux OS)
  • Orchestration/ contrôle de gestion(Red Hat Advanced Cluster Manager for Kubernetes-ACM)
  • Protocoles de sécurité(Red Hat Advanced Cluster Security for Kubernetes-ACS)
  • Logiciel de registre(Red Hat Quay)

OpenShift Platform Plus fournit toutes les fonctionnalités de base, de gestion et de sécurité en un seul paquet, qui étaient disponibles séparément à leurs prix. Advanced Cluster Security (ACS) a été ajouté à OpenShift après l’acquisition de StackRox, un fournisseur de sécurité natif de Kubernetes.

Prêt pour le multi-cloud et le CI/CD

OpenShift offre une solution de configuration complète permettant de créer un environnement ou d’exécuter une application basée sur des conteneurs sur une infrastructure hybride de serveurs en nuage ou sur site. Openshift propose deux types d’infrastructures d’applications conteneurisées, à savoir les plateformes gérées et les plateformes autogérées. Les plateformes gérées sont des services en nuage complets comme Azure, IBM, AWS et Google Cloud. Dans le même temps, les plateformes autogérées sont hautement personnalisables mais nécessitent une équipe hautement qualifiée pour chaque partie du déploiement.

OpenShift a évolué avec le temps et a inclus des caractéristiques essentielles pour une fonctionnalité améliorée. Au départ, OpenShift Kubernetes Engines a été introduit et comprend le runtime Enterprise Kubernetes, le système d’exploitation de conteneurs immuables Red Hat Enterprise Linux CoreOS, la console de l’administrateur et Red Hat OpenShift Virtualization. Vient ensuite OpenShift Container Platform, complétée par la console du développeur, la gestion des journaux et des coûts, OpenShift Serverless (Knative), OpenShift Server Mesh (Istio), OpenShift Pipelines et OpenShift GitOps(Tekton, ArgoCD). Comprenant toutes les fonctionnalités précédemment disponibles, OpenShift Platform Plus s’accompagne de fonctionnalités supplémentaires.

Caractéristiques de la plate-forme OpenShift Plus

Gestion avancée des clusters Red Hat pour Kubernetes

Il s’agit d’une option de contrôle de gestion avancée d’OpenShift. Il fournit aux clients un accès complet à la gestion unifiée de plusieurs clusters (modification des clusters sur les nuages publics ou privés, allocation de ressources pour les clusters et résolution des problèmes sur l’ensemble du domaine à partir d’une seule présentation) via la console Web Openshift. En outre, il assure une gestion basée sur des politiques qui comprend la normalisation des paramètres de politique pour la sécurité, l’application et le cadre d’infrastructure.

Les applications peuvent être déployées sur le réseau grâce à une gestion avancée du cycle de vie des applications. Il permet également de contrôler le flux d’applications sur les nœuds, la gestion de la configuration Day-2 à l’aide d’Ansible. La gestion avancée des clusters (ACM) vise à fournir des solutions de santé des clusters liées au stockage, à l’optimisation et au dépannage. Les outils de surveillance d’OpenShift sont bien conçus pour fonctionner avec facilité et efficacité.

Red Hat Advanced Cluster Security pour Kubernetes (ACS)

L’ACS a été ajouté à la famille OpenShift après l’acquisition de StackRox, faisant de l’ACS le composant central d’OpenShift Platform Plus. Ce dispositif de sécurité est différent des mesures de sécurité déployées précédemment. Auparavant, les protocoles de sécurité étaient appliqués après le développement de l’application. ACS permet d’inclure la sécurité dès le début, c’est-à-dire dans la base de code. Les fonctions de sécurité avancées renforcent chaque étape du cycle de vie du développement des applications.

La sécurité avancée des clusters suit les normes internationales de sécurité des conteneurs, comme les références CIS et NIST. Les protocoles de sécurité comprennent la sécurité contre les violations de données, la protection des réseaux, l’élimination des angles morts, la réduction du temps et des coûts par la mise en œuvre efficace des codes de politique de sécurité, l’évitement des conflits opérationnels, le chevauchement des données et la redondance. ACS est une exécution parfaite des protocoles DevSecOps.

Red Hat Quay

Un registre de conteneurs est une plateforme de stockage utilisée pour stocker des conteneurs pour Kubernetes et d’autres développements d’applications basées sur des conteneurs comme DevOps. Lorsqu’une application conteneur est formée, son image est créée. Il s’agit d’une sorte de fichier .exe qui contient tous les fichiers et composants nécessaires à une installation réussie. Lorsqu’une image de conteneur est placée sur d’autres plateformes, elle est utilisée pour créer la même application de conteneur. Une image de conteneur est un modèle utilisé pour créer d’autres applications.

Red Hat Quay est un registre de conteneurs privé utilisé pour créer, distribuer et stocker des images de conteneurs. Lorsque l’image du conteneur est partagée sur le dépôt du réseau, des vulnérabilités spécifiques apparaissent. RedHat Quay utilise la sécurité Clair pour faire face à ces vulnérabilités en fournissant des contrôles d’accès stricts, des protocoles d’authentification et d’autres problèmes de distribution.

Caractéristiques de RedHat Quay

  • Chaque image est marquée avec l’horodatage ; RedHat Quay offre Time Machine pour marquer la version de l’image et la capacité de retour en arrière comme la mise à niveau ou la restauration des paramètres d’usine. Il fournit un historique configurable de deux semaines pour les balises d’image.
  • La distribution géographique garantit des images rapides et impeccables grâce aux réseaux de distribution de contenu (CDN), de sorte que chaque point d’accès dispose d’un référentiel proche. RedHat Quay utilise également la technologie BitTorrent pour réduire le temps d’attente pour la disponibilité du contenu.
  • La collecte des déchets de ressources au moment de l’exécution permet d’identifier les opérations inutiles ou moins utilisées afin d’optimiser l’utilisation des ressources et d’accroître l’efficacité.
  • RedHat Quay offre un stockage illimité pour de multiples collections d’images.
  • Déclenchement automatisé pour le pipeline d’intégration et livraison continue (CI/CD)
  • Audit basé sur les journaux en analysant les API et les interfaces utilisateur
  • Les protocoles d’authentification utilisant LDAP, OAuth, OIDC et keystone garantissent une connexion sécurisée et un contrôle d’accès hiérarchique organisationnel.
  • L’automatisation des comptes permet de créer les informations d’identification nécessaires à l’exécution du programme.
  • Adaptabilité multiplateforme

Prix de RedHat OpenShift Platform Plus

Les fonctionnalités avancées d’OpenShift Platform Plus sont réputées être disponibles entre avril 2021 et juin 2021. Le prix actuel n’est pas encore disponible. OpenShift.io est une plateforme gratuite de déploiement en nuage. Le coût de Platform Plus dépend de la taille et de l’abonnement. Selon Capterra, chaque fonctionnalité Plus coûte 20 dollars par mois pour les plans autogérés. Une meilleure façon de lire et de choisir un modèle d’abonnement, et de contacter notre service commercial. Vous pouvez également demander une démo d’OpenShift Plus gratuitement.

Formation et services professionnels sur RedHat OpenShift Platform

Nous proposons des formations Kuberneteset OpenShift et nous pouvons vous aider à acheter, déployer et gérer votre Environnement OpenShift sur IBM Power Systems. Contactez nous pour plus d’informations

Red Hat OpenShift 4.7 est arrivé et l’installateur est inclus.

Assistant d’installation, kubernetes 1.20 et autres nouveautés d’OpenShift 4.7

Kubernetes 1.20 et CRI-o 1.20

Sa technologie est basée sur les versions 1.20 de Kubernetes et le moteur de conteneurs CRI-O 1.20, qui remplace complètement le peu qui restait de Docker. OpenShift 4.7 a poursuivi son chemin de nouvelles fonctionnalités dont nous parlerons plus tard, mais si nous pouvons dire quelque chose de pertinent sur cette version, c’est qu’elle est plus stable, beaucoup plus stable. De nombreuses modifications ont été apportées à l’ensemble de la pile logicielle afin d’améliorer la disponibilité, la résilience et la robustesse de la plateforme dans son ensemble. Des contrôles plus nombreux et plus efficaces ont été mis en place, un nouveau système de diagnostic pour l’installateur a été mis en place et les codes d’erreur ont été enrichis. Il comprend également des améliorations du panneau de contrôle pour faciliter la surveillance des pipelines, des opérateurs (connectés ou déconnectés) des systèmes de stockage et des réseaux de communication.

Un installateur pour les serveurs bare-metal ?

Oui, enfin. Cette version est livrée avec l’assistant d’installation (aperçu technologique). Une avancée pour simplifier le déploiement de l’ensemble des paquets, dépendances, services et configurations nécessaires pour installer OpenShift sur nos propres serveurs.

Mais n’a-t-il pas toujours été installé dans le nuage avec un installateur automatique ?

Oui et non. L’installateur du nuage est génial, tout fonctionne comme par magie MAIS il y a de plus en plus de charges de travail comme l’IA, le HPC, le DL, le Telco/5G, le ML, qu’il est impossible de déployer dans le nuage en raison des coûts (vous devez télécharger et envoyer de très nombreux Go) et des performances. Nous avons déjà vu comment configurer OpenShift pour les environnements AI/DL sur les serveurs IBM Power Systems. L’une des principales objections à de tels déploiements était la complexité de l’installation manuelle de l’environnement. L’installateur le simplifiera beaucoup.

Conteneurs Windows

Cela peut paraître étrange, mais les clients de Microsoft sont des millions dans le monde. Si un système comme celui-ci veut réussir, il doit les soutenir. C’est pourquoi Red Hat OpenShift 4.7 continue d’étendre la prise en charge de Windows Containers, une fonctionnalité annoncée dès la fin de 2020. Outre la prise en charge de Windows Containers sur AWS et Azure, OpenShift inclura désormais la prise en charge de vSphere (disponible au début du mois d’avril prochain 2021) à l’aide de l’Installer Provided Infrastructure (IPI) pour VMWare. Les clients de Red Hat peuvent désormais migrer leurs conteneurs Windows de leurs systèmes virtualisés VMWare vers leur cluster Red Hat OpenShift de manière simple et, surtout, entièrement prise en charge et sécurisée.

Support IPSec dans OVN

Dans les environnements de nuages hybrides, l’un des grands défis est de savoir comment connecter nos nœuds et clusters distants les uns aux autres ou à nos centres de données locaux. Avec la prise en charge du réseau virtuel d’OpenShift pour le protocole IPSec, cela est grandement facilité.

Mise à l’échelle automatique des pods

La dernière fonctionnalité que nous voulions mettre en avant est l’uto-scaling horizontal des pods (HPA). Il permet, en mesurant l’utilisation de la mémoire et par le biais d’un contrôleur de réplication, d’augmenter le nombre de pods ou de modifier leurs caractéristiques automatiquement.

Si vous voulez essayer Red Hat OpenShift 4.7, il y a plusieurs façons de le faire, des tutoriels d’apprentissage en ligne aux démos sur votre ordinateur portable, en passant par la façon de le faire dans le cloud public ou dans votre propre centre de données.

Vous pouvez consulter le reste des nouvelles sur https://www.openshift.com/blog/red-hat-openshift-4.7-is-now-available, configurer votre environnement de démonstration chez vous et commencer à vous former dès maintenant avec nos cours pratiques.

Machine & Deep Learning sur place avec Red Hat OpenShift 4.7

En fournissant une grande quantité de données en tant qu’ensemble de formation, les ordinateurs ont été rendus capables de prendre des décisions et d’apprendre de façon autonome. L’IA est généralement entreprise en conjonction avec l’apprentissage automatique, l’apprentissage profond et l’analyse du Big Data. Tout au long de l’histoire de l’IA, la principale limitation a été la puissance de calcul, cpu-mémoire-gpu bandwith et des systèmes de stockage haute performance. L’apprentissage automatique nécessite une puissance de calcul immense avec l’exécution intelligente des commandes en gardant les processeurs et les gpus à une utilisation extrêmement élevée, soutenue pendant des heures, des jours ou des semaines. Dans cet article, nous discuterons des différentes alternatives pour ce type de charges de travail. Des environnements cloud comme Azure, AWS, IBM ou Google aux déploiements sur place avec des conteneurs sécurisés fonctionnant sur Red Hat OpenShift et utilisant IBM Power Systems.

Avant d’exécuter un modèle d’IA, il y a quelques choses à garder à l’esprit. Le choix des outils matériels et logiciels est tout aussi essentiel pour les algorithmes de résolution d’un problème particulier. Avant d’évaluer les meilleures options, nous devons d’abord comprendre les conditions préalables à l’établissement d’un environnement de fonctionnement de l’IA.

Quelles sont les conditions préalables matérielles pour exécuter une application d’IA ?

  • Puissance de calcul élevée (GPU peut enflammer l’apprentissage profond jusqu’à 100 fois plus que les processeurs standard)
  • Capacité de stockage et performances du disque
  • Infrastructure de réseautage (à partir de 10 Go)

Quelles sont les conditions préalables logicielles pour exécuter une application d’IA ?

  • Système d’exploitation
  • L’environnement informatique et ses variables
  • Bibliothèques et autres binaires
  • Fichiers de configuration

Comme nous connaissons maintenant les conditions préalables pour établir une configuration iA, nous allons plonger dans tous les composants et les meilleures combinaisons possibles. Il y a deux choix pour la mise en place d’un déploiement d’IA : le cloud et sur place. Nous vous avons déjà dit qu’aucun d’entre eux n’est meilleur car cela dépend de chaque situation.

Infrastructure cloud

Certains serveurs cloud traditionnels célèbres sont

  1. Services Web Amazon (AWS)
  2. Microsoft Azure
  3. Plate-forme Google Cloud (GCP)
  4. IBM Cloud

En plus de ceux-ci, il existe des nuages spécialisés pour l’apprentissage automatique. Ces nuages spécifiques à la ML fournissent un soutien aux GPU plutôt qu’aux Processeurs pour un meilleur calcul et des environnements logiciels spécialisés. Ces environnements sont idéaux pour les petites charges de travail lorsqu’il n’y a pas de données confidentielles ou sensibles. Lorsque nous devons télécharger et télécharger de nombreuses to de données ou exécuter des modèles intensifs pendant des semaines à la fois, être en mesure de réduire ces temps à des jours ou des heures et de les faire sur nos propres serveurs nous permet d’économiser beaucoup de coûts. Nous en reparlerons ensuite.

Serveurs sur place et déploiements platform-as-a-service (PAaS)

Il s’agit de serveurs spécialisés présents dans les locaux de travail d’une société d’IA. De nombreuses entreprises fournissent des serveurs iA hautement personnalisés ainsi que construits à partir de zéro sur prem. Par exemple, les AC922 et IC922 d’IBM sont parfaits pour la configuration iA sur place.

Les entreprises choisissent comme elles doivent tenir compte de la croissance future et du compromis entre les besoins actuels et les dépenses des deux ci-dessus. Si votre entreprise n’est qu’une start-up, les serveurs d’IA cloud sont les meilleurs car ce choix peut éliminer le souci des installations à des tarifs en quelque sorte abordables. Mais si votre entreprise augmente en nombre et que de plus en plus de scientifiques de données se joignent à l’informatique en nuage, l’informatique en nuage n’allégera pas vos fardeaux. Dans ce cas, les experts en technologie mettent l’accent sur l’infrastructure iA prém pour une meilleure sécurité, personnalisation et expansion.

LIRE AUSSI: Déployez votre cloud hybride pour ML et DL

Choisir la meilleure architecture HW

Presque toutes les plates-formes de service cloud offrent maintenant le calcul pris en charge par GPU que GPU a près de 100 fois plus puissant que le processeur moyen, surtout si l’apprentissage automatique est sur la vision par ordinateur. Mais le vrai problème est le débit de données entre le nœud et le serveur cloud, quel que soit le nombre d’UDI connectés. C’est pourquoi la configuration iA on-prem a plus de votes, car le flux de données n’est plus un gros problème.

Le deuxième point à considérer est la bande passante entre les GPU et les Processeurs. Sur les architectures traditionnelles telles qu’Intel, ce trafic est transféré sur les canaux PCI. IBM a développé un connecteur appelé NVLink, de sorte que les GPU de cartes NVidia et les noyaux Power9 puissent communiquer directement sans couches intermédiaires. Cela multiplie la bande passante, qui est déjà plus de 2 fois plus élevée entre le processeur et la mémoire. Résultat : plus de goulots d’étranglement !

Comme nous l’avons souligné ci-dessus les conditions préalables logicielles pour l’exécution des applications iA, nous devons maintenant considérer le meilleur environnement logiciel pour des performances optimales d’IA.

Quelle architecture de centre de données est la meilleure pour AI/DL/ML?

Tout en parlant de serveurs concernant l’infrastructure douce iA, la conception traditionnelle a été la virtualisation; il s’agit d’une simple distribution des ressources de calcul sous des systèmes d’exploitation distincts. Nous appelons chaque environnement de système d’exploitation indépendant une « machine virtuelle ». Si nous avons besoin d’exécuter des applications iA sur des machines virtuelles, nous sommes confrontés à de multiples contraintes. La première est les ressources nécessaires à l’exécution de l’ensemble du système, y compris les opérations de système d’exploitation et les opérations d’IA. Chaque machine virtuelle nécessite des ressources de calcul et de stockage supplémentaires. En outre, il n’est pas facile de transférer un programme en cours d’exécution sur une machine virtuelle spécifique à une autre machine virtuelle sans réinitialiser les variables environnementales.

Qu’est-ce qu’un conteneur?

Pour résoudre ce problème de virtualisation, le concept «Conteneur» saute dedans. Un conteneur est un environnement logiciel indépendant sous un système d’exploitation standard avec un environnement de temps d’exécution complet, une application iA et des dépendances, des bibliothèques, des binaires et des fichiers de configuration réunis en une seule entité. La conteneurisation offre des avantages supplémentaires car les opérations d’IA sont exécutées directement dans le conteneur, et OS n’a pas à envoyer chaque commande à chaque fois (ce qui permet d’enregistrer des instances de flux de données massives). Deuxièmement, mais pas moins, il est relativement facile de transférer un conteneur d’une plate-forme à une autre plate-forme, car ce transfert ne nécessite pas de changer les variables environnementales. Cette approche permet aux data scientists de se concentrer davantage sur l’application que sur l’environnement.

Plate-forme de conteneurs RedHat OpenShift

Le meilleur logiciel de conteneurisation intégré à Linux est la plate-forme de conteneurs OpenShift de Red Hat (un PAaS on-prem) basé sur Kubernetes. Ses fondamentaux sont construits sur des conteneurs CRI-O, tandis que les Kubernetes contrôlent la gestion de la conteneurisation. La dernière version d’Open Shift est 4.7. La mise à jour majeure fournie dans OpenShift 4.7 est son indépendance relative de Docker et une meilleure sécurité.

Opérateur NVIDIA GPU pour conteneurs Openshift

NVIDIA et Red Hat OpenShift se sont réunis pour aider à l’exécution des applications d’IA. Tout en utilisant les GPU comme processeurs à haut calcul, le plus gros problème est de virtualiser ou de distribuer la puissance des GPU à travers les conteneurs. NVIDIA GPU Operator for Red Hat Openshift est un Kubernetes qui médie la planification et la distribution des ressources GPU. Étant donné que le GPU est une ressource spéciale dans le cluster, il nécessite l’installation de quelques composants avant que les charges de travail des applications puissent être déployées sur le GPU, ces composants comprennent :

  • Pilotes NVIDIA
  • temps d’exécution spécifique pour kubernetes
  • plugin de dispositif de récipient
  • règles d’étiquetage automatique des nœuds
  • compnents de surveillance

Les cas d’utilisation les plus couramment utilisés qui utilisent les GPU pour l’accélération sont le traitement d’image, audition par ordinateur, IA conversationnelle en utilisant des NLP, et la vision par ordinateur en utilisant des réseaux neuronaux artificiels.

Environnement informatique pour l’apprentissage automatique

Il existe plusieurs environnements informatiques iA pour tester/exécuter des applications iA. Le haut d’entre eux est Tensorflow, Microsoft Azure, Apache Spark et PyTorch. Parmi ceux-ci, Tensorflow (Créé par Google) est choisi par le plus. Tensorflow est une plate-forme open source de bout en bout de qualité de production qui a des bibliothèques pour l’apprentissage automatique. L’unité de données principale utilisée dans TensorFlow et Pytorch est Tensor. La meilleure chose à propos de TensorFlow est qu’il utilise des graphiques de flux de données pour les opérations. C’est comme un flowchart, et les programmes gardent une trace du succès et de l’échec de chaque flux de données. Cette approche permet d’économiser beaucoup de temps en ne retourdant pas à la ligne de base d’une opération et en testant d’autres sous-modèles en cas d’échec d’un flux de données.

Jusqu’à présent, nous avons discuté de tous les choix pour établir une infrastructure d’IA, y compris le matériel et les logiciels. Il n’est pas facile de sélectionner un produit spécifique qui héberge tous les composants du système d’IA souhaités. IBM offre à la fois des composants matériels et logiciels pour la recherche et le développement efficaces et rentables de l’IA comme IBM Power Systems et IBM PowerAI, respectivement.

Systèmes d’alimentation IBM

IBM Power Systems dispose de composants flexibles et basés sur les besoins pour l’exécution d’un système d’IA. IBM Power Systems offre des serveurs accélérés comme IBM AC922 et IBM IC922 pour la formation ML et ml inférence, respectivement.

IBM PowerAI

IBM PowerAI est une plate-forme intelligente d’exécution de l’environnement iA facilitant l’apprentissage en profondeur efficace, l’apprentissage automatique et les applications iA en utilisant ibm Power Systems et NVidia GPUs pleine puissance. Il fournit de nombreuses optimisations qui accélèrent les performances, améliorent l’utilisation des ressources, facilitent l’installation, la personnalisation et préviennent les problèmes de gestion. Il fournit également des cadres d’apprentissage profond prêts à l’emploi tels que Theano, Bazel, OpenBLAS, TensorFlow,Caffe-BVLC ou IBM Caffe.

Qui est le meilleur serveur pour les déploiements sur place. Comparons IBM AC922 et IBM IC922

Si vous avez besoin de serveurs capables de résister à des charges d’apprentissage automatique pendant des mois ou des années sans interruption, fonctionnant à un pourcentage de charge élevé, les systèmes Intel ne sont pas une option. Les systèmes NVIDIA DGX sont également disponibles, mais comme ils ne peuvent pas virtualiser les GPU, lorsque vous souhaitez exécuter plusieurs modèles d’apprentissage différents, vous devez acheter plus de cartes graphiques, ce qui les rend beaucoup plus chers. Le choix du bon serveur dépendra également du budget. Les IC922 (conçus pour l’inférence d’IA et les charges de travail linux performantes élevées) sont environ la moitié du prix des AC922 (conçus pour la formation aux ensembles de données iA), de sorte que pour les petits projets, ils peuvent être parfaitement adaptés.

 

Si ces technologies vous intéressent, demandez
une démonstration
sans obligation. Nous avons des programmes où nous pouvons vous assigner un serveur complet pendant un mois afin que vous puissiez tester directement les avantages de cette architecture matérielle.

Red Hat est maintenant gratuit pour les petits environnements. Nous vous apprenons à migrer de CentOS

CentOS Stream n’est pas si terrible

Avec l’annonce de CentOS Stream de nombreux utilisateurs ont été laissés plus qu’inquiets. Passant d’une distribution stable et gratuite, la sœur jumelle de RHEL à un environnement de test, sujette à des erreurs et besoin de correctifs constants ne semblait pas être une bonne nouvelle. En outre, son cycle de vie (c’est-à-dire le temps pendant lequel des mises à jour sont fournies à chaque version) trop court, ce qui ne le rend pas approprié pour la plupart des serveurs en production qui à l’époque ont décidé d’installer CentOS au lieu de RHEL pour ne pas avoir besoin d’un support technique de haut niveau. C’est le cas des petites entreprises ou des établissements d’enseignement.

Fedora existait déjà, où toutes les nouvelles avancées techniques qui arriveraient plus tard à Red Hat (et CentOS) sont à l’essai. Fedora est une distribution Linux idéale pour les environnements de bureau, mais peu d’entreprises avaient en production.

Enfin, le scénario s’est éclairci. Fedora continuera d’avoir la même fonction au sein de l’écosystème Linux de Red Hat, rien ne change ici. CentOS Stream sera une plate-forme qui, en utilisant des techniques de «livraison continue», héritées de la philosophie de devops, deviendra la prochaine version mineure de Red Hat Enterprise Linux (RHEL) avec un cycle de vie assez court.

Red Hat Linux est maintenant gratuit pour les petits environnements

Toutefois, la grande nouvelle est la suivante : pour les environnements avec jusqu’à 16 serveurs productifs, RHEL peut être installé sans frais à l’aide de licences Developer. À bien y penser, c’est tout le sens du monde. À l’exception des grands environnements super-informatiques (HPC), vous migrez de CentOS à RHEL de manière transparente et sans frais supplémentaires. Non seulement les fonctionnalités seront maintenues, mais les dernières mises à jour seront consultées immédiatement.

Cela sera possible à partir du 1er février 2021. Red Hat prévient qu’il gardera le système d’abonnement, même s’ils sont gratuits en essayant de les simplifier autant que possible. Ils font valoir des raisons juridiques, telles que celle que de nouvelles lois telles que le GDPR entrer en vigueur, les termes et conditions de votre logiciel doivent être mis à jour. C’est-à-dire que ce ne sont ni les licences attendues à perpétuité qu’IBM maintient encore par exemple.

De notre point de vue, il s’agit d’un succès dans l’expansion de la base d’utilisateurs, mais aussi futur client potentiel non seulement de Red Hat Linux, mais de tous ses produits: Satellite, Ansible, OpenShift, Openstack, Cloudforms parmi beaucoup d’autres.

Comment pouvons-nous migrer de CentOS à Red Hat?

Nous avons un utilitaire qui effectue la migration, convert2rhel

• convert2rhel –disable-submgr –enablerepo < RHEL_RepoID1 > –enablerepo < RHEL_RepoID2 > –debug

Changez RHEL_RepoID les référentiels que vous choisissez par /etc/yum.repos.d/code> rhel-7-server-rpmscode> exemple, ou rhel-8-baseoscode> rhel-8-appstreamcode> .

Vous pouvez examiner les options avec :

Convert2rhel -h Convert2rhel -h Convert2rhel -h Convert2

Et quand vous êtes prêt, il suffit de commencer le processus:

Convert2rhel Convert2rhel Convert2rhel Convert2

Dans ce lien, vous avez tous les détails

SIXE
×