Installation et test de la nouvelle version IBM AIX 7.3

Après avoir rejoint le programme OpenBeta d’IBM, nous avons pu télécharger et tester la nouvelle version d’AIX 7.3 à l’occasion de son 35e anniversaire.

Parmi ses nouveautés, citons les suivantes :

  • Les frameworks Python et Bash qui fonctionnent directement avec AIX, pas besoin de les réinstaller manuellement !
  • Prise en charge de la commande dnf (standard dans Red Hat) pour l’installation de paquets open source à partir de la boîte à outils AIX. AIX a longtemps parlé de Linux, mais depuis la version 7.3, il est de plus en plus intégré, offrant aux développeurs et aux administrateurs système toutes les fonctionnalités nécessaires à la modernisation des environnements UNIX.
  • Réduction du temps nécessaire pour ajouter dynamiquement des processeurs/mémoire à une LPAR en cours d’exécution, utile pour les LPAR dont les bases de données utilisent des centaines de Go ou plusieurs To de RAM. Cela va de pair avec la réduction de l’IPL pour ces partitions.
  • Les commandes pigz et zlibNX utilisent désormais de manière transparente l’accélération GZIP de NX dans Power9 et Power10.
  • Amélioration de la prise en charge du chiffrement des volumes logiques (LVM) pour inclure le rootvg et le dump device.
  • La pile de protocoles TCP prend désormais en charge CUBIC, un algorithme d’évitement de la congestion du réseau TCP qui permet d’établir des connexions à large bande passante sur les réseaux de manière plus rapide et plus fiable.
  • Améliorations supplémentaires de la sécurité IP (IPsec)
  • Possibilité de créer un fichier OVA à partir d’un mksysb en utilisant la commande create_ova afin d’accélérer les déploiements dans les nuages (PowerVS) et hybrides.
  • Création d’une image ISO à partir de la nouvelle commande mksysb_iso
  • Intégration avec les nouveaux compilateurs C/C++ et Fortran d’IBM Open XL
  • Augmentation de la taille des fichiers et du système de fichiers
  • Amélioration de la prise en charge d’Ansible et d’Ansible Tower
  • Intégration avec PowerVC 2.

 

Découvrez les nouveaux serveurs IBM Power10 et AIX 7.3

Le pouvoir de 10

Le 8 septembre est la date de l’annonce officielle des nouveaux serveurs d’IBM équipés de processeurs Power10, qui sera suivie de l’annonce de la version 7.3 d’AIX, qui aura 35 ans en 2021. Sur la base des caractéristiques techniques disponibles, nous savons qu’ils intègrent de la mémoire DDR5, une interface PCIe 5.0 et sont conçus à l’aide de la technologie 7nm de Samsung. Les processeurs Power10 seront à nouveau disponibles en deux versions. L’un avec 15 cœurs en mode SMT-8 (idéal pour AIX et IBM i) et les autres avec 30 cœurs et SMT-4 pour les charges de travail exclusivement Linux. Les puces Power10 intègrent également des améliorations majeures pour l’intelligence artificielle (IA), lui permettant d’exécuter des charges d’apprentissage automatique jusqu’à 20 fois plus rapidement que POWER9.

Un million de SAPS. L’infrastructure compte beaucoup.

Comme d’habitude, les premiers systèmes annoncés seront des systèmes évolutifs conçus pour des environnements hautement virtualisés avec des applications gourmandes en ressources telles que SAP HANA. Les benchmarks publiés indiquent que 1 million de SAPS sont atteints avec 120 cœurs, soit la moitié du nombre de cœurs nécessaires dans la génération précédente de Power9 dans les serveurs E980. Par rapport aux serveurs tiers actuellement disponibles cette année, HPE a atteint environ 670 000 SAPS (équivalent à environ 120 000 utilisateurs simultanés) en utilisant 224 cœurs dans son Superdome Flex 280 basé sur les processeurs les plus puissants d’Intel (le Xeon Platinum). Pour ceux qui n’y connaissent pas grand-chose, l’autre chose à lire est que la performance par cœur a continué à s’améliorer considérablement alors que le reste des fabricants la font stagner en ajoutant d’autres matériels complémentaires (mémoires flash, plus de cœurs, etc.).

Toute la mémoire dont vous avez besoin

L’avènement de la technologie “Memory Inception” permet de créer des grappes de systèmes qui partagent la mémoire entre eux, avec jusqu’à plusieurs pétaoctets de RAM disponibles pour un seul environnement divisé en plusieurs serveurs physiques. IBM se positionne ainsi comme un leader dans le développement de technologies matérielles pour les clusters d’applications sur Red Hat OpenShift. Des serveurs “de taille moyenne” à deux et quatre sockets seront annoncés sous peu, où nous pourrons continuer à bien déployer des environnements mixtes IBMi, AIX et Linux.

Cryptage de bout en bout

Nous ne pouvons pas terminer cet article sans mentionner l’une des principales caractéristiques de la plate-forme Power d’IBM, à savoir la sécurité des données. Les nouveaux processeurs intègrent quatre fois plus de composants de cryptage AES pour anticiper les besoins des normes cryptographiques à venir à partir de 2022, telles que la cryptographie à sécurité quantique ou le cryptage entièrement homomorphique. Tout cela s’applique aux nouvelles charges de travail basées sur les conteneurs, où la sécurité est devenue la principale préoccupation des organisations qui les utilisent.

AIX 7.3, UNIX au-delà de 2030

Même si cela fera l’objet d’un autre article, avec l’arrivée de Power10, la nouvelle version d’AIX sera annoncée, qui sera la 7.3, ce qui n’était pas arrivé depuis 2015. La numérotation est une question de marketing. Si IBM avait choisi d’appeler cette version 8.1, cela aurait pu soulever des questions quant à l’impact des nouvelles fonctionnalités sur la stabilité des applications existantes, mais comme toute nouvelle version, elle intègre de nombreuses nouvelles fonctionnalités intéressantes. Aujourd’hui, nous continuons à déployer de nouveaux environnements sur AIX, ainsi qu’à en migrer d’autres depuis Solaris, HP-UX et même Linux.

Chez tous nos clients, grands et moyens, il existe une partie de leur environnement de production où sont traitées les informations qui font vivre leurs activités et leurs processus internes. Où installez-vous Oracle, DB2, SAP, SAS, etc ? Dans AIX. Aucun autre système d’exploitation de type UNIX n’offre la même maturité, stabilité, performance et évolutivité. C’est un UNIX moderne, avec une grande compatibilité avec les applications modernes telles que Chef, Puppet, Ansible et qui coexiste merveilleusement avec le reste des environnements basés sur Linux, IBM i ou Z/OS, qui a encore beaucoup de vie devant lui et la nouvelle version 7.3 en est une bonne preuve. Il présente également trois grands avantages pour les services et les administrateurs système : tout fonctionne (contrairement à la sensation de bêta-testeur si ancrée dans Linux), il fonctionne sur les serveurs les plus stables et les plus robustes qui existent (à l’exception de l’ordinateur central) et vous n’apprenez qu’une fois, au lieu d’apprendre à chaque fois qu’une nouvelle version est publiée : nous nous souvenons tous du moment où “ifconfig -a” a cessé de fonctionner dans Red Hat :)

Il est temps de renouveler les équipements, les licences… et de procéder à des mises à niveau.

Avec l’arrivée d’une nouvelle technologie de processeur, les “soldes” commencent chez IBM. Si vous avez des équipements Power7 ou Power8 dont les contrats de maintenance arrivent à échéance (ou sont déjà hors service) et que vous vous demandez si vous devez les renouveler ou non, nous pouvons vous aider. Nous vous conseillons sur la manière d’économiser beaucoup d’argent grâce à nos services d’audit et de renouvellement de licences, d’utiliser à 100% votre équipement IBM Power et de vous proposer denouveaux serveurs Power9 et bientôt Power10 à prix coûtant.

Avez-vous besoin d’un soutien technique ?

Chez Sixe Ingeniería, nous offrons un support technique et une maintenance préventive d’AIX et Linux sur Power Systems directement et sans intermédiaire. Nous serons heureux de vous aider.

Saisissez la véritable puissance de CI/CD avec Tekton et Kubernetes Pipelines

L’introduction des pipelines Kubernetes (Tekton) a révolutionné la façon dont nous gérons les flux de travail CI/CD dans le développement logiciel. L’ajout de Tekton, le framework natif de Kubernetes, nous a donné plus de puissance et de flexibilité dans la création et la gestion des pipelines. Cet article se concentre sur l’importance de Kubernetes Pipelines et de Tekton sur Red Hat OpenShift, et sur la manière dont ces outils peuvent vous aider à rendre votre processus de développement véritablement continu.

Qu’est-ce qu’un pipeline ?

Un pipeline est un processus automatisé qui conduit le logiciel à travers les étapes de construction, de test et de déploiement du cycle de vie du développement logiciel. En d’autres termes, un pipeline exécute le flux de travail d’intégration continue et de livraison continue (CI/CD). Il gère automatiquement les tâches d’exécution de la suite de tests, d’analyse du code, de création de binaires, de conteneurisation et de déploiement des modifications dans le nuage ou dans les solutions sur site.

Pourquoi construire des pipelines avec Kubernetes ?

Alors que le monde du développement s’oriente vers des applications basées sur des microservices plutôt que sur des applications monolithiques, le processus CI/CD est devenu véritablement continu avec des mises à jour incrémentielles de la base de code qui peuvent être déployées indépendamment.

Dans un tel contexte, Kubernetes simplifie le processus de création et de maintenance des pipelines CI/CD. Il déploie chaque microservice sur un seul cluster Kubernetes et maintient plusieurs copies de chaque microservice pour servir de versions dev, test et prod.

Avec les pipelines Kubernetes, vous n’avez plus besoin de reconstruire l’ensemble de l’application à chaque construction. Au lieu de cela, Kubernetes met à jour le conteneur du microservice et le déploie via le pipeline défini. Il n’est plus nécessaire d’écrire des scripts de construction, car Kubernetes gère automatiquement le processus avec seulement quelques options de configuration que nous fournissons. Cela réduit le risque d’erreurs humaines dans le flux de travail CI/CD.

Qu’est-ce que Tekton ?

Tekton vous permet de faire passer les pipelines Kubernetes au niveau supérieur. Il s’agit d’un cadre open-source, natif de Kubernetes, pour le développement de pipelines CI/CD. Tekton fournit des extensions aux définitions de ressources personnalisées (CRD) dans Kubernetes pour faciliter la création et la normalisation des pipelines. Il dispose d’un support intégré pour le couplage avec les outils CI/CD existants dans le secteur, tels que Jenkins, Jenkins X, Skaffold, Knative et OpenShift.

L’intégration OpenShift de Tekton, baptisée OpenShift Pipelines, apporte encore plus de puissance et de souplesse à ce système grâce aux outils de développement RedHat et OpenShift.

Pourquoi utiliser Tekton ?

Les pipelines Tekton utilisent les clusters Kubernetes comme type de première classe et les conteneurs comme principaux éléments constitutifs. La nature découplée de Tekton garantit que vous pouvez utiliser un seul pipeline pour déployer sur des clusters Kubernetes distincts. Il est ainsi plus facile de déployer des services sur plusieurs solutions en nuage fournies par différents fournisseurs, voire sur des systèmes sur site.

Tekton vous permet d’exécuter les tâches automatisées de manière isolée, sans être affecté par d’autres processus en cours dans le même système. Une autre spécialité de Tekton est la flexibilité qu’elle offre pour changer de ressources, telles que les dépôts GitHub, entre deux exécutions du pipeline.

Il facilite également la mise en œuvre du pipeline en fonction du type de ressource. Par exemple, vous pouvez mettre en place une implémentation unique pour gérer les images.

Tekton couplé à OpenShift assure la haute disponibilité du système en permettant à chaque unité d’évoluer indépendamment à la demande. De plus, vous bénéficiez d’outils de journalisation et de surveillance améliorés et de fonctions d’autorétablissement rapides intégrées à Kubernetes.

Comment fonctionne Tekton ?

Tekton fournit des CRD de style Kubernetes pour déclarer les pipelines CI/CD. Les ressources sont déclarées dans un yaml qui est, généralement, stocké avec le dépôt de code. Nous allons examiner les CRD de base qui sont essentiels lors de la création de pipelines.

Tâche

Une tâche est la plus petite unité configurable dans un pipeline Tekton. C’est similaire à une fonction qui accepte un ensemble d’entrées et produit certains résultats. Chaque tâche peut être exécutée soit individuellement et indépendamment, soit en tant que partie du pipeline. Une commande exécutée par une tâche est appelée une étape. Chaque tâche consiste en une ou plusieurs étapes. Tekton exécute chaque tâche dans son propre pod Kubernetes.

Pipeline

Un pipeline est constitué d’un certain nombre de tâches qui forment le flux de travail automatisé final de CI/CD. En plus des Tâches, il contient également des PipelineResources. Ils sont fournis comme entrées et sorties aux tâches du pipeline.

PipelineResource

Une PipelineResource est un objet qui est utilisé comme entrée ou sortie d’une tâche. Par exemple, si la tâche accepte un dépôt GitHub en entrée et construit et produit l’image Docker correspondante, les deux sont déclarés comme objets PipelineResource.

PipelineRun

Un PipelineRun est une instance d’une Pipeline qui est en cours d’exécution. Il initie l’exécution de la Pipeline et gère les PipelineResources transmises aux Tasks comme entrées et sorties.

TaskRun

Un TaskRun est une instance en cours d’exécution d’une tâche. PipelineRun crée des objets TaskRun pour chaque tâche du pipeline afin de lancer l’exécution.

Déclencheur

Un Trigger est un événement externe qui déclenche le workflow CI/CD. Par exemple, une demande de retrait Git peut servir de déclencheur. Les informations transmises avec la charge utile de l’événement sont ensuite utilisées pour déclencher les tâches du pipeline.

Condition

Les conditions sont similaires aux instructions if de la programmation régulière. Ils effectuent un contrôle de validation par rapport aux conditions fournies et renvoient une valeur True ou False. Le pipeline vérifie ces conditions avant d’exécuter une tâche. Si la condition renvoie Vrai, la tâche est exécutée, et si elle renvoie Faux, la tâche est ignorée.

Grâce à ces composants, vous pouvez créer des pipelines complexes et entièrement automatisés pour construire, tester et déployer vos applications dans le cloud ou dans des solutions sur site.

Qui devrait utiliser Tekton ?

Les ingénieurs de plate-forme qui élaborent des flux de travail CI/CD pour les développeurs d’une organisation trouveront dans Tekton un cadre idéal pour simplifier ce processus. Les développeurs aussi peuvent créer des flux de travail CI/CD avec Tekton pour les projets de développement de logiciels et d’applications. Cela leur donne la possibilité de gérer facilement les différentes étapes du processus de développement, telles que les versions dev, test, prod du produit, avec un minimum d’intervention humaine.

Quelle est la prochaine étape ?

Reportez-vous à la documentation officielle de Tekton et OpenShift Pipelines pour en savoir plus sur la manière de configurer des pipelines CI/CD qui répondent facilement aux besoins de votre organisation.

Besoin d’aide?

Nous proposons Kubernetes et OpenShift formations et nous pouvons vous aider à acheter, déployer et gérer votre
Environnement OpenShift sur IBM Power Systems
.

Tout ce que vous devez savoir sur Rancher – gestion de Kubernetes pour l’entreprise

L’une des innovations les plus précieuses de l’informatique en nuage est l’utilisation de conteneurs pour exécuter des applications et des services basés sur le nuage. Des plateformes comme Kubernetes ont facilité la gestion des charges de travail et des services conteneurisés sur les plateformes en nuage. Pour ceux qui l’ignorent, Kubernetes est une plateforme open-source permettant de déployer, de gérer et d’automatiser des charges de travail et des services conteneurisés.

En tant que logiciel libre, Kubernetes dispose de plusieurs distributions parmi lesquelles vous pouvez choisir si vous avez l’intention de déployer des charges de travail sur le cloud. Une des distributions que vous choisissez est Rancher. Si vous souhaitez en savoir plus sur Rancher et la comparer aux autres distributions Kubernetes, cet article est fait pour vous. Nous allons voir ce qu’est Rancher, ses principales caractéristiques, pourquoi vous devriez l’utiliser et comment il se compare à d’autres solutions. Plongeons-y !

rancher ce qu'il est

Qu’est-ce que Rancher ?

Rancher est une pile logicielle utilisée pour gérer les clusters Kubernetes. Il s’agit essentiellement d’un logiciel que DevOps peut utiliser tout en adoptant l’utilisateur de conteneurs. Rancher comprend une distribution complète de Kubernetes, Docker Swarm et Apache Mesos, ce qui simplifie la gestion des clusters de conteneurs sur n’importe quelle plateforme en nuage. Parmi les entreprises populaires qui utilisent Rancher, citons : Alibaba Travelers, Abeja, Trivago, UseInsider, Starbucks, Oxylabs, yousign, et bien d’autres.

Rancher a récemment été racheté par SUSE, et cette acquisition va considérablement changer leur direction. SUSE avait déjà sa solution de gestion de conteneurs, mais après avoir acquis Rancher, ils vont très probablement s’éloigner de leur solution initiale et se concentrer sur l’amélioration de Rancher.

L’un des avantages importants de Rancher est la possibilité de gérer plusieurs clusters Kubernetes de manière simplifiée. Il offre une gestion simplifiée de plusieurs clusters Kubernetes qui peuvent être créés manuellement à l’aide de la distribution Kubernetes de Rancher appelée RKE (Rancher Kubernetes Engine) ou importés dans le panneau de gestion du gestionnaire de clusters.

Outre Rancher Kubernetes Engine (RKE), Rancher a lancé plusieurs autres projets innovants, et l’un d’entre eux est le K3S – un panneau de contrôle Kubernetes plus simple qui est principalement utilisé dans l’informatique périphérique. Maintenant que SUSE a repris Rancher, nous espérons qu’ils l’amélioreront encore davantage pour en faire une plateforme Kubernetes complète.

Caractéristiques de Rancher

Voici quelques-unes des principales fonctionnalités de Rancher

  • Application catalogue Docker
  • Distribution Kubernetes incluse
  • Distribution Docker Swarm incluse
  • Distribution Mesos incluse
  • Gestion des infrastructures
  • Voici quelques-unes des principales caractéristiques de Rancher ;
  • Gérer les hôtes, déployer les conteneurs, surveiller les ressources
  • Gestion des utilisateurs et collaboration
  • API et outils natifs de Docker
  • Surveillance et journalisation
  • Connecter des conteneurs, gérer des disques, déployer des équilibreurs de charge

Pourquoi utiliser Rancher ?

Avec plusieurs autres distributions de Kubernetes sur le marché, pourquoi choisir Rancher ? Examinons quelques-uns des principaux avantages/bénéfices que présente Rancher.

  • Elle est facile à utiliser : L’une des raisons pour lesquelles on choisirait Rancher plutôt qu’une autre plateforme Kubernetes est l’interface Web simplifiée qui permet de faire tout ce dont on a besoin. Il s’agit d’une plateforme que même les développeurs qui n’ont pas une grande expérience de Kubernetes peuvent facilement utiliser.
  • Elle peut facilement être déployée sur n’importe quelle infrastructure de cloud : Un autre avantage essentiel de Rancher par rapport aux autres plateformes Kubernetes est sa compatibilité avec différentes plateformes de cloud ; vous pouvez donc le déployer rapidement sur n’importe quelle infrastructure de cloud.
  • Simplifie la gestion des clusters : Rancher est probablement le meilleur choix pour gérer plusieurs clusters Kubernetes à partir d’une seule interface. Sa capacité à gérer de multiples clusters est l’une des forces importantes qui ont été construites au cœur de Rancher.
  • Surveillance et distribution de la charge de travail automatiques: C’est l’une des principales fonctionnalités incluses dans Rancher, ce qui est très pratique si vous avez l’intention de déployer un système susceptible de recevoir un énorme trafic.
  • C’est une source ouverte et totalement gratuite : RKE, K3s, et tous les autres produits Rancher sont open source et gratuits pour tous. Si vous n’avez pas de budget à consacrer à un logiciel de gestion de conteneurs, alors Rancher est le meilleur choix pour vous. Cependant, pour obtenir le soutien des laboratoires Rancher, vous devrez payer un certain montant.

Quand ne pas utiliser Rancher.

Malgré ses nombreux avantages, il existe certains scénarios dans lesquels il est conseillé de ne pas utiliser Rancher. Voici quelques-unes des situations dans lesquelles vous devriez éviter d’utiliser Rancher.

  • Si vous êtes intéressé par des produits plus matures: Par rapport à d’autres plateformes Kubernetes comme OpenShift, Rancher est assez récent et évolue encore. Si vous êtes le genre de personne qui aime utiliser des produits déjà matures qui ne connaîtront pas de changements radicaux, vous pourriez être déçu par Rancher.
  • Si vous n’avez pas l’intention d’utiliser plusieurs clusters: L’un des principaux atouts de Rancher par rapport aux autres distributions Kubernetes est sa capacité à gérer plusieurs clusters de conteneurs à partir d’une seule interface. Pour ceux qui gèrent des clusters uniques, il est probable que vous ne ferez pas bon usage de Rancher, et il est donc préférable de choisir une autre plateforme.

Comment Rancher se compare-t-il à d’autres solutions comme OpenShift ?

L’un des principaux atouts d’OpenShift par rapport à Rancher est qu’il s’agit d’une plateforme mature qui bénéficie du soutien total de Red Hat. Si vous faites déjà partie de l’écosystème Red Hat, votre choix évident pour la gestion des conteneurs devrait être OpenShift. Rancher dispose également du support de Rancher Labs, mais il n’est pas aussi fiable que celui de Red Hat. L’utilisation de Rancher est plus logique si vous avez l’intention de gérer plusieurs grappes de conteneurs.

Conclusion

Rancher est un excellent outil pour gérer et automatiser les clusters Kubernetes. Il dispose également de nombreuses fonctionnalités pratiques dont vous pouvez tirer parti, notamment si vous gérez plusieurs clusters Kubernetes.

La possibilité de gérer tous vos clusters à partir d’un seul endroit est l’une des raisons pour lesquelles vous devriez choisir Rancher plutôt que toute autre plateforme si vous avez l’intention de gérer plusieurs clusters. Rancher est également très facile à apprendre et à utiliser. Kubernetes utilisateurs peuvent rapidement se familiariser avec Rancher.

Vous avez besoin de formation, de conseil ou d’architecture ?

Nous sommes des partenaires commerciaux de SUSE et Red Hat. Nous pouvons vous aider à déployer des PoCs Rancher et OpenShift afin que vous puissiez évaluer et essayer les deux solutions. Nous avons également développé des Docker / kuberneteset Pratique d’OpenShift 4 formations qui pourraient vous intéresser.

red hat openshift plus edition

Red Hat OpenShift Platform Plus : Quoi de neuf ?

Openshift Platform Plus est le dernier membre de la famille OpenShift. La solution PaaS de Red Hat pour les applications basées sur Kubernetes. Il a été annoncé conjointement avec la version 8.4 de Red Hat Linux. Grâce à Red Hat Openshift Plus, les organisations peuvent, moyennant un léger surcoût (dont nous parlerons plus tard), gérer non seulement les applications mais aussi leurs politiques et configurations de sécurité, quel que soit l’endroit où se trouvent leurs applications, car il comprend une nouvelle prise en charge intégrée du cycle de vie des applications dans les environnements multi-clusters, ainsi que la possibilité de créer des clusters de seulement 3 nœuds ou même avec des nœuds ” travailleurs ” distants permettant d’étendre les clusters Kubernetes à presque n’importe quel endroit, ce qui inclut les installations à faible puissance disponible.

red hat openshift plus edition

Qu’est-ce qui est inclus dans OpenShift Platform Plus ?

  • Moteur Kubernetes (couche de base d’OpenShift sur Linux OS)
  • Orchestration/ contrôle de gestion(Red Hat Advanced Cluster Manager for Kubernetes-ACM)
  • Protocoles de sécurité(Red Hat Advanced Cluster Security for Kubernetes-ACS)
  • Logiciel de registre(Red Hat Quay)

OpenShift Platform Plus fournit toutes les fonctionnalités de base, de gestion et de sécurité en un seul paquet, qui étaient disponibles séparément à leurs prix. Advanced Cluster Security (ACS) a été ajouté à OpenShift après l’acquisition de StackRox, un fournisseur de sécurité natif de Kubernetes.

Prêt pour le multi-cloud et le CI/CD

OpenShift offre une solution de configuration complète permettant de créer un environnement ou d’exécuter une application basée sur des conteneurs sur une infrastructure hybride de serveurs en nuage ou sur site. Openshift propose deux types d’infrastructures d’applications conteneurisées, à savoir les plateformes gérées et les plateformes autogérées. Les plateformes gérées sont des services en nuage complets comme Azure, IBM, AWS et Google Cloud. Dans le même temps, les plateformes autogérées sont hautement personnalisables mais nécessitent une équipe hautement qualifiée pour chaque partie du déploiement.

OpenShift a évolué avec le temps et a inclus des caractéristiques essentielles pour une fonctionnalité améliorée. Au départ, OpenShift Kubernetes Engines a été introduit et comprend le runtime Enterprise Kubernetes, le système d’exploitation de conteneurs immuables Red Hat Enterprise Linux CoreOS, la console de l’administrateur et Red Hat OpenShift Virtualization. Vient ensuite OpenShift Container Platform, complétée par la console du développeur, la gestion des journaux et des coûts, OpenShift Serverless (Knative), OpenShift Server Mesh (Istio), OpenShift Pipelines et OpenShift GitOps(Tekton, ArgoCD). Comprenant toutes les fonctionnalités précédemment disponibles, OpenShift Platform Plus s’accompagne de fonctionnalités supplémentaires.

Caractéristiques de la plate-forme OpenShift Plus

Gestion avancée des clusters Red Hat pour Kubernetes

Il s’agit d’une option de contrôle de gestion avancée d’OpenShift. Il fournit aux clients un accès complet à la gestion unifiée de plusieurs clusters (modification des clusters sur les nuages publics ou privés, allocation de ressources pour les clusters et résolution des problèmes sur l’ensemble du domaine à partir d’une seule présentation) via la console Web Openshift. En outre, il assure une gestion basée sur des politiques qui comprend la normalisation des paramètres de politique pour la sécurité, l’application et le cadre d’infrastructure.

Les applications peuvent être déployées sur le réseau grâce à une gestion avancée du cycle de vie des applications. Il permet également de contrôler le flux d’applications sur les nœuds, la gestion de la configuration Day-2 à l’aide d’Ansible. La gestion avancée des clusters (ACM) vise à fournir des solutions de santé des clusters liées au stockage, à l’optimisation et au dépannage. Les outils de surveillance d’OpenShift sont bien conçus pour fonctionner avec facilité et efficacité.

Red Hat Advanced Cluster Security pour Kubernetes (ACS)

L’ACS a été ajouté à la famille OpenShift après l’acquisition de StackRox, faisant de l’ACS le composant central d’OpenShift Platform Plus. Ce dispositif de sécurité est différent des mesures de sécurité déployées précédemment. Auparavant, les protocoles de sécurité étaient appliqués après le développement de l’application. ACS permet d’inclure la sécurité dès le début, c’est-à-dire dans la base de code. Les fonctions de sécurité avancées renforcent chaque étape du cycle de vie du développement des applications.

La sécurité avancée des clusters suit les normes internationales de sécurité des conteneurs, comme les références CIS et NIST. Les protocoles de sécurité comprennent la sécurité contre les violations de données, la protection des réseaux, l’élimination des angles morts, la réduction du temps et des coûts par la mise en œuvre efficace des codes de politique de sécurité, l’évitement des conflits opérationnels, le chevauchement des données et la redondance. ACS est une exécution parfaite des protocoles DevSecOps.

Red Hat Quay

Un registre de conteneurs est une plateforme de stockage utilisée pour stocker des conteneurs pour Kubernetes et d’autres développements d’applications basées sur des conteneurs comme DevOps. Lorsqu’une application conteneur est formée, son image est créée. Il s’agit d’une sorte de fichier .exe qui contient tous les fichiers et composants nécessaires à une installation réussie. Lorsqu’une image de conteneur est placée sur d’autres plateformes, elle est utilisée pour créer la même application de conteneur. Une image de conteneur est un modèle utilisé pour créer d’autres applications.

Red Hat Quay est un registre de conteneurs privé utilisé pour créer, distribuer et stocker des images de conteneurs. Lorsque l’image du conteneur est partagée sur le dépôt du réseau, des vulnérabilités spécifiques apparaissent. RedHat Quay utilise la sécurité Clair pour faire face à ces vulnérabilités en fournissant des contrôles d’accès stricts, des protocoles d’authentification et d’autres problèmes de distribution.

Caractéristiques de RedHat Quay

  • Chaque image est marquée avec l’horodatage ; RedHat Quay offre Time Machine pour marquer la version de l’image et la capacité de retour en arrière comme la mise à niveau ou la restauration des paramètres d’usine. Il fournit un historique configurable de deux semaines pour les balises d’image.
  • La distribution géographique garantit des images rapides et impeccables grâce aux réseaux de distribution de contenu (CDN), de sorte que chaque point d’accès dispose d’un référentiel proche. RedHat Quay utilise également la technologie BitTorrent pour réduire le temps d’attente pour la disponibilité du contenu.
  • La collecte des déchets de ressources au moment de l’exécution permet d’identifier les opérations inutiles ou moins utilisées afin d’optimiser l’utilisation des ressources et d’accroître l’efficacité.
  • RedHat Quay offre un stockage illimité pour de multiples collections d’images.
  • Déclenchement automatisé pour le pipeline d’intégration et livraison continue (CI/CD)
  • Audit basé sur les journaux en analysant les API et les interfaces utilisateur
  • Les protocoles d’authentification utilisant LDAP, OAuth, OIDC et keystone garantissent une connexion sécurisée et un contrôle d’accès hiérarchique organisationnel.
  • L’automatisation des comptes permet de créer les informations d’identification nécessaires à l’exécution du programme.
  • Adaptabilité multiplateforme

Prix de RedHat OpenShift Platform Plus

Les fonctionnalités avancées d’OpenShift Platform Plus sont réputées être disponibles entre avril 2021 et juin 2021. Le prix actuel n’est pas encore disponible. OpenShift.io est une plateforme gratuite de déploiement en nuage. Le coût de Platform Plus dépend de la taille et de l’abonnement. Selon Capterra, chaque fonctionnalité Plus coûte 20 dollars par mois pour les plans autogérés. Une meilleure façon de lire et de choisir un modèle d’abonnement, et de contacter notre service commercial. Vous pouvez également demander une démo d’OpenShift Plus gratuitement.

Formation et services professionnels sur RedHat OpenShift Platform

Nous proposons des formations Kuberneteset OpenShift et nous pouvons vous aider à acheter, déployer et gérer votre Environnement OpenShift sur IBM Power Systems. Contactez nous pour plus d’informations

Nouveaux cours IBM QRadar mis à jour à la version 7.4.2

De tous les cours IBM, les cours QRadar SIEM sont peut-être les plus demandés et les plus appréciés par les clients et les partenaires d’IBM. Par conséquent, à partir de juin 2021, les nouveaux cours officiels seront disponibles : QRadar SIEM Fundamentals (BQ104G) et QRadar SIEM advanced functionalities (BQ204G) . Nous avons également mis à jour notre atelier d’avant-vente, d’architecture, de déploiement et de configuration initiale à la version 7.4. Depuis 2014, nous avons formé plus de 35 clients et 400 étudiants de 20 pays différents à cette technologie étonnante. Nous avons transmis toute notre expérience pratique dans des projets réels et avons aidé à passer avec succès les certifications officielles.

Qu’est-ce que QRadar ?

La solution leader du marché pour la prévention, la détection et la correction des incidents de sécurité. Des centaines de SOC (Security Operations Centers) dans le monde entier s’appuient sur la technologie développée par Q1 Labs et acquise par IBM en 2011 pour compléter leurs capacités de cybersécurité. QRadar nous permet de relier des événements allant de la sécurité physique (contrôles d’accès), des lecteurs de cartes d’identité, des dispositifs OT à l’infrastructure de services déployée dans le cloud ou même aux journaux d’activité quotidienne des utilisateurs. Ses capacités nous permettent d’analyser des milliers d’événements par seconde afin de garantir que notre organisation est non seulement sécurisée, mais aussi conforme aux réglementations et à la législation en vigueur dans le secteur. QRadar a également conclu des partenariats stratégiques avec Juniper Networks, Enterasys, Nortel, McAfee, Foundry Networks et 3Com, entre autres entreprises. Le produit est si puissant que nombre de ces entreprises vendent leurs propres SIEM basés sur la technologie QRadar.

Quoi de neuf ?

Au cours de la dernière année et demie, beaucoup de choses ont changé. De l’interface utilisateur, qui a été entièrement remaniée, aux nouvelles applications qui vous permettent d’analyser les incidents de manière entièrement automatisée. Par exemple, l’application QRadar Advisor avec Watson (IBM AI) fait automatiquement correspondre les tactiques et techniques disponibles dans la base de données MITRE ATT&CK aux règles internes de QRadar. Grâce à un tableau de bord de surveillance innovant, vous pouvez voir les techniques utilisées par les attaquants et leur relation avec les incidents de sécurité ouverts.

Les nouvelles versions vous permettent d’utiliser les conseils et les astuces fournis par IBM QRadar Use Case Manager (anciennement QRadar Tuning app) pour vous aider à optimiser la configuration et le réglage des règles QRadar, en les maintenant toujours à jour et prêtes pour le moment où elles sont nécessaires.

 

Qu’en est-il des certifications ?

Nous aidons depuis longtemps à préparer les examens officiels d’IBM dans les technologies que nous enseignons. C’est pourquoi nous avons décidé qu’à partir de juin 2021, nous inclurons sans coût supplémentaire une journée de préparation aux certifications dans tous les cours privés qui nous sont confiés avec au moins 4 étudiants inscrits.

Je veux m’inscrire à un cours

Contactez-nous et vous recevrez une offre en moins de 24 heures. Tous les cours sont dispensés à la fois en face-à-face et par apprentissage à distance. Nos instructeurs parlent anglais, français et espagnol.

Vous avez besoin d’aide ?

Chez Sixe Ingeniería, nous sommes BP Sécurité IBM. Nous vendons, installons et supportons IBM QRadar SIEM. Nous menons également des formations sur mesure, des séminaires et des conférences techniques. Nous vous conseillons également sur les licences et la définition de l’architecture dont vous avez besoin, sans frais supplémentaires. Demandez une démonstration du produit sans engagement.

Red Hat OpenShift 4.7 est arrivé et l’installateur est inclus.

Assistant d’installation, kubernetes 1.20 et autres nouveautés d’OpenShift 4.7

Kubernetes 1.20 et CRI-o 1.20

Sa technologie est basée sur les versions 1.20 de Kubernetes et le moteur de conteneurs CRI-O 1.20, qui remplace complètement le peu qui restait de Docker. OpenShift 4.7 a poursuivi son chemin de nouvelles fonctionnalités dont nous parlerons plus tard, mais si nous pouvons dire quelque chose de pertinent sur cette version, c’est qu’elle est plus stable, beaucoup plus stable. De nombreuses modifications ont été apportées à l’ensemble de la pile logicielle afin d’améliorer la disponibilité, la résilience et la robustesse de la plateforme dans son ensemble. Des contrôles plus nombreux et plus efficaces ont été mis en place, un nouveau système de diagnostic pour l’installateur a été mis en place et les codes d’erreur ont été enrichis. Il comprend également des améliorations du panneau de contrôle pour faciliter la surveillance des pipelines, des opérateurs (connectés ou déconnectés) des systèmes de stockage et des réseaux de communication.

Un installateur pour les serveurs bare-metal ?

Oui, enfin. Cette version est livrée avec l’assistant d’installation (aperçu technologique). Une avancée pour simplifier le déploiement de l’ensemble des paquets, dépendances, services et configurations nécessaires pour installer OpenShift sur nos propres serveurs.

Mais n’a-t-il pas toujours été installé dans le nuage avec un installateur automatique ?

Oui et non. L’installateur du nuage est génial, tout fonctionne comme par magie MAIS il y a de plus en plus de charges de travail comme l’IA, le HPC, le DL, le Telco/5G, le ML, qu’il est impossible de déployer dans le nuage en raison des coûts (vous devez télécharger et envoyer de très nombreux Go) et des performances. Nous avons déjà vu comment configurer OpenShift pour les environnements AI/DL sur les serveurs IBM Power Systems. L’une des principales objections à de tels déploiements était la complexité de l’installation manuelle de l’environnement. L’installateur le simplifiera beaucoup.

Conteneurs Windows

Cela peut paraître étrange, mais les clients de Microsoft sont des millions dans le monde. Si un système comme celui-ci veut réussir, il doit les soutenir. C’est pourquoi Red Hat OpenShift 4.7 continue d’étendre la prise en charge de Windows Containers, une fonctionnalité annoncée dès la fin de 2020. Outre la prise en charge de Windows Containers sur AWS et Azure, OpenShift inclura désormais la prise en charge de vSphere (disponible au début du mois d’avril prochain 2021) à l’aide de l’Installer Provided Infrastructure (IPI) pour VMWare. Les clients de Red Hat peuvent désormais migrer leurs conteneurs Windows de leurs systèmes virtualisés VMWare vers leur cluster Red Hat OpenShift de manière simple et, surtout, entièrement prise en charge et sécurisée.

Support IPSec dans OVN

Dans les environnements de nuages hybrides, l’un des grands défis est de savoir comment connecter nos nœuds et clusters distants les uns aux autres ou à nos centres de données locaux. Avec la prise en charge du réseau virtuel d’OpenShift pour le protocole IPSec, cela est grandement facilité.

Mise à l’échelle automatique des pods

La dernière fonctionnalité que nous voulions mettre en avant est l’uto-scaling horizontal des pods (HPA). Il permet, en mesurant l’utilisation de la mémoire et par le biais d’un contrôleur de réplication, d’augmenter le nombre de pods ou de modifier leurs caractéristiques automatiquement.

Si vous voulez essayer Red Hat OpenShift 4.7, il y a plusieurs façons de le faire, des tutoriels d’apprentissage en ligne aux démos sur votre ordinateur portable, en passant par la façon de le faire dans le cloud public ou dans votre propre centre de données.

Vous pouvez consulter le reste des nouvelles sur https://www.openshift.com/blog/red-hat-openshift-4.7-is-now-available, configurer votre environnement de démonstration chez vous et commencer à vous former dès maintenant avec nos cours pratiques.

Machine & Deep Learning sur place avec Red Hat OpenShift 4.7

En fournissant une grande quantité de données en tant qu’ensemble de formation, les ordinateurs ont été rendus capables de prendre des décisions et d’apprendre de façon autonome. L’IA est généralement entreprise en conjonction avec l’apprentissage automatique, l’apprentissage profond et l’analyse du Big Data. Tout au long de l’histoire de l’IA, la principale limitation a été la puissance de calcul, cpu-mémoire-gpu bandwith et des systèmes de stockage haute performance. L’apprentissage automatique nécessite une puissance de calcul immense avec l’exécution intelligente des commandes en gardant les processeurs et les gpus à une utilisation extrêmement élevée, soutenue pendant des heures, des jours ou des semaines. Dans cet article, nous discuterons des différentes alternatives pour ce type de charges de travail. Des environnements cloud comme Azure, AWS, IBM ou Google aux déploiements sur place avec des conteneurs sécurisés fonctionnant sur Red Hat OpenShift et utilisant IBM Power Systems.

Avant d’exécuter un modèle d’IA, il y a quelques choses à garder à l’esprit. Le choix des outils matériels et logiciels est tout aussi essentiel pour les algorithmes de résolution d’un problème particulier. Avant d’évaluer les meilleures options, nous devons d’abord comprendre les conditions préalables à l’établissement d’un environnement de fonctionnement de l’IA.

Quelles sont les conditions préalables matérielles pour exécuter une application d’IA ?

  • Puissance de calcul élevée (GPU peut enflammer l’apprentissage profond jusqu’à 100 fois plus que les processeurs standard)
  • Capacité de stockage et performances du disque
  • Infrastructure de réseautage (à partir de 10 Go)

Quelles sont les conditions préalables logicielles pour exécuter une application d’IA ?

  • Système d’exploitation
  • L’environnement informatique et ses variables
  • Bibliothèques et autres binaires
  • Fichiers de configuration

Comme nous connaissons maintenant les conditions préalables pour établir une configuration iA, nous allons plonger dans tous les composants et les meilleures combinaisons possibles. Il y a deux choix pour la mise en place d’un déploiement d’IA : le cloud et sur place. Nous vous avons déjà dit qu’aucun d’entre eux n’est meilleur car cela dépend de chaque situation.

Infrastructure cloud

Certains serveurs cloud traditionnels célèbres sont

  1. Services Web Amazon (AWS)
  2. Microsoft Azure
  3. Plate-forme Google Cloud (GCP)
  4. IBM Cloud

En plus de ceux-ci, il existe des nuages spécialisés pour l’apprentissage automatique. Ces nuages spécifiques à la ML fournissent un soutien aux GPU plutôt qu’aux Processeurs pour un meilleur calcul et des environnements logiciels spécialisés. Ces environnements sont idéaux pour les petites charges de travail lorsqu’il n’y a pas de données confidentielles ou sensibles. Lorsque nous devons télécharger et télécharger de nombreuses to de données ou exécuter des modèles intensifs pendant des semaines à la fois, être en mesure de réduire ces temps à des jours ou des heures et de les faire sur nos propres serveurs nous permet d’économiser beaucoup de coûts. Nous en reparlerons ensuite.

Serveurs sur place et déploiements platform-as-a-service (PAaS)

Il s’agit de serveurs spécialisés présents dans les locaux de travail d’une société d’IA. De nombreuses entreprises fournissent des serveurs iA hautement personnalisés ainsi que construits à partir de zéro sur prem. Par exemple, les AC922 et IC922 d’IBM sont parfaits pour la configuration iA sur place.

Les entreprises choisissent comme elles doivent tenir compte de la croissance future et du compromis entre les besoins actuels et les dépenses des deux ci-dessus. Si votre entreprise n’est qu’une start-up, les serveurs d’IA cloud sont les meilleurs car ce choix peut éliminer le souci des installations à des tarifs en quelque sorte abordables. Mais si votre entreprise augmente en nombre et que de plus en plus de scientifiques de données se joignent à l’informatique en nuage, l’informatique en nuage n’allégera pas vos fardeaux. Dans ce cas, les experts en technologie mettent l’accent sur l’infrastructure iA prém pour une meilleure sécurité, personnalisation et expansion.

LIRE AUSSI: Déployez votre cloud hybride pour ML et DL

Choisir la meilleure architecture HW

Presque toutes les plates-formes de service cloud offrent maintenant le calcul pris en charge par GPU que GPU a près de 100 fois plus puissant que le processeur moyen, surtout si l’apprentissage automatique est sur la vision par ordinateur. Mais le vrai problème est le débit de données entre le nœud et le serveur cloud, quel que soit le nombre d’UDI connectés. C’est pourquoi la configuration iA on-prem a plus de votes, car le flux de données n’est plus un gros problème.

Le deuxième point à considérer est la bande passante entre les GPU et les Processeurs. Sur les architectures traditionnelles telles qu’Intel, ce trafic est transféré sur les canaux PCI. IBM a développé un connecteur appelé NVLink, de sorte que les GPU de cartes NVidia et les noyaux Power9 puissent communiquer directement sans couches intermédiaires. Cela multiplie la bande passante, qui est déjà plus de 2 fois plus élevée entre le processeur et la mémoire. Résultat : plus de goulots d’étranglement !

Comme nous l’avons souligné ci-dessus les conditions préalables logicielles pour l’exécution des applications iA, nous devons maintenant considérer le meilleur environnement logiciel pour des performances optimales d’IA.

Quelle architecture de centre de données est la meilleure pour AI/DL/ML?

Tout en parlant de serveurs concernant l’infrastructure douce iA, la conception traditionnelle a été la virtualisation; il s’agit d’une simple distribution des ressources de calcul sous des systèmes d’exploitation distincts. Nous appelons chaque environnement de système d’exploitation indépendant une « machine virtuelle ». Si nous avons besoin d’exécuter des applications iA sur des machines virtuelles, nous sommes confrontés à de multiples contraintes. La première est les ressources nécessaires à l’exécution de l’ensemble du système, y compris les opérations de système d’exploitation et les opérations d’IA. Chaque machine virtuelle nécessite des ressources de calcul et de stockage supplémentaires. En outre, il n’est pas facile de transférer un programme en cours d’exécution sur une machine virtuelle spécifique à une autre machine virtuelle sans réinitialiser les variables environnementales.

Qu’est-ce qu’un conteneur?

Pour résoudre ce problème de virtualisation, le concept «Conteneur» saute dedans. Un conteneur est un environnement logiciel indépendant sous un système d’exploitation standard avec un environnement de temps d’exécution complet, une application iA et des dépendances, des bibliothèques, des binaires et des fichiers de configuration réunis en une seule entité. La conteneurisation offre des avantages supplémentaires car les opérations d’IA sont exécutées directement dans le conteneur, et OS n’a pas à envoyer chaque commande à chaque fois (ce qui permet d’enregistrer des instances de flux de données massives). Deuxièmement, mais pas moins, il est relativement facile de transférer un conteneur d’une plate-forme à une autre plate-forme, car ce transfert ne nécessite pas de changer les variables environnementales. Cette approche permet aux data scientists de se concentrer davantage sur l’application que sur l’environnement.

Plate-forme de conteneurs RedHat OpenShift

Le meilleur logiciel de conteneurisation intégré à Linux est la plate-forme de conteneurs OpenShift de Red Hat (un PAaS on-prem) basé sur Kubernetes. Ses fondamentaux sont construits sur des conteneurs CRI-O, tandis que les Kubernetes contrôlent la gestion de la conteneurisation. La dernière version d’Open Shift est 4.7. La mise à jour majeure fournie dans OpenShift 4.7 est son indépendance relative de Docker et une meilleure sécurité.

Opérateur NVIDIA GPU pour conteneurs Openshift

NVIDIA et Red Hat OpenShift se sont réunis pour aider à l’exécution des applications d’IA. Tout en utilisant les GPU comme processeurs à haut calcul, le plus gros problème est de virtualiser ou de distribuer la puissance des GPU à travers les conteneurs. NVIDIA GPU Operator for Red Hat Openshift est un Kubernetes qui médie la planification et la distribution des ressources GPU. Étant donné que le GPU est une ressource spéciale dans le cluster, il nécessite l’installation de quelques composants avant que les charges de travail des applications puissent être déployées sur le GPU, ces composants comprennent :

  • Pilotes NVIDIA
  • temps d’exécution spécifique pour kubernetes
  • plugin de dispositif de récipient
  • règles d’étiquetage automatique des nœuds
  • compnents de surveillance

Les cas d’utilisation les plus couramment utilisés qui utilisent les GPU pour l’accélération sont le traitement d’image, audition par ordinateur, IA conversationnelle en utilisant des NLP, et la vision par ordinateur en utilisant des réseaux neuronaux artificiels.

Environnement informatique pour l’apprentissage automatique

Il existe plusieurs environnements informatiques iA pour tester/exécuter des applications iA. Le haut d’entre eux est Tensorflow, Microsoft Azure, Apache Spark et PyTorch. Parmi ceux-ci, Tensorflow (Créé par Google) est choisi par le plus. Tensorflow est une plate-forme open source de bout en bout de qualité de production qui a des bibliothèques pour l’apprentissage automatique. L’unité de données principale utilisée dans TensorFlow et Pytorch est Tensor. La meilleure chose à propos de TensorFlow est qu’il utilise des graphiques de flux de données pour les opérations. C’est comme un flowchart, et les programmes gardent une trace du succès et de l’échec de chaque flux de données. Cette approche permet d’économiser beaucoup de temps en ne retourdant pas à la ligne de base d’une opération et en testant d’autres sous-modèles en cas d’échec d’un flux de données.

Jusqu’à présent, nous avons discuté de tous les choix pour établir une infrastructure d’IA, y compris le matériel et les logiciels. Il n’est pas facile de sélectionner un produit spécifique qui héberge tous les composants du système d’IA souhaités. IBM offre à la fois des composants matériels et logiciels pour la recherche et le développement efficaces et rentables de l’IA comme IBM Power Systems et IBM PowerAI, respectivement.

Systèmes d’alimentation IBM

IBM Power Systems dispose de composants flexibles et basés sur les besoins pour l’exécution d’un système d’IA. IBM Power Systems offre des serveurs accélérés comme IBM AC922 et IBM IC922 pour la formation ML et ml inférence, respectivement.

IBM PowerAI

IBM PowerAI est une plate-forme intelligente d’exécution de l’environnement iA facilitant l’apprentissage en profondeur efficace, l’apprentissage automatique et les applications iA en utilisant ibm Power Systems et NVidia GPUs pleine puissance. Il fournit de nombreuses optimisations qui accélèrent les performances, améliorent l’utilisation des ressources, facilitent l’installation, la personnalisation et préviennent les problèmes de gestion. Il fournit également des cadres d’apprentissage profond prêts à l’emploi tels que Theano, Bazel, OpenBLAS, TensorFlow,Caffe-BVLC ou IBM Caffe.

Qui est le meilleur serveur pour les déploiements sur place. Comparons IBM AC922 et IBM IC922

Si vous avez besoin de serveurs capables de résister à des charges d’apprentissage automatique pendant des mois ou des années sans interruption, fonctionnant à un pourcentage de charge élevé, les systèmes Intel ne sont pas une option. Les systèmes NVIDIA DGX sont également disponibles, mais comme ils ne peuvent pas virtualiser les GPU, lorsque vous souhaitez exécuter plusieurs modèles d’apprentissage différents, vous devez acheter plus de cartes graphiques, ce qui les rend beaucoup plus chers. Le choix du bon serveur dépendra également du budget. Les IC922 (conçus pour l’inférence d’IA et les charges de travail linux performantes élevées) sont environ la moitié du prix des AC922 (conçus pour la formation aux ensembles de données iA), de sorte que pour les petits projets, ils peuvent être parfaitement adaptés.

 

Si ces technologies vous intéressent, demandez
une démonstration
sans obligation. Nous avons des programmes où nous pouvons vous assigner un serveur complet pendant un mois afin que vous puissiez tester directement les avantages de cette architecture matérielle.

L’importance de la cybersécurité dans le secteur de la santé

Les hôpitaux, les centres de santé et tous les éléments qui composent le secteur de la santé dépendent dans une large mesure du bon fonctionnement des systèmes informatisés. En fait, ceux-ci sont indispensables pour effectuer des tâches cliniques et administratives à tout moment pendant tous les jours de l’année. Par conséquent, et compte tenu de la sensibilité élevée des données cliniques des patients, la prévention de la cybersécurité est essentielle. Le vol ou l’utilisation abusive d’eux peuvent avoir des conséquences dévastatrices.

Les cyberattaques contre les hôpitaux et les centres de santé, une pratique inédite

Il est curieux, mais traditionnellement les complexes qui composent le secteur de la santé ont pris peu ou pas soin de leurs processus de cybersécurité. En fait, il a été considéré comme un secteur peu intéressant pour les cybercriminels, alors que l’on pourrait vraiment dire le contraire.

Il est vrai qu’avec l’avènement de la pandémie covid-19, les cyberattaques se sont multipliées et sont devenuesplus pertinentes au niveau des médias. Cependant, ils ne sont pas les premiers. Par exemple, les différentes organisations qui composent le secteur de la santé aux États-Unis ont chiffré les pertes de cette activité criminelle en 2019 à plus de 4 milliards de dollars.

Les risques de ne pas s’occuper de la cybersécurité dans le secteur de la santé

Mais quelles sont les principales raisons pour lesquelles les cybercriminels se concentrent sur l’attaque des hôpitaux et des centres de santé? Fondamentalement, nous pouvons citer ce qui suit:

  • Vol d’informations cliniques sur les patients.
  • Vol de l’identité des médecins spécialistes.
  • Accès aux données sensibles des patients.
  • Achat et vente d’informations cliniques sur le marché noir.

Cela soulage l’importance d’embaucher un professionnel expérimenté avec une carrière en cybersécurité. Mais il y en a d’autres. Par exemple, ces dernières années, le nombre de dispositifs médicaux connectés à Internet a augmenté de façon exponentielle. Et, avec eux, le risque de cyberattaque. En fait, on s’attend à ce que cette tendance se poursuive à la hausse pendant un certain temps.

Ces appareils utilisent la technologiede ce qu’on appelle l’Internet des objets (IoT) et, malgré leur utilité incontestable dans le secteur de la santé, la plupart des cyberattaques sont dirigées vers eux. Le manque de protection et de vulnérabilité qu’ils présentent aux pirates signifie que, dans trop de cas, la sécurité de l’utilisateur final est compromise par eux.

La formule préférée des cybercriminels pour attaquer les appareils IoT de soins de santé

Il ne fait aucun doute que les fichiers ransomware et les logiciels malveillants sont les plus couramment utilisés par les cybercriminels lors de l’attaque des centres de santé, des hôpitaux et d’autres endroits particulièrement vulnérables dans le secteur de la santé.

Un ransomware est un programme qui télécharge, installe et fonctionne sur votre ordinateur grâce à Internet. Ce faisant, il «détourne» tout l’appareil ou une partie des informations qu’il stocke et, en échange de sa libération, demande un renflouement économique (d’où son nom).

La suppression de ces fichiers et logiciels malveillants n’est pas excessivement complexe pour les spécialistes de la sécurité informatique, mais les conséquences qu’ils peuvent avoir sur les hôpitaux et les centres médicaux sont d’une grande considération. Par exemple, ils impliquent :

  • Perturbation des processus opérationnels du centre, au moins, sur les ordinateurs IoT affectés.

  • Incapacité d’accéder à l’information des patients et aux tests diagnostiques.
  • Besoin de restaurer les systèmes et les sauvegardes.
  • Dommages à la réputation de l’entreprise du centre ou de l’entreprise après avoir subi l’attaque.

Tout cela a un coût économique très important du point de vue commercial. En fait, il peut être si élevé que l’investissement de la mise en œuvre des meilleures solutions de cybersécurité semble ridicule. Il suffit de restaurer les systèmes est une tâche qui peut arrêter l’activité du centre médical pendant près d’une journée.

Comment prévenir les cyberattaques dans le secteur de la santé?

Fait intéressant, la meilleure façon de
prévenir les cyberattaques contre l’équipement IoT
est d’investir stratégiquement dans ces appareils. C’est-à-dire en les faisant un usage de plus en plus grand et meilleur. De plus en plus de technologies sont en place pour contrôler l’accès, bloquer les attaques par des fichiers malveillants et, en fin de compte, protéger les informations et les processus critiques avec le moins d’intervention humaine possible.

La réalité est d’acquérir une infrastructure d’équipement, de programmes et de personnel spécialisé au sein d’un hôpital ou d’un centre médical peut être un investissement inéumable. Cependant, il existe des alternatives. Le plus intéressant d’entre eux est celui qui passe par la mise en œuvre de solutions cloud. La réduction des coûts est très sensible et les solutions proposées sont très efficaces.

Les solutions SaaS(Software as a Service)sont actuellement les plus utilisées dans les centres médicaux qui utilisent des plates-formes cloud pour leurs systèmes. Mais pour qu’ils fonctionnent, il est nécessaire d’envisager une stratégie de cybersécurité des données avant le dumping des données sur les serveurs. Les mécanismes de cryptage et de cryptage sont basiques à ce stade. Une tâche assez simple et entièrement automatisée qui peut se traduire par un retour sur investissement très élevé.

Bref, le secteur de la santé, tant en termes d’hôpitaux que de centres de santé, est particulièrement sensible à la cybersécurité. D’autant plus que la plupart de ses processus dépendent d’appareils IoT qui sont très sensibles à l’action des pirates. Cependant, les avantages qu’ils procurent en termes d’efficacité et de productivité rendent leur utilisation indispensable. Cela étant clair, il est évident que l’investissement dans la protection de ces systèmes, qui doit toujours être fait d’un point de vue stratégique, est essentiel.

Red Hat est maintenant gratuit pour les petits environnements. Nous vous apprenons à migrer de CentOS

CentOS Stream n’est pas si terrible

Avec l’annonce de CentOS Stream de nombreux utilisateurs ont été laissés plus qu’inquiets. Passant d’une distribution stable et gratuite, la sœur jumelle de RHEL à un environnement de test, sujette à des erreurs et besoin de correctifs constants ne semblait pas être une bonne nouvelle. En outre, son cycle de vie (c’est-à-dire le temps pendant lequel des mises à jour sont fournies à chaque version) trop court, ce qui ne le rend pas approprié pour la plupart des serveurs en production qui à l’époque ont décidé d’installer CentOS au lieu de RHEL pour ne pas avoir besoin d’un support technique de haut niveau. C’est le cas des petites entreprises ou des établissements d’enseignement.

Fedora existait déjà, où toutes les nouvelles avancées techniques qui arriveraient plus tard à Red Hat (et CentOS) sont à l’essai. Fedora est une distribution Linux idéale pour les environnements de bureau, mais peu d’entreprises avaient en production.

Enfin, le scénario s’est éclairci. Fedora continuera d’avoir la même fonction au sein de l’écosystème Linux de Red Hat, rien ne change ici. CentOS Stream sera une plate-forme qui, en utilisant des techniques de «livraison continue», héritées de la philosophie de devops, deviendra la prochaine version mineure de Red Hat Enterprise Linux (RHEL) avec un cycle de vie assez court.

Red Hat Linux est maintenant gratuit pour les petits environnements

Toutefois, la grande nouvelle est la suivante : pour les environnements avec jusqu’à 16 serveurs productifs, RHEL peut être installé sans frais à l’aide de licences Developer. À bien y penser, c’est tout le sens du monde. À l’exception des grands environnements super-informatiques (HPC), vous migrez de CentOS à RHEL de manière transparente et sans frais supplémentaires. Non seulement les fonctionnalités seront maintenues, mais les dernières mises à jour seront consultées immédiatement.

Cela sera possible à partir du 1er février 2021. Red Hat prévient qu’il gardera le système d’abonnement, même s’ils sont gratuits en essayant de les simplifier autant que possible. Ils font valoir des raisons juridiques, telles que celle que de nouvelles lois telles que le GDPR entrer en vigueur, les termes et conditions de votre logiciel doivent être mis à jour. C’est-à-dire que ce ne sont ni les licences attendues à perpétuité qu’IBM maintient encore par exemple.

De notre point de vue, il s’agit d’un succès dans l’expansion de la base d’utilisateurs, mais aussi futur client potentiel non seulement de Red Hat Linux, mais de tous ses produits: Satellite, Ansible, OpenShift, Openstack, Cloudforms parmi beaucoup d’autres.

Comment pouvons-nous migrer de CentOS à Red Hat?

Nous avons un utilitaire qui effectue la migration, convert2rhel

• convert2rhel –disable-submgr –enablerepo < RHEL_RepoID1 > –enablerepo < RHEL_RepoID2 > –debug

Changez RHEL_RepoID les référentiels que vous choisissez par /etc/yum.repos.d/code> rhel-7-server-rpmscode> exemple, ou rhel-8-baseoscode> rhel-8-appstreamcode> .

Vous pouvez examiner les options avec :

Convert2rhel -h Convert2rhel -h Convert2rhel -h Convert2

Et quand vous êtes prêt, il suffit de commencer le processus:

Convert2rhel Convert2rhel Convert2rhel Convert2

Dans ce lien, vous avez tous les détails

SIXE