Alma et CentOS Linux sur IBM Power (ppc64le)

Au cours des deux dernières années, le projet CentOS, une distribution Linux communautaire basée sur Red Hat et compatible binairement avec celui-ci, a subi de nombreux changements. Comme pour d’autres projets de logiciels libres, cette distribution populaire (et stable), utilisée par des entreprises et des organisations du monde entier, est devenue une “version de développement” de Red Hat Enterprise Linux. Il en va de même pour oVirt contre RHEV ou Foreman + Katello contre Satellite. En contrepartie, Red Hat offre des licences gratuites pour les petits déploiements et a élargi les options d’abonnement éducatif.

Qu’en est-il de CentOS Stream ?

Ce n’est pas que CentOS Stream n’est plus stable, ou que ses utilisateurs deviennent involontairement des bêta-testeurs . de Red Hat Enterprise, mais des aspects fondamentaux ont été modifiés. Jusqu’à présent, lorsque Red Hat sortait la version X, quelques mois plus tard, les mêmes versions des mêmes paquets étaient compilées, créant un “clone” avec les mêmes fonctionnalités pour ceux qui n’avaient pas besoin d’un support de niveau entreprise. Ce n’est plus le cas (les mises à jour et les modifications deviennent plus fréquentes) et les utilisateurs du monde entier se demandent ce qu’ils doivent faire. Le CERN en Suisse, par exemple, a décidé de s’en tenir à CentOS Stream pour l’instant. Peut-être parce qu’il vaut mieux connaître le diable que de ne pas le connaître, mais… C’est une autre histoire.

En parallèle, Ubuntu, Red Hat et SUSE offrent tous leurs dépôts pour x86 mais aussi pour ARM et ppc64le (Linux on IBM Power), nous étions donc très intéressés à tester si ces nouvelles distributions CentOS heir étaient compilées pour ces architectures et si nous pouvions migrer vers elles depuis CentOS Stream. Si tel est le cas, nous pensons que cela pourrait inciter les clients qui possèdent (ou envisagent d’acquérir) des serveurs Power d’IBM à donner une chance à cette technologie, qui, si elle est déployée avec succès, permet non seulement d’obtenir de bien meilleures performances par cœur, mais aussi de réduire considérablement les coûts de licence et les heures nécessaires à la maintenance technique.

Alma contre CentOS, Rocky et Oracle Linux

Dans ce tableau, nous avons les distributions basées sur Red Hat que nous pouvons (ou allons) installer sur IBM Power, et leurs principales caractéristiques.

Comparaison avec RHEL AlmaLinux Oracle Linux Rocky Linux CentOS Stream CentOS Linux
Disponible auprès de Mars 2021 2006 Juin 2021 2019 2004
Compatibilité binaire 1:1 avec RHEL Oui Presque *
(changements dans glibc, openssl…)
Oui Les limites de l’ACG s’appliquent. Oui
Mises à jour tous les Quotidiennement Quotidiennement Quotidiennement RHEL Upstream Quotidiennement
Cycle de vie 10 ans 10 ans 10 ans 5 ans EOL le 2021-12-31
Soutien commercial Tiers Oracle, tiers Tiers Tiers Tiers
Support PowerPC Oui Oui Pas encore. Oui Oui
Support pour s390x Pas encore. À déterminer À déterminer Oui Oui
Propriété de : Fondation du système d’exploitation AlmaLinux Oracle Inc Fondation Rocky Enterprise Software Red Hat Inc Red Hat Inc
Type d’organisation du propriétaire Sans but lucratif 501(c)6 Société à but lucratif C-Corp À but lucratif, société d’intérêt public Société à but lucratif C-Corp Société à but lucratif C-Corp

Comme vous pouvez le constater, si nous cherchons une alternative à CentOS Linux for Power, AlmaLinux semble être l’option la plus intéressante et avec 10 ans de mises à jour dans chaque version.

Test d’AlmaLinux (ppc64le)

Afin d’écrire cet article, nous avons effectué deux types de tests. La première consistait à installer AlmaLinux à partir du DVD AlmaLinux sur un serveur Power8. Comme vous pouvez le constater, à part le démarrage à partir du LPAR SMS, l’installation est la même que sur un système x86.

Que faire si nous voulons migrer de CentOS Stream vers AlmaLinux ?

Il existe un script que vous pouvez télécharger ici, que nous avons téléchargé dans un second environnement avec un CentOS Stream fraîchement mis à jour.

$ wget https://raw.githubusercontent.com/AlmaLinux/almalinux-deploy/master/almalinux-deploy.sh

Vous devez modifier ce script avant de l’exécuter

$ vi almalinux-deploy.sh

Et modifiez la ligne suivante, où il vérifie l’architecture parce que ppc64le EST SUPPORTE et que nous avons tous les paquets logiciels disponibles (nous allons le vérifier).

Ensuite, nous exécutons le script, que vous devrez probablement lancer avec l’option -d pour passer de la version actuelle de CentOS Stream à AlmaLinux 8.X (elle sera toujours légèrement plus ancienne que la dernière version de CentOS Stream).

 

Vous pouvez ensuite installer epel-release et le reste des dépôts avec des logiciels supplémentaires comme vous le feriez dans n’importe quel environnement x86.

S’agissant d’un environnement IBM Power, il est conseillé d’installer les paquets logiciels qui ajoutent des fonctionnalités (basées sur les commandes AIX) pour pouvoir gérer correctement tous les HW, accéder à la console HMC et pouvoir effectuer des changements de configuration sans redémarrer les systèmes.

$ yum install wget
$ wget ftp://public.dhe.ibm.com/software/server/POWER/Linux/yum/download/ibm-power-repo-latest.noarch.rpm
$ rpm -ivh –nodeps ibm-power-repo-latest.noarch.rpm

Ici, une fois encore, vous devez modifier le script de configuration pour qu’il fonctionne sur AlmaLinux. Vous verrez qu’il y a une sortie 1 si ce n’est pas centos/suse/redhat que nous allons modifier pour qu’elle ressemble à ceci

$ vi /opt/ibm/lop/configure

$ chmod +x /opt/ibm/lop/configure

$ /opt/ibm/lop/configure

Installer le dépôt epel (contient beaucoup de logiciels supplémentaires)

$ yum install epel-release

Et nous pouvons voir que les nouveaux dépôts sont déjà actifs.

$ yum repolist

migra

Nous téléchargeons les utilitaires PowerVM pour la LPAR Linux à gérer depuis la HMC.

$ yum install src ksh rsct.core.devices.chrp.base.ServiceRM DynamicRM

Et redémarrez les services RMC (qui sont utilisés pour ajouter ou supprimer dynamiquement de la mémoire et des processeurs).

$ /usr/bin/rmcctrl -z
$ /usr/bin/rmcctrl -A
$ /usr/bin/rmcctrl -p

Le test final

Nous allons utiliser un long script pour déployer un serveur web, une base de données et un site WordPress.

$ wget https://github.com/UncleDan/linux-scripts/blob/master/wordpress-centos8.sh

$ bash wordpress-centos8.sh

Nous avons entré notre IP avec le navigateur et Wodpress a fonctionné ! Il y a deux ans, nous ne pouvions pas dire que cela fonctionnerait avec cette sécurité. Nous sommes heureux de constater que de nombreux progrès ont été réalisés et que le support des applications ppc64le est de plus en plus étendu et complet. Nous vous encourageons à l’essayer, sans avoir à investir dans de nouvelles licences.

Quelles autres applications et services pouvons-nous déployer sous Linux sur IBM Power ?

Pour terminer cet article, nous vous laissons avec une liste d’applications disponibles dans OpenShift for Power et donc entièrement prises en charge sur toute distribution basée sur Red Hat, comme AlmaLinux et CentOS. Qu’est-ce que vous attendez ?

Systèmes d’exploitation de conteneurs (docker / runC)

+ Red Hat
+ CentOS
+ SUSE
+ BusyBox
+ AlpineLinux
+ Ubuntu
+ Debian

Middleware

+ WebSphere Liberty
+ Open Liberty
+ Apache Tomcat
+ ActiveMQ
+ JBoss
+ WildFly
+ LapinM
+ WordPress

Langues

+ Jenkins
+ Ansible
+ Kubernetes
+ Red Hat OpenShift
+ Gradle
+ Maven
+ Terraform
+ Travis CI
+ Python
+ Java
+ PHP
+ GoLang
+ OpenJDK
+ NodeJS
+ R
+ Ruby

 

Bases de données

+ MongoDB
+ Redis
+ MySQL
+ Cassandra
+ MariaDB
+ PostgreSQL
+ Memcached
+ IBM Db2

Analytique et IA

+ Grafana
+ Kibana
+ Elasticsearch
+ Logstash
+ Fluentd
+ Kafka
+ IBM Watson Studio
+ IBM Watson ML

Stockage

+ Interface de stockage des conteneurs
+ IBM Spectrum Virtualize
+ Pilote IBM PowerVC CSI
+ NFS

Communications

+ Prometheus
+ Nginx
+ Serveur Apache HTTP
+ ZooKeeper
+ HAP oxy
+ etcd

 

Mythes, vérités et notre point de vue sur les IBM Cloud Paks

Avec l’achat de Red Hat par IBM, l’ensemble du portefeuille de solutions logicielles pour la cybersécurité, les applications, les bases de données, l’automatisation et la gestion du cloud hybride a été porté sur OpenShift sous la marque IBM Cloud Paks. Les IBM Cloud Paks . Cela signifie que nombre de ces applications ont été repensées et adaptées pour fonctionner au-dessus des conteneurs (bien que certaines, comme QRadar, le fassent depuis des années) et être contrôlées par Kubernetes, qui est l’orchestrateur de conteneurs sur lequel OpenShift est basé.

Comment les IBM Cloud Paks sont-ils déployés ?

Les IBM Cloud Paks sont installés dans un environnement PaaS avec OpenShift aussi bien dans les propres centres de données sur IBM Power Systems, VMWare, KVM (RHEV / LinuxONE) que dans les clouds publics de Microsoft (Azure), IBM, Amazon (AWS) et Google (GCP). Grâce à IBM Satellite, il peut être déployé à la fois sur site et dans le nuage, au moyen d’une architecture hybride flexible. Notre site
département des services professionnels
peut vous aider.

Comment les IBM Cloud Paks sont-ils licenciés ? Combien coûtent-ils ?

C’est peut-être l’une des parties les moins connues et, à notre avis, les plus controversées. IBM a toujours vendu des licences perpétuelles pour toutes ses solutions logicielles. Ces licences sont assorties d’une assistance technique de base pour les problèmes de matériel et d’une assistance plus avancée pour les logiciels (SWMA), qui peut être renouvelée tous les trois ans. En passant à un environnement en nuage, nous nous dirigeons vers des systèmes de paiement à l’utilisation, qui sont très évolutifs et, pour être honnête, parfois… compliqué à estimer. Par exemple, Data propose ces prix par “cœur virtuel”. C’est-à-dire, de quelques centaines de dollars à quelques centaines de milliers… :)

Cela présente des avantages évidents pour les solutions pour lesquelles il est judicieux de renouveler le soutien, comme les solutions ouvertes et extrêmement complexes telles que celles basées sur les microservices et les conteneurs. Les clients qui ne sont pas à l’aise avec ce modèle peuvent continuer à acheter des appliances ou des licences pour déployer nombre de ces solutions dans leur infrastructure moyennant un paiement unique et un support optionnel à renouveler tous les plusieurs années. Dans d’autres, c’est le seul modèle, car il s’agit de solutions natives pour Kubernetes et les environnements basés sur le cloud.

Dois-je avoir OpenShift pour installer un IBM Cloud Pak ?

Réponse courte : oui. Toutefois, si vous n’en disposez pas, vous pouvez le déployer sans trop de problèmes grâce aux installateurs inclus dans les dernières versions, soit sur votre propre infrastructure, soit sur une infrastructure externe (IaaS) de votre fournisseur de cloud préféré.

Les packs IBM Cloud en valent-ils la peine ?

En tant que bon vers libre dans le secteur des intégrateurs de systèmes, nous pensons que certains le font, et d’autres non (du moins pour l’instant). Cela dépend de la façon dont ils vont être utilisés, de la dépendance que nous avons avec d’autres applications et du niveau de maturité dans l’adoption des conteneurs et l’utilisation de Kubernetes dans notre organisation. Si vous débutez avec Dockers, OpenShift et les environnements de cloud computing, il est peut-être préférable de s’en tenir à un bon outil d’aide à la décision.
plan de transformation numérique et de modernisation
plutôt que de “mettre la charrue avant les bœufs”.

Existe-t-il des cours ou des formations IBM Cloud Paks ?

Pour tirer parti de cette technologie, vous devez maîtriser à la fois l’infrastructure (OpenShift), pour laquelle une formation officielle est proposée par Red Hat, et un atelier pratique intensif mis sur pied par nos soins. Une fois l’infrastructure maîtrisée, vous devrez vous former aux différents produits et solutions IBM qui vous intéressent, car il s’agit de collections de logiciels regroupés par catégorie et dont les licences sont communes. Le Cloud Pak pour la sécurité, par exemple, est principalement la plateforme SOAR QRadar d’IBM, tandis que le Cloud Pak pour les applications comprend toute la suite Websphere.

Cela dit, si vous le voulez,on peut en discuter.

 

Nouvelle certification d’analyste en cybersécurité avec QRadar SIEM 7.4.3

Il vient de passer la première des nouvelles certifications IBM QRadar SIEM. Comme toujours, ils ont commencé par le plus simple, celui d’un analyste. Elle est destinée aux professionnels qui souhaitent valider leurs connaissances de QRadar SIEM en version 7.4.3. L’examen est le C1000-139, intitulé “IBM Security QRadar SIEM V7.4.3 – Analysis” et la certification délivrée est“IBM Certified Analyst – Security QRadar SIEM V7.4.3“.

Comme vous le savez (et si vous ne le savez pas, nous vous en parlerons), la principale nouveauté de la version 7.4 est le changement de l’interface utilisateur. Ils ont inclus des tableaux de bord de contrôle et de surveillance pour améliorer la visibilité des incidents de sécurité, avec des correspondances concrètes avec des méthodologies telles que MITRE ATT&CK. C’est un moyen de normaliser les incidents, de donner un peu d’abstraction au produit, de nous donner une vue de plus haut niveau de ce qui se passe, au-delà des règles spécifiques qui ont été appliquées et des chaînes d’événements qui ont été générées.

En tant que conditions préalables (ne faisant pas partie de l’examen), il est nécessaire d’être compétent :

  • Concepts du SIEM (ce qu’il est, ce qu’il n’est pas et à quoi il sert)
  • Maîtriser la théorie des réseaux TCP/IP
  • Avoir une bonne connaissance de la terminologie de la sécurité informatique.
  • Apprenez à connaître les différents modules et plugins de QRadar, tels que Network Insights ou Incident Forensics.

Pourquoi nous pose-t-on la question à l’examen ?

  • Analyse des infractions à la sécurité et des événements (logs, flux réseau, etc.)
  • Compréhension des listes de données de référence (sets, maps, tables, etc.)
  • Maîtriser les règles et les éléments constitutifs
  • Savoir chercher dans les rapports, les créer de toutes pièces, les programmer, les modifier, etc.
  • Avoir une connaissance de base de l’architecture QRadar, principalement de ses composants, des licences et de la configuration au niveau du réseau.
  • Enfin, les configurations multi-domaines et multi-clients, qui semblent devenir de plus en plus à la mode, ont une section dédiée dans cette revue.

Dois-je renouveler ma certification ?

À notre avis, si vous êtes certifié sur les versions 7.2.X ou 7.3.X, il n’est pas nécessaire de se recertifier. Une autre chose est que votre entreprise exige qu’il maintienne un certain niveau de partenariat avec IBM ou qu’il s’agisse d’une exigence pour un appel d’offres public. Toutefois, si vous devez obtenir une certification, profitez-en au maximum et faites-le lorsque les nouvelles versions sont publiées.

Quand le reste des certifications 7.4.2 sera-t-il publié ?

Administrateur” et “professionnel du déploiement” seront publiés entre ce trimestre et le trimestre prochain. Les différences entre tous ces produits ont été abordées il y a quelque temps dans cet article. Bien que les versions changent, les types d’examens et leurs objectifs sont les mêmes.

Pouvez-vous nous aider avec QRadar ?

Bien entendu, nous proposons des formations, des services professionnels, une assistance et nous vendons et renouvelons également vos licences. Contactez-nous et parlons-en.

Mettez à niveau votre IBM Power9 ou vos LPARs risquent de ne pas démarrer.

Nous négligeons souvent la nécessité d’effectuer des mises à jour préventives non seulement du système d’exploitation (AIX, Linux, IBM i) mais aussi du FW des serveurs IBM Power. IBM publie des correctifs pour les problèmes que d’autres clients ont rencontrés et il n’est généralement pas nécessaire que vous fassiez de même. Ce faisant, nous protégeons nos systèmes contre toutes sortes de menaces et de vulnérabilités externes et internes.

Le problème dont nous avons parlé dans ce court article est un bogue qui empêchait les LPAR de démarrer sur les serveurs Power9 s’ils étaient en fonctionnement depuis plus de 814 jours. Cela ressemble un peu aux imprimantes d’il y a quelques années qui n’ont pas réussi à imprimer plusieurs centaines de milliers de pages, on ne sait jamais si c’était délibéré ou une erreur. Dans le cas d’IBM, il s’agit d’un bug reconnu du firmware qui est corrigé avec la mise à jour VH950_045_045 / FW950.00 disponible à partir du 23 novembre 2020. Donc, si vous êtes un client d’IBM et qu’au cours des deux dernières années, vos anciens systèmes Power9 n’ont pas été mis à niveau, vous risquez d’avoir ce problème pour le reste de l’année.

Voici un indice, l’erreur est CA000040 qui empêche le LPAR de démarrer et dont la solution temporaire pourrait être d’utiliser le mode de compatibilité Power8 à partir de la HMC ou ASMI pendant que vous installez les mises à jour en attente.

Chez Sixe, nous assurons la maintenance préventive des systèmes IBM Power de nos clients depuis plus de 15 ans. Nous pouvons vous aider à surveiller, mettre à jour et maintenir préventivement l’ensemble de votre infrastructure. Systèmes de serveurs et de stockage IBM et Lenovo. Nous vous aidons également à minimiser les coûts de licence et offrons les meilleurs prix pour les mises à niveau vers les nouvelles générations de serveurs IBM Power. Contactez-nous pour plus d’informations.

Installation et test de la nouvelle version IBM AIX 7.3

Après avoir rejoint le programme OpenBeta d’IBM, nous avons pu télécharger et tester la nouvelle version d’AIX 7.3 à l’occasion de son 35e anniversaire.

Parmi ses nouveautés, citons les suivantes :

  • Les frameworks Python et Bash qui fonctionnent directement avec AIX, pas besoin de les réinstaller manuellement !
  • Prise en charge de la commande dnf (standard dans Red Hat) pour l’installation de paquets open source à partir de la boîte à outils AIX. AIX a longtemps parlé de Linux, mais depuis la version 7.3, il est de plus en plus intégré, offrant aux développeurs et aux administrateurs système toutes les fonctionnalités nécessaires à la modernisation des environnements UNIX.
  • Réduction du temps nécessaire pour ajouter dynamiquement des processeurs/mémoire à une LPAR en cours d’exécution, utile pour les LPAR dont les bases de données utilisent des centaines de Go ou plusieurs To de RAM. Cela va de pair avec la réduction de l’IPL pour ces partitions.
  • Les commandes pigz et zlibNX utilisent désormais de manière transparente l’accélération GZIP de NX dans Power9 et Power10.
  • Amélioration de la prise en charge du chiffrement des volumes logiques (LVM) pour inclure le rootvg et le dump device.
  • La pile de protocoles TCP prend désormais en charge CUBIC, un algorithme d’évitement de la congestion du réseau TCP qui permet d’établir des connexions à large bande passante sur les réseaux de manière plus rapide et plus fiable.
  • Améliorations supplémentaires de la sécurité IP (IPsec)
  • Possibilité de créer un fichier OVA à partir d’un mksysb en utilisant la commande create_ova afin d’accélérer les déploiements dans les nuages (PowerVS) et hybrides.
  • Création d’une image ISO à partir de la nouvelle commande mksysb_iso
  • Intégration avec les nouveaux compilateurs C/C++ et Fortran d’IBM Open XL
  • Augmentation de la taille des fichiers et du système de fichiers
  • Amélioration de la prise en charge d’Ansible et d’Ansible Tower
  • Intégration avec PowerVC 2.

 

Découvrez les nouveaux serveurs IBM Power10 et AIX 7.3

Le pouvoir de 10

Le 8 septembre est la date de l’annonce officielle des nouveaux serveurs d’IBM équipés de processeurs Power10, qui sera suivie de l’annonce de la version 7.3 d’AIX, qui aura 35 ans en 2021. Sur la base des caractéristiques techniques disponibles, nous savons qu’ils intègrent de la mémoire DDR5, une interface PCIe 5.0 et sont conçus à l’aide de la technologie 7nm de Samsung. Les processeurs Power10 seront à nouveau disponibles en deux versions. L’un avec 15 cœurs en mode SMT-8 (idéal pour AIX et IBM i) et les autres avec 30 cœurs et SMT-4 pour les charges de travail exclusivement Linux. Les puces Power10 intègrent également des améliorations majeures pour l’intelligence artificielle (IA), lui permettant d’exécuter des charges d’apprentissage automatique jusqu’à 20 fois plus rapidement que POWER9.

Un million de SAPS. L’infrastructure compte beaucoup.

Comme d’habitude, les premiers systèmes annoncés seront des systèmes évolutifs conçus pour des environnements hautement virtualisés avec des applications gourmandes en ressources telles que SAP HANA. Les benchmarks publiés indiquent que 1 million de SAPS sont atteints avec 120 cœurs, soit la moitié du nombre de cœurs nécessaires dans la génération précédente de Power9 dans les serveurs E980. Par rapport aux serveurs tiers actuellement disponibles cette année, HPE a atteint environ 670 000 SAPS (équivalent à environ 120 000 utilisateurs simultanés) en utilisant 224 cœurs dans son Superdome Flex 280 basé sur les processeurs les plus puissants d’Intel (le Xeon Platinum). Pour ceux qui n’y connaissent pas grand-chose, l’autre chose à lire est que la performance par cœur a continué à s’améliorer considérablement alors que le reste des fabricants la font stagner en ajoutant d’autres matériels complémentaires (mémoires flash, plus de cœurs, etc.).

Toute la mémoire dont vous avez besoin

L’avènement de la technologie “Memory Inception” permet de créer des grappes de systèmes qui partagent la mémoire entre eux, avec jusqu’à plusieurs pétaoctets de RAM disponibles pour un seul environnement divisé en plusieurs serveurs physiques. IBM se positionne ainsi comme un leader dans le développement de technologies matérielles pour les clusters d’applications sur Red Hat OpenShift. Des serveurs “de taille moyenne” à deux et quatre sockets seront annoncés sous peu, où nous pourrons continuer à bien déployer des environnements mixtes IBMi, AIX et Linux.

Cryptage de bout en bout

Nous ne pouvons pas terminer cet article sans mentionner l’une des principales caractéristiques de la plate-forme Power d’IBM, à savoir la sécurité des données. Les nouveaux processeurs intègrent quatre fois plus de composants de cryptage AES pour anticiper les besoins des normes cryptographiques à venir à partir de 2022, telles que la cryptographie à sécurité quantique ou le cryptage entièrement homomorphique. Tout cela s’applique aux nouvelles charges de travail basées sur les conteneurs, où la sécurité est devenue la principale préoccupation des organisations qui les utilisent.

AIX 7.3, UNIX au-delà de 2030

Même si cela fera l’objet d’un autre article, avec l’arrivée de Power10, la nouvelle version d’AIX sera annoncée, qui sera la 7.3, ce qui n’était pas arrivé depuis 2015. La numérotation est une question de marketing. Si IBM avait choisi d’appeler cette version 8.1, cela aurait pu soulever des questions quant à l’impact des nouvelles fonctionnalités sur la stabilité des applications existantes, mais comme toute nouvelle version, elle intègre de nombreuses nouvelles fonctionnalités intéressantes. Aujourd’hui, nous continuons à déployer de nouveaux environnements sur AIX, ainsi qu’à en migrer d’autres depuis Solaris, HP-UX et même Linux.

Chez tous nos clients, grands et moyens, il existe une partie de leur environnement de production où sont traitées les informations qui font vivre leurs activités et leurs processus internes. Où installez-vous Oracle, DB2, SAP, SAS, etc ? Dans AIX. Aucun autre système d’exploitation de type UNIX n’offre la même maturité, stabilité, performance et évolutivité. C’est un UNIX moderne, avec une grande compatibilité avec les applications modernes telles que Chef, Puppet, Ansible et qui coexiste merveilleusement avec le reste des environnements basés sur Linux, IBM i ou Z/OS, qui a encore beaucoup de vie devant lui et la nouvelle version 7.3 en est une bonne preuve. Il présente également trois grands avantages pour les services et les administrateurs système : tout fonctionne (contrairement à la sensation de bêta-testeur si ancrée dans Linux), il fonctionne sur les serveurs les plus stables et les plus robustes qui existent (à l’exception de l’ordinateur central) et vous n’apprenez qu’une fois, au lieu d’apprendre à chaque fois qu’une nouvelle version est publiée : nous nous souvenons tous du moment où “ifconfig -a” a cessé de fonctionner dans Red Hat :)

Il est temps de renouveler les équipements, les licences… et de procéder à des mises à niveau.

Avec l’arrivée d’une nouvelle technologie de processeur, les “soldes” commencent chez IBM. Si vous avez des équipements Power7 ou Power8 dont les contrats de maintenance arrivent à échéance (ou sont déjà hors service) et que vous vous demandez si vous devez les renouveler ou non, nous pouvons vous aider. Nous vous conseillons sur la manière d’économiser beaucoup d’argent grâce à nos services d’audit et de renouvellement de licences, d’utiliser à 100% votre équipement IBM Power et de vous proposer denouveaux serveurs Power9 et bientôt Power10 à prix coûtant.

Avez-vous besoin d’un soutien technique ?

Chez Sixe Ingeniería, nous offrons un support technique et une maintenance préventive d’AIX et Linux sur Power Systems directement et sans intermédiaire. Nous serons heureux de vous aider.

Saisissez la véritable puissance de CI/CD avec Tekton et Kubernetes Pipelines

L’introduction des pipelines Kubernetes (Tekton) a révolutionné la façon dont nous gérons les flux de travail CI/CD dans le développement logiciel. L’ajout de Tekton, le framework natif de Kubernetes, nous a donné plus de puissance et de flexibilité dans la création et la gestion des pipelines. Cet article se concentre sur l’importance de Kubernetes Pipelines et de Tekton sur Red Hat OpenShift, et sur la manière dont ces outils peuvent vous aider à rendre votre processus de développement véritablement continu.

Qu’est-ce qu’un pipeline ?

Un pipeline est un processus automatisé qui conduit le logiciel à travers les étapes de construction, de test et de déploiement du cycle de vie du développement logiciel. En d’autres termes, un pipeline exécute le flux de travail d’intégration continue et de livraison continue (CI/CD). Il gère automatiquement les tâches d’exécution de la suite de tests, d’analyse du code, de création de binaires, de conteneurisation et de déploiement des modifications dans le nuage ou dans les solutions sur site.

Pourquoi construire des pipelines avec Kubernetes ?

Alors que le monde du développement s’oriente vers des applications basées sur des microservices plutôt que sur des applications monolithiques, le processus CI/CD est devenu véritablement continu avec des mises à jour incrémentielles de la base de code qui peuvent être déployées indépendamment.

Dans un tel contexte, Kubernetes simplifie le processus de création et de maintenance des pipelines CI/CD. Il déploie chaque microservice sur un seul cluster Kubernetes et maintient plusieurs copies de chaque microservice pour servir de versions dev, test et prod.

Avec les pipelines Kubernetes, vous n’avez plus besoin de reconstruire l’ensemble de l’application à chaque construction. Au lieu de cela, Kubernetes met à jour le conteneur du microservice et le déploie via le pipeline défini. Il n’est plus nécessaire d’écrire des scripts de construction, car Kubernetes gère automatiquement le processus avec seulement quelques options de configuration que nous fournissons. Cela réduit le risque d’erreurs humaines dans le flux de travail CI/CD.

Qu’est-ce que Tekton ?

Tekton vous permet de faire passer les pipelines Kubernetes au niveau supérieur. Il s’agit d’un cadre open-source, natif de Kubernetes, pour le développement de pipelines CI/CD. Tekton fournit des extensions aux définitions de ressources personnalisées (CRD) dans Kubernetes pour faciliter la création et la normalisation des pipelines. Il dispose d’un support intégré pour le couplage avec les outils CI/CD existants dans le secteur, tels que Jenkins, Jenkins X, Skaffold, Knative et OpenShift.

L’intégration OpenShift de Tekton, baptisée OpenShift Pipelines, apporte encore plus de puissance et de souplesse à ce système grâce aux outils de développement RedHat et OpenShift.

Pourquoi utiliser Tekton ?

Les pipelines Tekton utilisent les clusters Kubernetes comme type de première classe et les conteneurs comme principaux éléments constitutifs. La nature découplée de Tekton garantit que vous pouvez utiliser un seul pipeline pour déployer sur des clusters Kubernetes distincts. Il est ainsi plus facile de déployer des services sur plusieurs solutions en nuage fournies par différents fournisseurs, voire sur des systèmes sur site.

Tekton vous permet d’exécuter les tâches automatisées de manière isolée, sans être affecté par d’autres processus en cours dans le même système. Une autre spécialité de Tekton est la flexibilité qu’elle offre pour changer de ressources, telles que les dépôts GitHub, entre deux exécutions du pipeline.

Il facilite également la mise en œuvre du pipeline en fonction du type de ressource. Par exemple, vous pouvez mettre en place une implémentation unique pour gérer les images.

Tekton couplé à OpenShift assure la haute disponibilité du système en permettant à chaque unité d’évoluer indépendamment à la demande. De plus, vous bénéficiez d’outils de journalisation et de surveillance améliorés et de fonctions d’autorétablissement rapides intégrées à Kubernetes.

Comment fonctionne Tekton ?

Tekton fournit des CRD de style Kubernetes pour déclarer les pipelines CI/CD. Les ressources sont déclarées dans un yaml qui est, généralement, stocké avec le dépôt de code. Nous allons examiner les CRD de base qui sont essentiels lors de la création de pipelines.

Tâche

Une tâche est la plus petite unité configurable dans un pipeline Tekton. C’est similaire à une fonction qui accepte un ensemble d’entrées et produit certains résultats. Chaque tâche peut être exécutée soit individuellement et indépendamment, soit en tant que partie du pipeline. Une commande exécutée par une tâche est appelée une étape. Chaque tâche consiste en une ou plusieurs étapes. Tekton exécute chaque tâche dans son propre pod Kubernetes.

Pipeline

Un pipeline est constitué d’un certain nombre de tâches qui forment le flux de travail automatisé final de CI/CD. En plus des Tâches, il contient également des PipelineResources. Ils sont fournis comme entrées et sorties aux tâches du pipeline.

PipelineResource

Une PipelineResource est un objet qui est utilisé comme entrée ou sortie d’une tâche. Par exemple, si la tâche accepte un dépôt GitHub en entrée et construit et produit l’image Docker correspondante, les deux sont déclarés comme objets PipelineResource.

PipelineRun

Un PipelineRun est une instance d’une Pipeline qui est en cours d’exécution. Il initie l’exécution de la Pipeline et gère les PipelineResources transmises aux Tasks comme entrées et sorties.

TaskRun

Un TaskRun est une instance en cours d’exécution d’une tâche. PipelineRun crée des objets TaskRun pour chaque tâche du pipeline afin de lancer l’exécution.

Déclencheur

Un Trigger est un événement externe qui déclenche le workflow CI/CD. Par exemple, une demande de retrait Git peut servir de déclencheur. Les informations transmises avec la charge utile de l’événement sont ensuite utilisées pour déclencher les tâches du pipeline.

Condition

Les conditions sont similaires aux instructions if de la programmation régulière. Ils effectuent un contrôle de validation par rapport aux conditions fournies et renvoient une valeur True ou False. Le pipeline vérifie ces conditions avant d’exécuter une tâche. Si la condition renvoie Vrai, la tâche est exécutée, et si elle renvoie Faux, la tâche est ignorée.

Grâce à ces composants, vous pouvez créer des pipelines complexes et entièrement automatisés pour construire, tester et déployer vos applications dans le cloud ou dans des solutions sur site.

Qui devrait utiliser Tekton ?

Les ingénieurs de plate-forme qui élaborent des flux de travail CI/CD pour les développeurs d’une organisation trouveront dans Tekton un cadre idéal pour simplifier ce processus. Les développeurs aussi peuvent créer des flux de travail CI/CD avec Tekton pour les projets de développement de logiciels et d’applications. Cela leur donne la possibilité de gérer facilement les différentes étapes du processus de développement, telles que les versions dev, test, prod du produit, avec un minimum d’intervention humaine.

Quelle est la prochaine étape ?

Reportez-vous à la documentation officielle de Tekton et OpenShift Pipelines pour en savoir plus sur la manière de configurer des pipelines CI/CD qui répondent facilement aux besoins de votre organisation.

Besoin d’aide?

Nous proposons Kubernetes et OpenShift formations et nous pouvons vous aider à acheter, déployer et gérer votre
Environnement OpenShift sur IBM Power Systems
.

Tout ce que vous devez savoir sur Rancher – gestion de Kubernetes pour l’entreprise

L’une des innovations les plus précieuses de l’informatique en nuage est l’utilisation de conteneurs pour exécuter des applications et des services basés sur le nuage. Des plateformes comme Kubernetes ont facilité la gestion des charges de travail et des services conteneurisés sur les plateformes en nuage. Pour ceux qui l’ignorent, Kubernetes est une plateforme open-source permettant de déployer, de gérer et d’automatiser des charges de travail et des services conteneurisés.

En tant que logiciel libre, Kubernetes dispose de plusieurs distributions parmi lesquelles vous pouvez choisir si vous avez l’intention de déployer des charges de travail sur le cloud. Une des distributions que vous choisissez est Rancher. Si vous souhaitez en savoir plus sur Rancher et la comparer aux autres distributions Kubernetes, cet article est fait pour vous. Nous allons voir ce qu’est Rancher, ses principales caractéristiques, pourquoi vous devriez l’utiliser et comment il se compare à d’autres solutions. Plongeons-y !

rancher ce qu'il est

Qu’est-ce que Rancher ?

Rancher est une pile logicielle utilisée pour gérer les clusters Kubernetes. Il s’agit essentiellement d’un logiciel que DevOps peut utiliser tout en adoptant l’utilisateur de conteneurs. Rancher comprend une distribution complète de Kubernetes, Docker Swarm et Apache Mesos, ce qui simplifie la gestion des clusters de conteneurs sur n’importe quelle plateforme en nuage. Parmi les entreprises populaires qui utilisent Rancher, citons : Alibaba Travelers, Abeja, Trivago, UseInsider, Starbucks, Oxylabs, yousign, et bien d’autres.

Rancher a récemment été racheté par SUSE, et cette acquisition va considérablement changer leur direction. SUSE avait déjà sa solution de gestion de conteneurs, mais après avoir acquis Rancher, ils vont très probablement s’éloigner de leur solution initiale et se concentrer sur l’amélioration de Rancher.

L’un des avantages importants de Rancher est la possibilité de gérer plusieurs clusters Kubernetes de manière simplifiée. Il offre une gestion simplifiée de plusieurs clusters Kubernetes qui peuvent être créés manuellement à l’aide de la distribution Kubernetes de Rancher appelée RKE (Rancher Kubernetes Engine) ou importés dans le panneau de gestion du gestionnaire de clusters.

Outre Rancher Kubernetes Engine (RKE), Rancher a lancé plusieurs autres projets innovants, et l’un d’entre eux est le K3S – un panneau de contrôle Kubernetes plus simple qui est principalement utilisé dans l’informatique périphérique. Maintenant que SUSE a repris Rancher, nous espérons qu’ils l’amélioreront encore davantage pour en faire une plateforme Kubernetes complète.

Caractéristiques de Rancher

Voici quelques-unes des principales fonctionnalités de Rancher

  • Application catalogue Docker
  • Distribution Kubernetes incluse
  • Distribution Docker Swarm incluse
  • Distribution Mesos incluse
  • Gestion des infrastructures
  • Voici quelques-unes des principales caractéristiques de Rancher ;
  • Gérer les hôtes, déployer les conteneurs, surveiller les ressources
  • Gestion des utilisateurs et collaboration
  • API et outils natifs de Docker
  • Surveillance et journalisation
  • Connecter des conteneurs, gérer des disques, déployer des équilibreurs de charge

Pourquoi utiliser Rancher ?

Avec plusieurs autres distributions de Kubernetes sur le marché, pourquoi choisir Rancher ? Examinons quelques-uns des principaux avantages/bénéfices que présente Rancher.

  • Elle est facile à utiliser : L’une des raisons pour lesquelles on choisirait Rancher plutôt qu’une autre plateforme Kubernetes est l’interface Web simplifiée qui permet de faire tout ce dont on a besoin. Il s’agit d’une plateforme que même les développeurs qui n’ont pas une grande expérience de Kubernetes peuvent facilement utiliser.
  • Elle peut facilement être déployée sur n’importe quelle infrastructure de cloud : Un autre avantage essentiel de Rancher par rapport aux autres plateformes Kubernetes est sa compatibilité avec différentes plateformes de cloud ; vous pouvez donc le déployer rapidement sur n’importe quelle infrastructure de cloud.
  • Simplifie la gestion des clusters : Rancher est probablement le meilleur choix pour gérer plusieurs clusters Kubernetes à partir d’une seule interface. Sa capacité à gérer de multiples clusters est l’une des forces importantes qui ont été construites au cœur de Rancher.
  • Surveillance et distribution de la charge de travail automatiques: C’est l’une des principales fonctionnalités incluses dans Rancher, ce qui est très pratique si vous avez l’intention de déployer un système susceptible de recevoir un énorme trafic.
  • C’est une source ouverte et totalement gratuite : RKE, K3s, et tous les autres produits Rancher sont open source et gratuits pour tous. Si vous n’avez pas de budget à consacrer à un logiciel de gestion de conteneurs, alors Rancher est le meilleur choix pour vous. Cependant, pour obtenir le soutien des laboratoires Rancher, vous devrez payer un certain montant.

Quand ne pas utiliser Rancher.

Malgré ses nombreux avantages, il existe certains scénarios dans lesquels il est conseillé de ne pas utiliser Rancher. Voici quelques-unes des situations dans lesquelles vous devriez éviter d’utiliser Rancher.

  • Si vous êtes intéressé par des produits plus matures: Par rapport à d’autres plateformes Kubernetes comme OpenShift, Rancher est assez récent et évolue encore. Si vous êtes le genre de personne qui aime utiliser des produits déjà matures qui ne connaîtront pas de changements radicaux, vous pourriez être déçu par Rancher.
  • Si vous n’avez pas l’intention d’utiliser plusieurs clusters: L’un des principaux atouts de Rancher par rapport aux autres distributions Kubernetes est sa capacité à gérer plusieurs clusters de conteneurs à partir d’une seule interface. Pour ceux qui gèrent des clusters uniques, il est probable que vous ne ferez pas bon usage de Rancher, et il est donc préférable de choisir une autre plateforme.

Comment Rancher se compare-t-il à d’autres solutions comme OpenShift ?

L’un des principaux atouts d’OpenShift par rapport à Rancher est qu’il s’agit d’une plateforme mature qui bénéficie du soutien total de Red Hat. Si vous faites déjà partie de l’écosystème Red Hat, votre choix évident pour la gestion des conteneurs devrait être OpenShift. Rancher dispose également du support de Rancher Labs, mais il n’est pas aussi fiable que celui de Red Hat. L’utilisation de Rancher est plus logique si vous avez l’intention de gérer plusieurs grappes de conteneurs.

Conclusion

Rancher est un excellent outil pour gérer et automatiser les clusters Kubernetes. Il dispose également de nombreuses fonctionnalités pratiques dont vous pouvez tirer parti, notamment si vous gérez plusieurs clusters Kubernetes.

La possibilité de gérer tous vos clusters à partir d’un seul endroit est l’une des raisons pour lesquelles vous devriez choisir Rancher plutôt que toute autre plateforme si vous avez l’intention de gérer plusieurs clusters. Rancher est également très facile à apprendre et à utiliser. Kubernetes utilisateurs peuvent rapidement se familiariser avec Rancher.

Vous avez besoin de formation, de conseil ou d’architecture ?

Nous sommes des partenaires commerciaux de SUSE et Red Hat. Nous pouvons vous aider à déployer des PoCs Rancher et OpenShift afin que vous puissiez évaluer et essayer les deux solutions. Nous avons également développé des Docker / kuberneteset Pratique d’OpenShift 4 formations qui pourraient vous intéresser.

red hat openshift plus edition

Red Hat OpenShift Platform Plus : Quoi de neuf ?

Openshift Platform Plus est le dernier membre de la famille OpenShift. La solution PaaS de Red Hat pour les applications basées sur Kubernetes. Il a été annoncé conjointement avec la version 8.4 de Red Hat Linux. Grâce à Red Hat Openshift Plus, les organisations peuvent, moyennant un léger surcoût (dont nous parlerons plus tard), gérer non seulement les applications mais aussi leurs politiques et configurations de sécurité, quel que soit l’endroit où se trouvent leurs applications, car il comprend une nouvelle prise en charge intégrée du cycle de vie des applications dans les environnements multi-clusters, ainsi que la possibilité de créer des clusters de seulement 3 nœuds ou même avec des nœuds ” travailleurs ” distants permettant d’étendre les clusters Kubernetes à presque n’importe quel endroit, ce qui inclut les installations à faible puissance disponible.

red hat openshift plus edition

Qu’est-ce qui est inclus dans OpenShift Platform Plus ?

  • Moteur Kubernetes (couche de base d’OpenShift sur Linux OS)
  • Orchestration/ contrôle de gestion(Red Hat Advanced Cluster Manager for Kubernetes-ACM)
  • Protocoles de sécurité(Red Hat Advanced Cluster Security for Kubernetes-ACS)
  • Logiciel de registre(Red Hat Quay)

OpenShift Platform Plus fournit toutes les fonctionnalités de base, de gestion et de sécurité en un seul paquet, qui étaient disponibles séparément à leurs prix. Advanced Cluster Security (ACS) a été ajouté à OpenShift après l’acquisition de StackRox, un fournisseur de sécurité natif de Kubernetes.

Prêt pour le multi-cloud et le CI/CD

OpenShift offre une solution de configuration complète permettant de créer un environnement ou d’exécuter une application basée sur des conteneurs sur une infrastructure hybride de serveurs en nuage ou sur site. Openshift propose deux types d’infrastructures d’applications conteneurisées, à savoir les plateformes gérées et les plateformes autogérées. Les plateformes gérées sont des services en nuage complets comme Azure, IBM, AWS et Google Cloud. Dans le même temps, les plateformes autogérées sont hautement personnalisables mais nécessitent une équipe hautement qualifiée pour chaque partie du déploiement.

OpenShift a évolué avec le temps et a inclus des caractéristiques essentielles pour une fonctionnalité améliorée. Au départ, OpenShift Kubernetes Engines a été introduit et comprend le runtime Enterprise Kubernetes, le système d’exploitation de conteneurs immuables Red Hat Enterprise Linux CoreOS, la console de l’administrateur et Red Hat OpenShift Virtualization. Vient ensuite OpenShift Container Platform, complétée par la console du développeur, la gestion des journaux et des coûts, OpenShift Serverless (Knative), OpenShift Server Mesh (Istio), OpenShift Pipelines et OpenShift GitOps(Tekton, ArgoCD). Comprenant toutes les fonctionnalités précédemment disponibles, OpenShift Platform Plus s’accompagne de fonctionnalités supplémentaires.

Caractéristiques de la plate-forme OpenShift Plus

Gestion avancée des clusters Red Hat pour Kubernetes

Il s’agit d’une option de contrôle de gestion avancée d’OpenShift. Il fournit aux clients un accès complet à la gestion unifiée de plusieurs clusters (modification des clusters sur les nuages publics ou privés, allocation de ressources pour les clusters et résolution des problèmes sur l’ensemble du domaine à partir d’une seule présentation) via la console Web Openshift. En outre, il assure une gestion basée sur des politiques qui comprend la normalisation des paramètres de politique pour la sécurité, l’application et le cadre d’infrastructure.

Les applications peuvent être déployées sur le réseau grâce à une gestion avancée du cycle de vie des applications. Il permet également de contrôler le flux d’applications sur les nœuds, la gestion de la configuration Day-2 à l’aide d’Ansible. La gestion avancée des clusters (ACM) vise à fournir des solutions de santé des clusters liées au stockage, à l’optimisation et au dépannage. Les outils de surveillance d’OpenShift sont bien conçus pour fonctionner avec facilité et efficacité.

Red Hat Advanced Cluster Security pour Kubernetes (ACS)

L’ACS a été ajouté à la famille OpenShift après l’acquisition de StackRox, faisant de l’ACS le composant central d’OpenShift Platform Plus. Ce dispositif de sécurité est différent des mesures de sécurité déployées précédemment. Auparavant, les protocoles de sécurité étaient appliqués après le développement de l’application. ACS permet d’inclure la sécurité dès le début, c’est-à-dire dans la base de code. Les fonctions de sécurité avancées renforcent chaque étape du cycle de vie du développement des applications.

La sécurité avancée des clusters suit les normes internationales de sécurité des conteneurs, comme les références CIS et NIST. Les protocoles de sécurité comprennent la sécurité contre les violations de données, la protection des réseaux, l’élimination des angles morts, la réduction du temps et des coûts par la mise en œuvre efficace des codes de politique de sécurité, l’évitement des conflits opérationnels, le chevauchement des données et la redondance. ACS est une exécution parfaite des protocoles DevSecOps.

Red Hat Quay

Un registre de conteneurs est une plateforme de stockage utilisée pour stocker des conteneurs pour Kubernetes et d’autres développements d’applications basées sur des conteneurs comme DevOps. Lorsqu’une application conteneur est formée, son image est créée. Il s’agit d’une sorte de fichier .exe qui contient tous les fichiers et composants nécessaires à une installation réussie. Lorsqu’une image de conteneur est placée sur d’autres plateformes, elle est utilisée pour créer la même application de conteneur. Une image de conteneur est un modèle utilisé pour créer d’autres applications.

Red Hat Quay est un registre de conteneurs privé utilisé pour créer, distribuer et stocker des images de conteneurs. Lorsque l’image du conteneur est partagée sur le dépôt du réseau, des vulnérabilités spécifiques apparaissent. RedHat Quay utilise la sécurité Clair pour faire face à ces vulnérabilités en fournissant des contrôles d’accès stricts, des protocoles d’authentification et d’autres problèmes de distribution.

Caractéristiques de RedHat Quay

  • Chaque image est marquée avec l’horodatage ; RedHat Quay offre Time Machine pour marquer la version de l’image et la capacité de retour en arrière comme la mise à niveau ou la restauration des paramètres d’usine. Il fournit un historique configurable de deux semaines pour les balises d’image.
  • La distribution géographique garantit des images rapides et impeccables grâce aux réseaux de distribution de contenu (CDN), de sorte que chaque point d’accès dispose d’un référentiel proche. RedHat Quay utilise également la technologie BitTorrent pour réduire le temps d’attente pour la disponibilité du contenu.
  • La collecte des déchets de ressources au moment de l’exécution permet d’identifier les opérations inutiles ou moins utilisées afin d’optimiser l’utilisation des ressources et d’accroître l’efficacité.
  • RedHat Quay offre un stockage illimité pour de multiples collections d’images.
  • Déclenchement automatisé pour le pipeline d’intégration et livraison continue (CI/CD)
  • Audit basé sur les journaux en analysant les API et les interfaces utilisateur
  • Les protocoles d’authentification utilisant LDAP, OAuth, OIDC et keystone garantissent une connexion sécurisée et un contrôle d’accès hiérarchique organisationnel.
  • L’automatisation des comptes permet de créer les informations d’identification nécessaires à l’exécution du programme.
  • Adaptabilité multiplateforme

Prix de RedHat OpenShift Platform Plus

Les fonctionnalités avancées d’OpenShift Platform Plus sont réputées être disponibles entre avril 2021 et juin 2021. Le prix actuel n’est pas encore disponible. OpenShift.io est une plateforme gratuite de déploiement en nuage. Le coût de Platform Plus dépend de la taille et de l’abonnement. Selon Capterra, chaque fonctionnalité Plus coûte 20 dollars par mois pour les plans autogérés. Une meilleure façon de lire et de choisir un modèle d’abonnement, et de contacter notre service commercial. Vous pouvez également demander une démo d’OpenShift Plus gratuitement.

Formation et services professionnels sur RedHat OpenShift Platform

Nous proposons des formations Kuberneteset OpenShift et nous pouvons vous aider à acheter, déployer et gérer votre Environnement OpenShift sur IBM Power Systems. Contactez nous pour plus d’informations

Nouveaux cours IBM QRadar mis à jour à la version 7.4.2

De tous les cours IBM, les cours QRadar SIEM sont peut-être les plus demandés et les plus appréciés par les clients et les partenaires d’IBM. Par conséquent, à partir de juin 2021, les nouveaux cours officiels seront disponibles : QRadar SIEM Fundamentals (BQ104G) et QRadar SIEM advanced functionalities (BQ204G) . Nous avons également mis à jour notre atelier d’avant-vente, d’architecture, de déploiement et de configuration initiale à la version 7.4. Depuis 2014, nous avons formé plus de 35 clients et 400 étudiants de 20 pays différents à cette technologie étonnante. Nous avons transmis toute notre expérience pratique dans des projets réels et avons aidé à passer avec succès les certifications officielles.

Qu’est-ce que QRadar ?

La solution leader du marché pour la prévention, la détection et la correction des incidents de sécurité. Des centaines de SOC (Security Operations Centers) dans le monde entier s’appuient sur la technologie développée par Q1 Labs et acquise par IBM en 2011 pour compléter leurs capacités de cybersécurité. QRadar nous permet de relier des événements allant de la sécurité physique (contrôles d’accès), des lecteurs de cartes d’identité, des dispositifs OT à l’infrastructure de services déployée dans le cloud ou même aux journaux d’activité quotidienne des utilisateurs. Ses capacités nous permettent d’analyser des milliers d’événements par seconde afin de garantir que notre organisation est non seulement sécurisée, mais aussi conforme aux réglementations et à la législation en vigueur dans le secteur. QRadar a également conclu des partenariats stratégiques avec Juniper Networks, Enterasys, Nortel, McAfee, Foundry Networks et 3Com, entre autres entreprises. Le produit est si puissant que nombre de ces entreprises vendent leurs propres SIEM basés sur la technologie QRadar.

Quoi de neuf ?

Au cours de la dernière année et demie, beaucoup de choses ont changé. De l’interface utilisateur, qui a été entièrement remaniée, aux nouvelles applications qui vous permettent d’analyser les incidents de manière entièrement automatisée. Par exemple, l’application QRadar Advisor avec Watson (IBM AI) fait automatiquement correspondre les tactiques et techniques disponibles dans la base de données MITRE ATT&CK aux règles internes de QRadar. Grâce à un tableau de bord de surveillance innovant, vous pouvez voir les techniques utilisées par les attaquants et leur relation avec les incidents de sécurité ouverts.

Les nouvelles versions vous permettent d’utiliser les conseils et les astuces fournis par IBM QRadar Use Case Manager (anciennement QRadar Tuning app) pour vous aider à optimiser la configuration et le réglage des règles QRadar, en les maintenant toujours à jour et prêtes pour le moment où elles sont nécessaires.

 

Qu’en est-il des certifications ?

Nous aidons depuis longtemps à préparer les examens officiels d’IBM dans les technologies que nous enseignons. C’est pourquoi nous avons décidé qu’à partir de juin 2021, nous inclurons sans coût supplémentaire une journée de préparation aux certifications dans tous les cours privés qui nous sont confiés avec au moins 4 étudiants inscrits.

Je veux m’inscrire à un cours

Contactez-nous et vous recevrez une offre en moins de 24 heures. Tous les cours sont dispensés à la fois en face-à-face et par apprentissage à distance. Nos instructeurs parlent anglais, français et espagnol.

Vous avez besoin d’aide ?

Chez Sixe Ingeniería, nous sommes BP Sécurité IBM. Nous vendons, installons et supportons IBM QRadar SIEM. Nous menons également des formations sur mesure, des séminaires et des conférences techniques. Nous vous conseillons également sur les licences et la définition de l’architecture dont vous avez besoin, sans frais supplémentaires. Demandez une démonstration du produit sans engagement.
SIXE
×