sap hana

Serveurs IBM Power10 pour SAP HANA à des prix imbattables

IBM a publié sa dernière offre de serveurs haute performance Power10 pour SAP HANA, qui repose sur sa gamme de serveurs à un ou deux sockets avec entre 2 et 6 To de RAM, avec des réductions de près de 50 %.

SAP HANA repose sur une conception où le traitement et l’analyse en temps réel de grands volumes de données sont effectués entièrement en mémoire, ce qui garantit des performances nettement supérieures à celles des environnements SAP classiques. HANA aide les entreprises du monde entier à gérer les données critiques et à prendre des décisions commerciales basées sur des informations précises et en temps réel.

Qu’apporte IBM Power10 ?

Le Power10 d’IBM est le premier serveur à offrir une prise en charge native de SAP HANA, ce qui en fait une option intéressante pour les entreprises qui souhaitent déployer cette plateforme. Grâce à sa capacité à traiter de grands volumes de données et à effectuer des analyses en temps réel, le Power10 peut améliorer considérablement l’efficacité des opérations commerciales.

Lire la suite

“Le vendeur m’a trompé” ou pourquoi vous avez besoin d’un service Radar technologique

Le titre de cet article, “le vendeur m’a trompé”, est l’un des débuts les plus courants de nos conversations avec les nouveaux clients. De grands projets peu rentables, voire l’omission d’informations clés qui, si elles avaient été connues, auraient changé le cours des décisions technologiques stratégiques. Des spécifications incroyables où quelqu’un oublie les services professionnels nécessaires pour mettre la solution en place et la faire fonctionner, ou la formation adéquate du personnel qui l’exploitera pendant les années à venir. Lire la suite

Alma et CentOS Linux sur IBM Power (ppc64le)

Au cours des deux dernières années, le projet CentOS, une distribution Linux communautaire basée sur Red Hat et compatible binairement avec celui-ci, a subi de nombreux changements. Comme pour d’autres projets de logiciels libres, cette distribution populaire (et stable), utilisée par des entreprises et des organisations du monde entier, est devenue une “version de développement” de Red Hat Enterprise Linux. Il en va de même pour oVirt contre RHEV ou Foreman + Katello contre Satellite. En contrepartie, Red Hat offre des licences gratuites pour les petits déploiements et a élargi les options d’abonnement éducatif.

Qu’en est-il de CentOS Stream ?

Ce n’est pas que CentOS Stream n’est plus stable, ou que ses utilisateurs deviennent involontairement des bêta-testeurs . de Red Hat Enterprise, mais des aspects fondamentaux ont été modifiés. Jusqu’à présent, lorsque Red Hat sortait la version X, quelques mois plus tard, les mêmes versions des mêmes paquets étaient compilées, créant un “clone” avec les mêmes fonctionnalités pour ceux qui n’avaient pas besoin d’un support de niveau entreprise. Ce n’est plus le cas (les mises à jour et les modifications deviennent plus fréquentes) et les utilisateurs du monde entier se demandent ce qu’ils doivent faire. Le CERN en Suisse, par exemple, a décidé de s’en tenir à CentOS Stream pour l’instant. Peut-être parce qu’il vaut mieux connaître le diable que de ne pas le connaître, mais… C’est une autre histoire.

En parallèle, Ubuntu, Red Hat et SUSE offrent tous leurs dépôts pour x86 mais aussi pour ARM et ppc64le (Linux on IBM Power), nous étions donc très intéressés à tester si ces nouvelles distributions CentOS heir étaient compilées pour ces architectures et si nous pouvions migrer vers elles depuis CentOS Stream. Si tel est le cas, nous pensons que cela pourrait inciter les clients qui possèdent (ou envisagent d’acquérir) des serveurs Power d’IBM à donner une chance à cette technologie, qui, si elle est déployée avec succès, permet non seulement d’obtenir de bien meilleures performances par cœur, mais aussi de réduire considérablement les coûts de licence et les heures nécessaires à la maintenance technique.

Alma contre CentOS, Rocky et Oracle Linux

Dans ce tableau, nous avons les distributions basées sur Red Hat que nous pouvons (ou allons) installer sur IBM Power, et leurs principales caractéristiques.

Comparaison avec RHEL AlmaLinux Oracle Linux Rocky Linux CentOS Stream CentOS Linux
Disponible auprès de Mars 2021 2006 Juin 2021 2019 2004
Compatibilité binaire 1:1 avec RHEL Oui Presque *
(changements dans glibc, openssl…)
Oui Les limites de l’ACG s’appliquent. Oui
Mises à jour tous les Quotidiennement Quotidiennement Quotidiennement RHEL Upstream Quotidiennement
Cycle de vie 10 ans 10 ans 10 ans 5 ans EOL le 2021-12-31
Soutien commercial Tiers Oracle, tiers Tiers Tiers Tiers
Support PowerPC Oui Oui Pas encore. Oui Oui
Support pour s390x Pas encore. À déterminer À déterminer Oui Oui
Propriété de : Fondation du système d’exploitation AlmaLinux Oracle Inc Fondation Rocky Enterprise Software Red Hat Inc Red Hat Inc
Type d’organisation du propriétaire Sans but lucratif 501(c)6 Société à but lucratif C-Corp À but lucratif, société d’intérêt public Société à but lucratif C-Corp Société à but lucratif C-Corp

Comme vous pouvez le constater, si nous cherchons une alternative à CentOS Linux for Power, AlmaLinux semble être l’option la plus intéressante et avec 10 ans de mises à jour dans chaque version.

Test d’AlmaLinux (ppc64le)

Afin d’écrire cet article, nous avons effectué deux types de tests. La première consistait à installer AlmaLinux à partir du DVD AlmaLinux sur un serveur Power8. Comme vous pouvez le constater, à part le démarrage à partir du LPAR SMS, l’installation est la même que sur un système x86.

Que faire si nous voulons migrer de CentOS Stream vers AlmaLinux ?

Il existe un script que vous pouvez télécharger ici, que nous avons téléchargé dans un second environnement avec un CentOS Stream fraîchement mis à jour.

$ wget https://raw.githubusercontent.com/AlmaLinux/almalinux-deploy/master/almalinux-deploy.sh

Vous devez modifier ce script avant de l’exécuter

$ vi almalinux-deploy.sh

Et modifiez la ligne suivante, où il vérifie l’architecture parce que ppc64le EST SUPPORTE et que nous avons tous les paquets logiciels disponibles (nous allons le vérifier).

Ensuite, nous exécutons le script, que vous devrez probablement lancer avec l’option -d pour passer de la version actuelle de CentOS Stream à AlmaLinux 8.X (elle sera toujours légèrement plus ancienne que la dernière version de CentOS Stream).

 

Vous pouvez ensuite installer epel-release et le reste des dépôts avec des logiciels supplémentaires comme vous le feriez dans n’importe quel environnement x86.

S’agissant d’un environnement IBM Power, il est conseillé d’installer les paquets logiciels qui ajoutent des fonctionnalités (basées sur les commandes AIX) pour pouvoir gérer correctement tous les HW, accéder à la console HMC et pouvoir effectuer des changements de configuration sans redémarrer les systèmes.

$ yum install wget
$ wget ftp://public.dhe.ibm.com/software/server/POWER/Linux/yum/download/ibm-power-repo-latest.noarch.rpm
$ rpm -ivh –nodeps ibm-power-repo-latest.noarch.rpm

Ici, une fois encore, vous devez modifier le script de configuration pour qu’il fonctionne sur AlmaLinux. Vous verrez qu’il y a une sortie 1 si ce n’est pas centos/suse/redhat que nous allons modifier pour qu’elle ressemble à ceci

$ vi /opt/ibm/lop/configure

$ chmod +x /opt/ibm/lop/configure

$ /opt/ibm/lop/configure

Installer le dépôt epel (contient beaucoup de logiciels supplémentaires)

$ yum install epel-release

Et nous pouvons voir que les nouveaux dépôts sont déjà actifs.

$ yum repolist

migra

Nous téléchargeons les utilitaires PowerVM pour la LPAR Linux à gérer depuis la HMC.

$ yum install src ksh rsct.core.devices.chrp.base.ServiceRM DynamicRM

Et redémarrez les services RMC (qui sont utilisés pour ajouter ou supprimer dynamiquement de la mémoire et des processeurs).

$ /usr/bin/rmcctrl -z
$ /usr/bin/rmcctrl -A
$ /usr/bin/rmcctrl -p

Le test final

Nous allons utiliser un long script pour déployer un serveur web, une base de données et un site WordPress.

$ wget https://github.com/UncleDan/linux-scripts/blob/master/wordpress-centos8.sh

$ bash wordpress-centos8.sh

Nous avons entré notre IP avec le navigateur et Wodpress a fonctionné ! Il y a deux ans, nous ne pouvions pas dire que cela fonctionnerait avec cette sécurité. Nous sommes heureux de constater que de nombreux progrès ont été réalisés et que le support des applications ppc64le est de plus en plus étendu et complet. Nous vous encourageons à l’essayer, sans avoir à investir dans de nouvelles licences.

Quelles autres applications et services pouvons-nous déployer sous Linux sur IBM Power ?

Pour terminer cet article, nous vous laissons avec une liste d’applications disponibles dans OpenShift for Power et donc entièrement prises en charge sur toute distribution basée sur Red Hat, comme AlmaLinux et CentOS. Qu’est-ce que vous attendez ?

Systèmes d’exploitation de conteneurs (docker / runC)

+ Red Hat
+ CentOS
+ SUSE
+ BusyBox
+ AlpineLinux
+ Ubuntu
+ Debian

Middleware

+ WebSphere Liberty
+ Open Liberty
+ Apache Tomcat
+ ActiveMQ
+ JBoss
+ WildFly
+ LapinM
+ WordPress

Langues

+ Jenkins
+ Ansible
+ Kubernetes
+ Red Hat OpenShift
+ Gradle
+ Maven
+ Terraform
+ Travis CI
+ Python
+ Java
+ PHP
+ GoLang
+ OpenJDK
+ NodeJS
+ R
+ Ruby

 

Bases de données

+ MongoDB
+ Redis
+ MySQL
+ Cassandra
+ MariaDB
+ PostgreSQL
+ Memcached
+ IBM Db2

Analytique et IA

+ Grafana
+ Kibana
+ Elasticsearch
+ Logstash
+ Fluentd
+ Kafka
+ IBM Watson Studio
+ IBM Watson ML

Stockage

+ Interface de stockage des conteneurs
+ IBM Spectrum Virtualize
+ Pilote IBM PowerVC CSI
+ NFS

Communications

+ Prometheus
+ Nginx
+ Serveur Apache HTTP
+ ZooKeeper
+ HAP oxy
+ etcd

 

Mythes, vérités et notre point de vue sur les IBM Cloud Paks

Avec l’achat de Red Hat par IBM, l’ensemble du portefeuille de solutions logicielles pour la cybersécurité, les applications, les bases de données, l’automatisation et la gestion du cloud hybride a été porté sur OpenShift sous la marque IBM Cloud Paks. Les IBM Cloud Paks . Cela signifie que nombre de ces applications ont été repensées et adaptées pour fonctionner au-dessus des conteneurs (bien que certaines, comme QRadar, le fassent depuis des années) et être contrôlées par Kubernetes, qui est l’orchestrateur de conteneurs sur lequel OpenShift est basé.

Comment les IBM Cloud Paks sont-ils déployés ?

Les IBM Cloud Paks sont installés dans un environnement PaaS avec OpenShift aussi bien dans les propres centres de données sur IBM Power Systems, VMWare, KVM (RHEV / LinuxONE) que dans les clouds publics de Microsoft (Azure), IBM, Amazon (AWS) et Google (GCP). Grâce à IBM Satellite, il peut être déployé à la fois sur site et dans le nuage, au moyen d’une architecture hybride flexible. Notre site
département des services professionnels
peut vous aider.

Comment les IBM Cloud Paks sont-ils licenciés ? Combien coûtent-ils ?

C’est peut-être l’une des parties les moins connues et, à notre avis, les plus controversées. IBM a toujours vendu des licences perpétuelles pour toutes ses solutions logicielles. Ces licences sont assorties d’une assistance technique de base pour les problèmes de matériel et d’une assistance plus avancée pour les logiciels (SWMA), qui peut être renouvelée tous les trois ans. En passant à un environnement en nuage, nous nous dirigeons vers des systèmes de paiement à l’utilisation, qui sont très évolutifs et, pour être honnête, parfois… compliqué à estimer. Par exemple, Data propose ces prix par “cœur virtuel”. C’est-à-dire, de quelques centaines de dollars à quelques centaines de milliers… :)

Cela présente des avantages évidents pour les solutions pour lesquelles il est judicieux de renouveler le soutien, comme les solutions ouvertes et extrêmement complexes telles que celles basées sur les microservices et les conteneurs. Les clients qui ne sont pas à l’aise avec ce modèle peuvent continuer à acheter des appliances ou des licences pour déployer nombre de ces solutions dans leur infrastructure moyennant un paiement unique et un support optionnel à renouveler tous les plusieurs années. Dans d’autres, c’est le seul modèle, car il s’agit de solutions natives pour Kubernetes et les environnements basés sur le cloud.

Dois-je avoir OpenShift pour installer un IBM Cloud Pak ?

Réponse courte : oui. Toutefois, si vous n’en disposez pas, vous pouvez le déployer sans trop de problèmes grâce aux installateurs inclus dans les dernières versions, soit sur votre propre infrastructure, soit sur une infrastructure externe (IaaS) de votre fournisseur de cloud préféré.

Les packs IBM Cloud en valent-ils la peine ?

En tant que bon vers libre dans le secteur des intégrateurs de systèmes, nous pensons que certains le font, et d’autres non (du moins pour l’instant). Cela dépend de la façon dont ils vont être utilisés, de la dépendance que nous avons avec d’autres applications et du niveau de maturité dans l’adoption des conteneurs et l’utilisation de Kubernetes dans notre organisation. Si vous débutez avec Dockers, OpenShift et les environnements de cloud computing, il est peut-être préférable de s’en tenir à un bon outil d’aide à la décision.
plan de transformation numérique et de modernisation
plutôt que de “mettre la charrue avant les bœufs”.

Existe-t-il des cours ou des formations IBM Cloud Paks ?

Pour tirer parti de cette technologie, vous devez maîtriser à la fois l’infrastructure (OpenShift), pour laquelle une formation officielle est proposée par Red Hat, et un atelier pratique intensif mis sur pied par nos soins. Une fois l’infrastructure maîtrisée, vous devrez vous former aux différents produits et solutions IBM qui vous intéressent, car il s’agit de collections de logiciels regroupés par catégorie et dont les licences sont communes. Le Cloud Pak pour la sécurité, par exemple, est principalement la plateforme SOAR QRadar d’IBM, tandis que le Cloud Pak pour les applications comprend toute la suite Websphere.

Cela dit, si vous le voulez,on peut en discuter.

 

Nouvelle certification d’analyste en cybersécurité avec QRadar SIEM 7.4.3

Il vient de passer la première des nouvelles certifications IBM QRadar SIEM. Comme toujours, ils ont commencé par le plus simple, celui d’un analyste. Elle est destinée aux professionnels qui souhaitent valider leurs connaissances de QRadar SIEM en version 7.4.3. L’examen est le C1000-139, intitulé “IBM Security QRadar SIEM V7.4.3 – Analysis” et la certification délivrée est“IBM Certified Analyst – Security QRadar SIEM V7.4.3“.

Comme vous le savez (et si vous ne le savez pas, nous vous en parlerons), la principale nouveauté de la version 7.4 est le changement de l’interface utilisateur. Ils ont inclus des tableaux de bord de contrôle et de surveillance pour améliorer la visibilité des incidents de sécurité, avec des correspondances concrètes avec des méthodologies telles que MITRE ATT&CK. C’est un moyen de normaliser les incidents, de donner un peu d’abstraction au produit, de nous donner une vue de plus haut niveau de ce qui se passe, au-delà des règles spécifiques qui ont été appliquées et des chaînes d’événements qui ont été générées.

En tant que conditions préalables (ne faisant pas partie de l’examen), il est nécessaire d’être compétent :

  • Concepts du SIEM (ce qu’il est, ce qu’il n’est pas et à quoi il sert)
  • Maîtriser la théorie des réseaux TCP/IP
  • Avoir une bonne connaissance de la terminologie de la sécurité informatique.
  • Apprenez à connaître les différents modules et plugins de QRadar, tels que Network Insights ou Incident Forensics.

Pourquoi nous pose-t-on la question à l’examen ?

  • Analyse des infractions à la sécurité et des événements (logs, flux réseau, etc.)
  • Compréhension des listes de données de référence (sets, maps, tables, etc.)
  • Maîtriser les règles et les éléments constitutifs
  • Savoir chercher dans les rapports, les créer de toutes pièces, les programmer, les modifier, etc.
  • Avoir une connaissance de base de l’architecture QRadar, principalement de ses composants, des licences et de la configuration au niveau du réseau.
  • Enfin, les configurations multi-domaines et multi-clients, qui semblent devenir de plus en plus à la mode, ont une section dédiée dans cette revue.

Dois-je renouveler ma certification ?

À notre avis, si vous êtes certifié sur les versions 7.2.X ou 7.3.X, il n’est pas nécessaire de se recertifier. Une autre chose est que votre entreprise exige qu’il maintienne un certain niveau de partenariat avec IBM ou qu’il s’agisse d’une exigence pour un appel d’offres public. Toutefois, si vous devez obtenir une certification, profitez-en au maximum et faites-le lorsque les nouvelles versions sont publiées.

Quand le reste des certifications 7.4.2 sera-t-il publié ?

Administrateur” et “professionnel du déploiement” seront publiés entre ce trimestre et le trimestre prochain. Les différences entre tous ces produits ont été abordées il y a quelque temps dans cet article. Bien que les versions changent, les types d’examens et leurs objectifs sont les mêmes.

Pouvez-vous nous aider avec QRadar ?

Bien entendu, nous proposons des formations, des services professionnels, une assistance et nous vendons et renouvelons également vos licences. Contactez-nous et parlons-en.

Mettez à niveau votre IBM Power9 ou vos LPARs risquent de ne pas démarrer.

Nous négligeons souvent la nécessité d’effectuer des mises à jour préventives non seulement du système d’exploitation (AIX, Linux, IBM i) mais aussi du FW des serveurs IBM Power. IBM publie des correctifs pour les problèmes que d’autres clients ont rencontrés et il n’est généralement pas nécessaire que vous fassiez de même. Ce faisant, nous protégeons nos systèmes contre toutes sortes de menaces et de vulnérabilités externes et internes.

Le problème dont nous avons parlé dans ce court article est un bogue qui empêchait les LPAR de démarrer sur les serveurs Power9 s’ils étaient en fonctionnement depuis plus de 814 jours. Cela ressemble un peu aux imprimantes d’il y a quelques années qui n’ont pas réussi à imprimer plusieurs centaines de milliers de pages, on ne sait jamais si c’était délibéré ou une erreur. Dans le cas d’IBM, il s’agit d’un bug reconnu du firmware qui est corrigé avec la mise à jour VH950_045_045 / FW950.00 disponible à partir du 23 novembre 2020. Donc, si vous êtes un client d’IBM et qu’au cours des deux dernières années, vos anciens systèmes Power9 n’ont pas été mis à niveau, vous risquez d’avoir ce problème pour le reste de l’année.

Voici un indice, l’erreur est CA000040 qui empêche le LPAR de démarrer et dont la solution temporaire pourrait être d’utiliser le mode de compatibilité Power8 à partir de la HMC ou ASMI pendant que vous installez les mises à jour en attente.

Chez Sixe, nous assurons la maintenance préventive des systèmes IBM Power de nos clients depuis plus de 15 ans. Nous pouvons vous aider à surveiller, mettre à jour et maintenir préventivement l’ensemble de votre infrastructure. Systèmes de serveurs et de stockage IBM et Lenovo. Nous vous aidons également à minimiser les coûts de licence et offrons les meilleurs prix pour les mises à niveau vers les nouvelles générations de serveurs IBM Power. Contactez-nous pour plus d’informations.

Installation et test de la nouvelle version IBM AIX 7.3

Après avoir rejoint le programme OpenBeta d’IBM, nous avons pu télécharger et tester la nouvelle version d’AIX 7.3 à l’occasion de son 35e anniversaire.

Parmi ses nouveautés, citons les suivantes :

  • Les frameworks Python et Bash qui fonctionnent directement avec AIX, pas besoin de les réinstaller manuellement !
  • Prise en charge de la commande dnf (standard dans Red Hat) pour l’installation de paquets open source à partir de la boîte à outils AIX. AIX a longtemps parlé de Linux, mais depuis la version 7.3, il est de plus en plus intégré, offrant aux développeurs et aux administrateurs système toutes les fonctionnalités nécessaires à la modernisation des environnements UNIX.
  • Réduction du temps nécessaire pour ajouter dynamiquement des processeurs/mémoire à une LPAR en cours d’exécution, utile pour les LPAR dont les bases de données utilisent des centaines de Go ou plusieurs To de RAM. Cela va de pair avec la réduction de l’IPL pour ces partitions.
  • Les commandes pigz et zlibNX utilisent désormais de manière transparente l’accélération GZIP de NX dans Power9 et Power10.
  • Amélioration de la prise en charge du chiffrement des volumes logiques (LVM) pour inclure le rootvg et le dump device.
  • La pile de protocoles TCP prend désormais en charge CUBIC, un algorithme d’évitement de la congestion du réseau TCP qui permet d’établir des connexions à large bande passante sur les réseaux de manière plus rapide et plus fiable.
  • Améliorations supplémentaires de la sécurité IP (IPsec)
  • Possibilité de créer un fichier OVA à partir d’un mksysb en utilisant la commande create_ova afin d’accélérer les déploiements dans les nuages (PowerVS) et hybrides.
  • Création d’une image ISO à partir de la nouvelle commande mksysb_iso
  • Intégration avec les nouveaux compilateurs C/C++ et Fortran d’IBM Open XL
  • Augmentation de la taille des fichiers et du système de fichiers
  • Amélioration de la prise en charge d’Ansible et d’Ansible Tower
  • Intégration avec PowerVC 2.

 

Découvrez les nouveaux serveurs IBM Power10 et AIX 7.3

Le pouvoir de 10

Le 8 septembre est la date de l’annonce officielle des nouveaux serveurs d’IBM équipés de processeurs Power10, qui sera suivie de l’annonce de la version 7.3 d’AIX, qui aura 35 ans en 2021. Sur la base des caractéristiques techniques disponibles, nous savons qu’ils intègrent de la mémoire DDR5, une interface PCIe 5.0 et sont conçus à l’aide de la technologie 7nm de Samsung. Les processeurs Power10 seront à nouveau disponibles en deux versions. L’un avec 15 cœurs en mode SMT-8 (idéal pour AIX et IBM i) et les autres avec 30 cœurs et SMT-4 pour les charges de travail exclusivement Linux. Les puces Power10 intègrent également des améliorations majeures pour l’intelligence artificielle (IA), lui permettant d’exécuter des charges d’apprentissage automatique jusqu’à 20 fois plus rapidement que POWER9.

Un million de SAPS. L’infrastructure compte beaucoup.

Comme d’habitude, les premiers systèmes annoncés seront des systèmes évolutifs conçus pour des environnements hautement virtualisés avec des applications gourmandes en ressources telles que SAP HANA. Les benchmarks publiés indiquent que 1 million de SAPS sont atteints avec 120 cœurs, soit la moitié du nombre de cœurs nécessaires dans la génération précédente de Power9 dans les serveurs E980. Par rapport aux serveurs tiers actuellement disponibles cette année, HPE a atteint environ 670 000 SAPS (équivalent à environ 120 000 utilisateurs simultanés) en utilisant 224 cœurs dans son Superdome Flex 280 basé sur les processeurs les plus puissants d’Intel (le Xeon Platinum). Pour ceux qui n’y connaissent pas grand-chose, l’autre chose à lire est que la performance par cœur a continué à s’améliorer considérablement alors que le reste des fabricants la font stagner en ajoutant d’autres matériels complémentaires (mémoires flash, plus de cœurs, etc.).

Toute la mémoire dont vous avez besoin

L’avènement de la technologie “Memory Inception” permet de créer des grappes de systèmes qui partagent la mémoire entre eux, avec jusqu’à plusieurs pétaoctets de RAM disponibles pour un seul environnement divisé en plusieurs serveurs physiques. IBM se positionne ainsi comme un leader dans le développement de technologies matérielles pour les clusters d’applications sur Red Hat OpenShift. Des serveurs “de taille moyenne” à deux et quatre sockets seront annoncés sous peu, où nous pourrons continuer à bien déployer des environnements mixtes IBMi, AIX et Linux.

Cryptage de bout en bout

Nous ne pouvons pas terminer cet article sans mentionner l’une des principales caractéristiques de la plate-forme Power d’IBM, à savoir la sécurité des données. Les nouveaux processeurs intègrent quatre fois plus de composants de cryptage AES pour anticiper les besoins des normes cryptographiques à venir à partir de 2022, telles que la cryptographie à sécurité quantique ou le cryptage entièrement homomorphique. Tout cela s’applique aux nouvelles charges de travail basées sur les conteneurs, où la sécurité est devenue la principale préoccupation des organisations qui les utilisent.

AIX 7.3, UNIX au-delà de 2030

Même si cela fera l’objet d’un autre article, avec l’arrivée de Power10, la nouvelle version d’AIX sera annoncée, qui sera la 7.3, ce qui n’était pas arrivé depuis 2015. La numérotation est une question de marketing. Si IBM avait choisi d’appeler cette version 8.1, cela aurait pu soulever des questions quant à l’impact des nouvelles fonctionnalités sur la stabilité des applications existantes, mais comme toute nouvelle version, elle intègre de nombreuses nouvelles fonctionnalités intéressantes. Aujourd’hui, nous continuons à déployer de nouveaux environnements sur AIX, ainsi qu’à en migrer d’autres depuis Solaris, HP-UX et même Linux.

Chez tous nos clients, grands et moyens, il existe une partie de leur environnement de production où sont traitées les informations qui font vivre leurs activités et leurs processus internes. Où installez-vous Oracle, DB2, SAP, SAS, etc ? Dans AIX. Aucun autre système d’exploitation de type UNIX n’offre la même maturité, stabilité, performance et évolutivité. C’est un UNIX moderne, avec une grande compatibilité avec les applications modernes telles que Chef, Puppet, Ansible et qui coexiste merveilleusement avec le reste des environnements basés sur Linux, IBM i ou Z/OS, qui a encore beaucoup de vie devant lui et la nouvelle version 7.3 en est une bonne preuve. Il présente également trois grands avantages pour les services et les administrateurs système : tout fonctionne (contrairement à la sensation de bêta-testeur si ancrée dans Linux), il fonctionne sur les serveurs les plus stables et les plus robustes qui existent (à l’exception de l’ordinateur central) et vous n’apprenez qu’une fois, au lieu d’apprendre à chaque fois qu’une nouvelle version est publiée : nous nous souvenons tous du moment où “ifconfig -a” a cessé de fonctionner dans Red Hat :)

Il est temps de renouveler les équipements, les licences… et de procéder à des mises à niveau.

Avec l’arrivée d’une nouvelle technologie de processeur, les “soldes” commencent chez IBM. Si vous avez des équipements Power7 ou Power8 dont les contrats de maintenance arrivent à échéance (ou sont déjà hors service) et que vous vous demandez si vous devez les renouveler ou non, nous pouvons vous aider. Nous vous conseillons sur la manière d’économiser beaucoup d’argent grâce à nos services d’audit et de renouvellement de licences, d’utiliser à 100% votre équipement IBM Power et de vous proposer denouveaux serveurs Power9 et bientôt Power10 à prix coûtant.

Avez-vous besoin d’un soutien technique ?

Chez Sixe Ingeniería, nous offrons un support technique et une maintenance préventive d’AIX et Linux sur Power Systems directement et sans intermédiaire. Nous serons heureux de vous aider.

Saisissez la véritable puissance de CI/CD avec Tekton et Kubernetes Pipelines

L’introduction des pipelines Kubernetes (Tekton) a révolutionné la façon dont nous gérons les flux de travail CI/CD dans le développement logiciel. L’ajout de Tekton, le framework natif de Kubernetes, nous a donné plus de puissance et de flexibilité dans la création et la gestion des pipelines. Cet article se concentre sur l’importance de Kubernetes Pipelines et de Tekton sur Red Hat OpenShift, et sur la manière dont ces outils peuvent vous aider à rendre votre processus de développement véritablement continu.

Qu’est-ce qu’un pipeline ?

Un pipeline est un processus automatisé qui conduit le logiciel à travers les étapes de construction, de test et de déploiement du cycle de vie du développement logiciel. En d’autres termes, un pipeline exécute le flux de travail d’intégration continue et de livraison continue (CI/CD). Il gère automatiquement les tâches d’exécution de la suite de tests, d’analyse du code, de création de binaires, de conteneurisation et de déploiement des modifications dans le nuage ou dans les solutions sur site.

Pourquoi construire des pipelines avec Kubernetes ?

Alors que le monde du développement s’oriente vers des applications basées sur des microservices plutôt que sur des applications monolithiques, le processus CI/CD est devenu véritablement continu avec des mises à jour incrémentielles de la base de code qui peuvent être déployées indépendamment.

Dans un tel contexte, Kubernetes simplifie le processus de création et de maintenance des pipelines CI/CD. Il déploie chaque microservice sur un seul cluster Kubernetes et maintient plusieurs copies de chaque microservice pour servir de versions dev, test et prod.

Avec les pipelines Kubernetes, vous n’avez plus besoin de reconstruire l’ensemble de l’application à chaque construction. Au lieu de cela, Kubernetes met à jour le conteneur du microservice et le déploie via le pipeline défini. Il n’est plus nécessaire d’écrire des scripts de construction, car Kubernetes gère automatiquement le processus avec seulement quelques options de configuration que nous fournissons. Cela réduit le risque d’erreurs humaines dans le flux de travail CI/CD.

Qu’est-ce que Tekton ?

Tekton vous permet de faire passer les pipelines Kubernetes au niveau supérieur. Il s’agit d’un cadre open-source, natif de Kubernetes, pour le développement de pipelines CI/CD. Tekton fournit des extensions aux définitions de ressources personnalisées (CRD) dans Kubernetes pour faciliter la création et la normalisation des pipelines. Il dispose d’un support intégré pour le couplage avec les outils CI/CD existants dans le secteur, tels que Jenkins, Jenkins X, Skaffold, Knative et OpenShift.

L’intégration OpenShift de Tekton, baptisée OpenShift Pipelines, apporte encore plus de puissance et de souplesse à ce système grâce aux outils de développement RedHat et OpenShift.

Pourquoi utiliser Tekton ?

Les pipelines Tekton utilisent les clusters Kubernetes comme type de première classe et les conteneurs comme principaux éléments constitutifs. La nature découplée de Tekton garantit que vous pouvez utiliser un seul pipeline pour déployer sur des clusters Kubernetes distincts. Il est ainsi plus facile de déployer des services sur plusieurs solutions en nuage fournies par différents fournisseurs, voire sur des systèmes sur site.

Tekton vous permet d’exécuter les tâches automatisées de manière isolée, sans être affecté par d’autres processus en cours dans le même système. Une autre spécialité de Tekton est la flexibilité qu’elle offre pour changer de ressources, telles que les dépôts GitHub, entre deux exécutions du pipeline.

Il facilite également la mise en œuvre du pipeline en fonction du type de ressource. Par exemple, vous pouvez mettre en place une implémentation unique pour gérer les images.

Tekton couplé à OpenShift assure la haute disponibilité du système en permettant à chaque unité d’évoluer indépendamment à la demande. De plus, vous bénéficiez d’outils de journalisation et de surveillance améliorés et de fonctions d’autorétablissement rapides intégrées à Kubernetes.

Comment fonctionne Tekton ?

Tekton fournit des CRD de style Kubernetes pour déclarer les pipelines CI/CD. Les ressources sont déclarées dans un yaml qui est, généralement, stocké avec le dépôt de code. Nous allons examiner les CRD de base qui sont essentiels lors de la création de pipelines.

Tâche

Une tâche est la plus petite unité configurable dans un pipeline Tekton. C’est similaire à une fonction qui accepte un ensemble d’entrées et produit certains résultats. Chaque tâche peut être exécutée soit individuellement et indépendamment, soit en tant que partie du pipeline. Une commande exécutée par une tâche est appelée une étape. Chaque tâche consiste en une ou plusieurs étapes. Tekton exécute chaque tâche dans son propre pod Kubernetes.

Pipeline

Un pipeline est constitué d’un certain nombre de tâches qui forment le flux de travail automatisé final de CI/CD. En plus des Tâches, il contient également des PipelineResources. Ils sont fournis comme entrées et sorties aux tâches du pipeline.

PipelineResource

Une PipelineResource est un objet qui est utilisé comme entrée ou sortie d’une tâche. Par exemple, si la tâche accepte un dépôt GitHub en entrée et construit et produit l’image Docker correspondante, les deux sont déclarés comme objets PipelineResource.

PipelineRun

Un PipelineRun est une instance d’une Pipeline qui est en cours d’exécution. Il initie l’exécution de la Pipeline et gère les PipelineResources transmises aux Tasks comme entrées et sorties.

TaskRun

Un TaskRun est une instance en cours d’exécution d’une tâche. PipelineRun crée des objets TaskRun pour chaque tâche du pipeline afin de lancer l’exécution.

Déclencheur

Un Trigger est un événement externe qui déclenche le workflow CI/CD. Par exemple, une demande de retrait Git peut servir de déclencheur. Les informations transmises avec la charge utile de l’événement sont ensuite utilisées pour déclencher les tâches du pipeline.

Condition

Les conditions sont similaires aux instructions if de la programmation régulière. Ils effectuent un contrôle de validation par rapport aux conditions fournies et renvoient une valeur True ou False. Le pipeline vérifie ces conditions avant d’exécuter une tâche. Si la condition renvoie Vrai, la tâche est exécutée, et si elle renvoie Faux, la tâche est ignorée.

Grâce à ces composants, vous pouvez créer des pipelines complexes et entièrement automatisés pour construire, tester et déployer vos applications dans le cloud ou dans des solutions sur site.

Qui devrait utiliser Tekton ?

Les ingénieurs de plate-forme qui élaborent des flux de travail CI/CD pour les développeurs d’une organisation trouveront dans Tekton un cadre idéal pour simplifier ce processus. Les développeurs aussi peuvent créer des flux de travail CI/CD avec Tekton pour les projets de développement de logiciels et d’applications. Cela leur donne la possibilité de gérer facilement les différentes étapes du processus de développement, telles que les versions dev, test, prod du produit, avec un minimum d’intervention humaine.

Quelle est la prochaine étape ?

Reportez-vous à la documentation officielle de Tekton et OpenShift Pipelines pour en savoir plus sur la manière de configurer des pipelines CI/CD qui répondent facilement aux besoins de votre organisation.

Besoin d’aide?

Nous proposons Kubernetes et OpenShift formations et nous pouvons vous aider à acheter, déployer et gérer votre
Environnement OpenShift sur IBM Power Systems
.

Tout ce que vous devez savoir sur Rancher – gestion de Kubernetes pour l’entreprise

L’une des innovations les plus précieuses de l’informatique en nuage est l’utilisation de conteneurs pour exécuter des applications et des services basés sur le nuage. Des plateformes comme Kubernetes ont facilité la gestion des charges de travail et des services conteneurisés sur les plateformes en nuage. Pour ceux qui l’ignorent, Kubernetes est une plateforme open-source permettant de déployer, de gérer et d’automatiser des charges de travail et des services conteneurisés.

En tant que logiciel libre, Kubernetes dispose de plusieurs distributions parmi lesquelles vous pouvez choisir si vous avez l’intention de déployer des charges de travail sur le cloud. Une des distributions que vous choisissez est Rancher. Si vous souhaitez en savoir plus sur Rancher et la comparer aux autres distributions Kubernetes, cet article est fait pour vous. Nous allons voir ce qu’est Rancher, ses principales caractéristiques, pourquoi vous devriez l’utiliser et comment il se compare à d’autres solutions. Plongeons-y !

rancher ce qu'il est

Qu’est-ce que Rancher ?

Rancher est une pile logicielle utilisée pour gérer les clusters Kubernetes. Il s’agit essentiellement d’un logiciel que DevOps peut utiliser tout en adoptant l’utilisateur de conteneurs. Rancher comprend une distribution complète de Kubernetes, Docker Swarm et Apache Mesos, ce qui simplifie la gestion des clusters de conteneurs sur n’importe quelle plateforme en nuage. Parmi les entreprises populaires qui utilisent Rancher, citons : Alibaba Travelers, Abeja, Trivago, UseInsider, Starbucks, Oxylabs, yousign, et bien d’autres.

Rancher a récemment été racheté par SUSE, et cette acquisition va considérablement changer leur direction. SUSE avait déjà sa solution de gestion de conteneurs, mais après avoir acquis Rancher, ils vont très probablement s’éloigner de leur solution initiale et se concentrer sur l’amélioration de Rancher.

L’un des avantages importants de Rancher est la possibilité de gérer plusieurs clusters Kubernetes de manière simplifiée. Il offre une gestion simplifiée de plusieurs clusters Kubernetes qui peuvent être créés manuellement à l’aide de la distribution Kubernetes de Rancher appelée RKE (Rancher Kubernetes Engine) ou importés dans le panneau de gestion du gestionnaire de clusters.

Outre Rancher Kubernetes Engine (RKE), Rancher a lancé plusieurs autres projets innovants, et l’un d’entre eux est le K3S – un panneau de contrôle Kubernetes plus simple qui est principalement utilisé dans l’informatique périphérique. Maintenant que SUSE a repris Rancher, nous espérons qu’ils l’amélioreront encore davantage pour en faire une plateforme Kubernetes complète.

Caractéristiques de Rancher

Voici quelques-unes des principales fonctionnalités de Rancher

  • Application catalogue Docker
  • Distribution Kubernetes incluse
  • Distribution Docker Swarm incluse
  • Distribution Mesos incluse
  • Gestion des infrastructures
  • Voici quelques-unes des principales caractéristiques de Rancher ;
  • Gérer les hôtes, déployer les conteneurs, surveiller les ressources
  • Gestion des utilisateurs et collaboration
  • API et outils natifs de Docker
  • Surveillance et journalisation
  • Connecter des conteneurs, gérer des disques, déployer des équilibreurs de charge

Pourquoi utiliser Rancher ?

Avec plusieurs autres distributions de Kubernetes sur le marché, pourquoi choisir Rancher ? Examinons quelques-uns des principaux avantages/bénéfices que présente Rancher.

  • Elle est facile à utiliser : L’une des raisons pour lesquelles on choisirait Rancher plutôt qu’une autre plateforme Kubernetes est l’interface Web simplifiée qui permet de faire tout ce dont on a besoin. Il s’agit d’une plateforme que même les développeurs qui n’ont pas une grande expérience de Kubernetes peuvent facilement utiliser.
  • Elle peut facilement être déployée sur n’importe quelle infrastructure de cloud : Un autre avantage essentiel de Rancher par rapport aux autres plateformes Kubernetes est sa compatibilité avec différentes plateformes de cloud ; vous pouvez donc le déployer rapidement sur n’importe quelle infrastructure de cloud.
  • Simplifie la gestion des clusters : Rancher est probablement le meilleur choix pour gérer plusieurs clusters Kubernetes à partir d’une seule interface. Sa capacité à gérer de multiples clusters est l’une des forces importantes qui ont été construites au cœur de Rancher.
  • Surveillance et distribution de la charge de travail automatiques: C’est l’une des principales fonctionnalités incluses dans Rancher, ce qui est très pratique si vous avez l’intention de déployer un système susceptible de recevoir un énorme trafic.
  • C’est une source ouverte et totalement gratuite : RKE, K3s, et tous les autres produits Rancher sont open source et gratuits pour tous. Si vous n’avez pas de budget à consacrer à un logiciel de gestion de conteneurs, alors Rancher est le meilleur choix pour vous. Cependant, pour obtenir le soutien des laboratoires Rancher, vous devrez payer un certain montant.

Quand ne pas utiliser Rancher.

Malgré ses nombreux avantages, il existe certains scénarios dans lesquels il est conseillé de ne pas utiliser Rancher. Voici quelques-unes des situations dans lesquelles vous devriez éviter d’utiliser Rancher.

  • Si vous êtes intéressé par des produits plus matures: Par rapport à d’autres plateformes Kubernetes comme OpenShift, Rancher est assez récent et évolue encore. Si vous êtes le genre de personne qui aime utiliser des produits déjà matures qui ne connaîtront pas de changements radicaux, vous pourriez être déçu par Rancher.
  • Si vous n’avez pas l’intention d’utiliser plusieurs clusters: L’un des principaux atouts de Rancher par rapport aux autres distributions Kubernetes est sa capacité à gérer plusieurs clusters de conteneurs à partir d’une seule interface. Pour ceux qui gèrent des clusters uniques, il est probable que vous ne ferez pas bon usage de Rancher, et il est donc préférable de choisir une autre plateforme.

Comment Rancher se compare-t-il à d’autres solutions comme OpenShift ?

L’un des principaux atouts d’OpenShift par rapport à Rancher est qu’il s’agit d’une plateforme mature qui bénéficie du soutien total de Red Hat. Si vous faites déjà partie de l’écosystème Red Hat, votre choix évident pour la gestion des conteneurs devrait être OpenShift. Rancher dispose également du support de Rancher Labs, mais il n’est pas aussi fiable que celui de Red Hat. L’utilisation de Rancher est plus logique si vous avez l’intention de gérer plusieurs grappes de conteneurs.

Conclusion

Rancher est un excellent outil pour gérer et automatiser les clusters Kubernetes. Il dispose également de nombreuses fonctionnalités pratiques dont vous pouvez tirer parti, notamment si vous gérez plusieurs clusters Kubernetes.

La possibilité de gérer tous vos clusters à partir d’un seul endroit est l’une des raisons pour lesquelles vous devriez choisir Rancher plutôt que toute autre plateforme si vous avez l’intention de gérer plusieurs clusters. Rancher est également très facile à apprendre et à utiliser. Kubernetes utilisateurs peuvent rapidement se familiariser avec Rancher.

Vous avez besoin de formation, de conseil ou d’architecture ?

Nous sommes des partenaires commerciaux de SUSE et Red Hat. Nous pouvons vous aider à déployer des PoCs Rancher et OpenShift afin que vous puissiez évaluer et essayer les deux solutions. Nous avons également développé des Docker / kuberneteset Pratique d’OpenShift 4 formations qui pourraient vous intéresser.

SIXE