IA / ML / DL avec OpenShift et IBM Power Systems
Qu’est-ce que l’intelligence artificielle (IA), l’apprentissage automatique (ML) et l’apprentissage profond (DL)?
Intelligence artificielle (IA)
Apprentissage automatique (ML)
La ML est, au sein de l’IA, la capacité d’apprendre, en utilisant différents modèles, sans être directement programmée pour le faire. Les algorithmes et les systèmes statistiques tels que les modèles et les déductions sont utilisés pour atteindre certaines capacités d’apprentissage sans surveillance.
Deep Learning (DL) (en savoir plus)
Qu’est-ce qu’OpenShift apporte aux systèmes DL et ML ?
En utilisant des conteneurs au sein de notre cloud hybride pour déployer nos charges de travail de Deep Learning et de Machine Learning, nous pouvons faire un bien meilleur usage de nos investissements dans l’infrastructure– stockage, serveurs et réseau. Depuis la version 4.7 d’OpenShift, si elle est déployée sur des Power Systems (notamment sur les modèles AC922 et IC922), elle permet d’exécuter différents modèles ML et DL même en partageant des GPU. Cela représente une véritable révolution dans les projets ML sur site et des économies plus que significatives par rapport aux alternatives cloud existantes : pense au fait qu’en plus des coûts d’exécution des différentes sessions de formation, toutes les données doivent être chargées et téléchargées depuis le cloud, avec les coûts élevés que cela implique.
OpenShift Container Storage et DevOps
Avec l’aide d’OpenShift Container Storage (OCS), chaque développeur peut gérer différentes instances et versions du même modèle suivant les pratiques de dévops et sur notre propre stockage. Lorsque le modèle est prêt à être déployé, l’utilisateur peut démarrer un processus de configuration et de déploiement à tout moment. Un système de contrôle de version et des capacités avancées d’orchestration sont disponibles, y compris des tests automatiques du nouveau code. Ceci est rendu possible par les dernières avancées dans les technologies de virtualisation des GPU et l’intégration dans la seule plate-forme HW qui a des connexions dédiées entre les GPU (FPGA) et les prises. Cela évite les goulots d’étranglement avec la bande passante plusieurs fois celle des architectures basées sur les processeurs Intel. Nous pouvons également exécuter différents modèles simultanément sur les GPU (FPGAs) de la même carte graphique.
Collaboration entre les data scientists et les développeurs
OpenShift est une plateforme unifiée où les scientifiques des données, les développeurs de logiciels et les administrateurs système peuvent collaborer de manière simple et robuste. Cela vous permet d’accélérer le déploiement d’applications de toutes sortes, y compris ML/IA en quelques minutes grâce à son portail libre-service. Créer, mettre à l’échelle, reproduire, tester et partager rapidement les résultats des modèles AI/DL/ML de manière agile avec les autres personnes impliquées dans ces projets, notamment les chefs de projet, les mathématiciens, les programmeurs et les clients.
Puis-je toujours utiliser AWS, Azure ou Google Cloud pour ML ?
Bien sûr. Il y aura certains modèles, charges de travail ou projets pour lesquels il est intéressant, pour diverses raisons, d’utiliser les services d’un fournisseur de cloud. Dans d’autres, soit en raison de ses coûts élevés ou des exigences découlant de la protection des données, nous choisirons d’en faire notre propre infrastructure. OpenShift permet de gérer cela de manière simple et transparente.