LMi-MAG22 juin - Flipbook - Page 37
projet ont emporté l’adhésion de la communauté de
datascientists selon le responsable.
RELEASE AUTOMATION,
DÉPLOIEMENT AUTOMATIQUE
D’APPLICATIONS,
IMPLÉMENTATION DEVOPS
Cahier des charges
tinyurl.com/auto-appli
moyenne quatre à cinq pipelines CI/CD déjà très industrialisés et tout est déjà optimisé », fait savoir Alexandre
Barbier. « L’enjeu est d’optimiser la gestion de l’obsolescence en continuant à décommissionner nos anciennes
technologies. » Par exemple, Airbus Helicopters a décidé
d’abandonner Jenkins pour Tekton : un choix parfaitement assumé et justifié par des problèmes de scalabilité. « Il s’agit de remettre les pendules à l’heure : Tekton
est complètement pensé pour être Kubernetes ready et
apporte de l’hyper flexibilité que l’on n’avait pas avant
pour gérer nos pipelines », poursuit Alexandre Barbier.
« Il faut rentrer dans la techno mais après cela permet
d’industrialiser les processus et apporter de la souplesse
et de l’agilité dans la maintenance. »
« Nous avons prévu de faire grandir le cluster IA en intégrant de nouvelles machines GPU et CPU complémentaires avec des worker node sur les châssis pour monter
jusqu’à huit cartes, certainement des H100 de Nvidia »,
confirme par ailleurs Alexandre Barbier. De nouvelles
capacités GPU seront ainsi déployées aux utilisateurs
finaux pour servir le développement de nouvelles fonctions (frontend capability, drift ML, models monitoring,
AB testing framework...). « Nous avons prévu de fournir
des nœuds GPU pour les datascientists dans le cadre du
déploiement d’OpenShift. Nous savions que la demande
en ressources GPU allait arriver », explique le responsable.
Un impact stockage non négligeable
Un défi reste cependant à relever : « nous devons mettre
les mains dans le cambouis et relever quelques difficultés matérielles ce qui rajoute un temps de delivery tout
comme le onboarding de la communauté qui prend aussi
du temps », prévient Alexandre Barbier. Les capacités
d’OpenShift AI vont aussi être poussées pour encore
mieux servir les besoins métiers (lancement de séries
d’analyse sur les données de vols, optimisation du delivery
et de la supply chain...). Une évolution qui n’est pas sans
conséquence en termes de stockage. « Alors que jusqu’à
présent on recourait à du S3 MinIO, l’objectif est d’aller
vers des solutions déjà éprouvées ailleurs chez Airbus,
à savoir des produits Dell ou Netapp considérés comme
plus standards », avance Alexandre Barbier. « Nous avions
mis en place S3 MinIO pour obtenir un bon niveau d’agilité
mais nous faisons évoluer notre architecture pour passer
à l’échelle ce qui nous amène à changer de solution ».
APPROFONDIR
Les capacités GPU aussi décuplées
Pour mieux couvrir l’évolution de ses besoins IA, Airbus
Helicopters s’est également tourné vers OpenShift AI,
la plateforme de Red Hat proposant des outils pour
développer, former, servir et surveiller rapidement
des modèles d’apprentissage automatique. Le groupe a
ainsi démarré le PoC de cette plateforme au printemps
2023. Ce dernier a été effectué auprès de datascientists,
non sans un certain succès. « Nous attendions leur feedback avant de déployer à l’échelle et les équipes ont
donné leur go », raconte Alexandre Barbier. Et depuis
la solution donne de premiers résultats encourageants :
le catalogue de services autant que la gouvernance du
ÉCOUTER EN LIGNE
Podcast
tinyurl.com/podcast-airbus-helico
LIRE EN LIGNE
Article
tinyurl.com/article-airbus-helico
37