Airbus opte pour une GenAI responsable et open source


L’industriel aéronautique a partagé son projet d’IA générative en RAG, à l’occasion de l’AWS Summit 2024 de Paris. L’équipe GenAIR d’Airbus focalisée sur le sujet teste de premiers cas d’usage d’une IA personnalisée, adaptée à son activité et à ses besoins.

Pour explorer les potentiels usages de l’IA générative, Airbus a créé GenAIR, une structure transverse restreinte, organisée autour de quatre sujets : la veille technologique, l’IA responsable, la gestion de la demande en la matière chez l’industriel et enfin, la stratégie et l’implémentation. Et pour avancer rapidement sur le sujet avec cette équipe encore réduite, l’industriel a opté pour une collaboration avec AWS Prototyping, sur le modèle de la co-construction.

Airbus, présent à l’AWS Summit 2024 à Paris le 3 avril, a réalisé un premier PoC en 5 semaines en juin 2023. « Nous sommes partis d’une solution basée sur notre plate-forme de chatbot, hébergée sur AWS, pour le support aux équipes opérationnelles, raconte Nasser Guesmia, responsable AI et advanced analytics au sein de la division digital and information management d’Airbus. Et nous l’avons étendue pour faire de la génération de réponses. » Pour que celles-ci soient pertinentes, actualisées et adaptées à ses besoins spécifiques, Airbus a souhaité un modèle de LLM personnalisé et s’est tourné vers l’option RAG (retrieval augmented generation). Par rapport à d’autres solutions, elle offrirait, selon l’industriel, un meilleur ratio entre la simplicité d’exécution – pas de réentrainement du modèle, pas de modification du paramétrage, moins d’hallucinations – et un bon niveau de sophistication des résultats générés.

Des LLM open source

Le choix de l’industriel s’est porté en particulier sur une IA qu’il juge responsable et des LLM open source. Airbus utilisait déjà Kendra, le moteur de recherche sémantique à base de machine learning d’AWS, pour la recherche d’informations. Il a complété l’environnement RAG avec un framework Langchain pour l’orchestration (recherche de similarités dans la base de connaissances vectorielle) et l’augmentation du contexte, et enfin le modèle de LLM open source Falcon 40B pour la génération de contenus. Parmi les cas d’usage identifiés par GenAIR et AWS se trouvent l’interrogation d’un corpus de documentation technique métier, l’aide à la rédaction d’exigences techniques, les résumés d’échanges techniques, mais aussi l’assistance à la gestion des exigences pour le design industriel, par exemple.

airbus-rag Airbus opte pour une GenAI responsable et open source Non classé

« Nous avons travaillé de façon très agile en particulier avec les métiers », insiste Nasser Guesmia, responsable AI and advanced analytics au sein de l’équipe digital and information management d’Airbus. (Photo ED)

Pour son PoC, Airbus s’est aussi appuyé sur le moteur Opensearch et le NLP Comprehend d’Amazon pour l’anonymisation de la recherche, Langchain pour l’augmentation et Llama 2 et Mistral pour la génération. Les données en entrée, majoritairement non structurées, sont vectorisées et indexées pour enrichir le modèle. « Nous avons travaillé de façon très agile en particulier avec les métiers, insiste par ailleurs Nasser Guesmia. Nous étions très demandeurs de leurs retours, et nous avons régulièrement placé l’aspect IA proprement dit du projet au second plan pour récupérer les feedbacks des utilisateurs. »

Une infrastructure as code pour de futurs projets RAG

Parmi les premiers retours de ce projet pilote, Nasser Guesmia insiste sur l’indispensable maintien du niveau de sécurité dans une activité comme celle d’Airbus, mais aussi sur l’importance de la définition d’une infrastructure as code pour dupliquer l’architecture pour d’autres projets RAG.

Pour conserver la maîtrise du projet, l’équipe GenAIR n’a pas hésité à suivre des formations courtes sur certains aspects de l’IA générative qu’elle ne comprenait pas suffisamment. A ce jour, Airbus souligne toutefois encore quelques bémols dans l’usage de la technologie, quant à la possibilité d’évaluation des résultats ou la réelle capacité à passer à l’échelle du projet. Et conserve des interrogations plus sérieuses sur le fine tuning de la solution, sa performance ou encore la mise au point d’un RAG plus avancé.



Source link