L’IA, un outil (fiable) d’aide à la décision

Aujourd’hui, l’intelligence artificielle est incontournable, notamment dans le domaine de la cybersécurité et de la défense. Elle est utilisée pour générer des attaques massives, détecter les vulnérabilités d’un système, anticiper des attaques inconnues et s’en prémunir, ou encore répondre à des problèmes industriels avec de forts enjeux. Les résultats fournis par les modèles doivent alors être explicables, sécurisés et fiables.
Sonia Vanier, consacre une grande partie de ses travaux aux questions de confiance et de responsabilité de l’intelligence artificielle. L’une des deux chaires dont elle est titulaire est d’ailleurs dédiée à la question (IA de confiance et responsable). « Dans ce cadre, nous développons des approches hybrides qui allient l’efficacité et la fiabilité de la recherche opérationnelle aux modèles d’IA, particulièrement l’apprentissage par renforcement et les modèles génératifs. Nos travaux visent à fournir aux entreprises des outils d’aide à la décision qui leur permettent de résoudre des problèmes complexes », explique la professeure du LIX. Concrètement, la scientifique modélise ces problèmes grâce aux mathématiques et utilise les propriétés qui y sont liées pour développer des algorithmes efficaces, capables d’y apporter des solutions dans des contextes dynamiques où les sources d’incertitudes sont nombreuses.
Combinée aux approches de recherche opérationnelles, l’intelligence artificielle permet de modéliser des contraintes industrielles complexes, de faire face à des situations requérant de nombreuses données, impliquant des processus dynamiques et de multiples sources d’incertitudes. Les chercheurs utilisent alors des Large Language Models (LLM), ou grands modèles de langage en français. « Ces outils d’IA sont conçus pour générer du contenu, mais avec quelle éthique, et quelle fiabilité ? », interroge la chercheuse.
Les décisions prises par les modèles de langage sont généralement difficiles à expliquer et à justifier, ce qui constitue un frein à leur adoption dans de nombreux domaines. Sonia Vanier analyse donc les LLMs à partir d’algorithmes qu’elle conçoit et entraine sur des grands modèles de langage existants. « Notre méthode explore leur espace de représentation afin d’en extraire des concepts interprétables et de mieux comprendre leurs décisions ».
Sécurité et confidentialité des données dans les LLMs
Les LLMs peuvent en outre être visés par des attaques spécialisées ayant pour objectif d’extraire leurs données d’entraînement. Par exemple, une banque qui utiliserait un LLM pour sensibiliser ses clients de manière ciblée à des produits commerciaux, prévenir les découverts, etc. pourrait voir ses données clients exposées. « Dans ce contexte, nous avons développé une méthode proactive, légère en calcul et simple d’implémentation, visant à anticiper ces risques et à prédire le degré de vulnérabilité de chacune des données d’entraînement du modèle ». Grâce à elle, il est possible de choisir la méthode la plus adaptée pour protéger la confidentialité du LLM tout en préservant ses performances.
D’autres attaques dites par injection de prompt corrompent les données de contexte des modèles pour perturber leurs décisions, voire les détourner de leur tâche initiale. L’équipe de Sonia Vanier a démontré la faisabilité de ces attaques et la nécessité d’approfondir la compréhension des mécanismes qui les régissent pour renforcer la défense des LLMs.
De multiples applications
La chercheuse s’intéresse par ailleurs aux contraintes et aux incertitudes auxquelles sont soumis les réseaux de transport. Si ses travaux intéressent en premier lieu la SNCF, ils sont parfaitement transposables au secteur de la défense. En effet, dans le cadre de la chaire optimisation et IA pour les mobilités, Sonia Vanier développe des architectures d’intelligence artificielle accompagnant l’entreprise ferroviaire dans sa prise de décision face aux enjeux de régulation du trafic, de maintenance prédictive et de qualité de service à l’échelle nationale. « Nous élaborons des algorithmes capables de prendre en compte de nombreux mouvements sur un réseau très vaste ainsi qu’un grand nombre d’incertitudes (pannes, sécurité, flux de voyageurs, disponibilité du personnel, etc.) pour calculer les meilleures solutions possibles et minimiser les coûts. Or, ces questions d’ordre opérationnel sont comparables à celles soulevées lors du déploiement de troupes militaires sur des zones dangereuses : détecter des événements rares, affronter de grosses incertitudes, limiter les risques…Nos outils y ont toute leur place, particulièrement les travaux sur les systèmes multi-agents ».
Pour accompagner l’émergence de ces sujets, l’Institut Polytechnique de Paris propose un master cybersécurité et forme les spécialistes de demain. « Plusieurs partenaires industriels accueillent nos étudiants en stages et sont très impliqués dans nos cours. Nous développons également des partenariats académiques avec des institutions comme l’université Bocconi à Milan, Berkeley ou encore Columbia aux États-Unis ». Enfin, un master dédié à l’IA responsable et de confiance (Trustworthy and Responsible AI) a également ouvert ses portes, formant les étudiants aux avancées technologiques et aux applications industrielles de l’IA, mais aussi à ses limites pratiques et sociales, aux implications de ces limites et aux moyens d'y remédier.

À propos
Sonia Vanier est professeure au Département d’Informatique de l’École Polytechnique (DIX), directrice de l'équipe de recherche ORAILIX, responsable du programme d'approfondissement en informatique de l'X, co-directrice du master MScT TRAI, responsable de la chaire "IA de Confiance et Responsable" X Crédit Agricole, responsable de la chaire "IA et Optimisation pour les Mobilités" X-SNCF et responsable scientifique des relations industrielles du Département et du Laboratoire d’Informatique de l’École Polytechnique (DIX et LIX).
Ses thèmes de recherche portent principalement sur le développement d’outils d’aide à la décision pour des problèmes industriels complexes, l’intelligence artificielle (IA), la recherche opérationnelle (RO), l’optimisation des réseaux, les approches hybrides entre l’IA et la RO pour les futurs systèmes d’IA étiques, durables et de confiance.
>> Sonia Vanier sur Google Scholar
*LIX : une unité mixte de recherche CNRS, École polytechnique, Institut Polytechnique de Paris, 91120 Palaiseau, France