Temps de lecture de l’article complet : 6 minutes.

L’Institut national pour l’évaluation et la sécurité de l’intelligence artificielle (INESIA) a adopté sa feuille de route 2026-2027. Ce document fixe les principales orientations de l’Institut et traduit une ambition nationale : doter la France d’une capacité souveraine d’évaluation des systèmes d’IA avancés, au service d’une innovation sûre et de la protection des citoyens. Présentation.

Les modèles d’IA les plus avancés s’imposent dans tous les champs de la société. Déjà intégrés dans les services publics, la recherche, l’éducation ou les outils professionnels, ils sont appelés à participer à des décisions aux conséquences sociales, économiques et sécuritaires majeures. Ces évolutions font émerger de nouveaux défis.

Créé en 2025, l’INESIA fédère un écosystème d’acteurs nationaux de premier rang qui associe les compétences de l’Agence nationale de la sécurité des systèmes d’information (ANSSI), de l’Institut national de recherche en sciences et technologies du numérique (Inria), du Laboratoire national de métrologie et d’essais (LNE), et le Pôle d’expertise de la régulation numérique (PEReN) autour d’un objectif commun : soutenir le développement de l’intelligence artificielle et accompagner la transformation de l’économie qu’elle induit, en étudiant scientifiquement les effets de cette technologie, notamment en termes de sécurité.

La feuille de route décline l’action de l’INESIA autour de trois pôles thématiques et un axe transverse, qui sont ensuite déployés autour de projets.

Pôle appui à la régulation de l’IA

L’objectif est de contribuer à une mise en œuvre du cadre règlementaire de l’IA, qui protège les citoyens et soutient l’innovation.

Parmi les projets portés par ce pôle, le projet n° 3 doit poursuivre les travaux déjà lancés qui évaluent avec précision la performance de détecteurs de contenus dits « synthétiques » (c’est-à-dire générés par l’IA) dans des conditions réelles. Il s’agit d’un enjeu clé pour garantir la sécurité de l’information, puisque les avancées de l’IA générative permettent de créer facilement des contenus difficiles à distinguer des contenus authentiques tels que des photos ou des vidéos. Les capacités de détection de contenus générés par IA seront renforcées, via une bibliothèque open-source de référence.

SOURCE : ECONOMIE.GOUV
Intelligence artificielle : une feuille de route pour l’Institut national pour l’évaluation et la sécurité de l’IA – ECONOMIE.GOUV