Intelligence-artificielle---le-cadre-juridique-européen-de-l'IA-en-six-questionsLe règlement européen sur l’intelligence artificielle (IA) du 13 juin 2024 est paru au Journal officiel de l’Union européenne du 12 juillet. Le Conseil de l’Europe a adopté le 17 mai 2024 un traité international visant à garantir une IA respectueuse des droits fondamentaux. Retour sur l’IA dans l’UE en six questions avec Vie-publique.

 

Existe-t-il une législation européenne sur l’IA ?

Le règlement (UE) 2024/1689 du Parlement européen et du Conseil du 13 juin 2024 établissant des règles harmonisées concernant l’intelligence artificielle, premier acte législatif sur l’intelligence artificielle (IA), est paru au Journal officiel de l’Union européenne (JOUE) du 12 juillet 2024.

Le texte a été adopté par 523 votes pour, 46 contre et 49 abstentions au Parlement européen le 13 mars 2024.

Ce cadre réglementaire de l’IA poursuit les objectifs suivants :

– veiller à ce que les systèmes d’IA mis sur le marché soient sûrs et respectent la législation en vigueur en matière de droits fondamentaux, les valeurs de l’UE, l’État de droit et la durabilité environnementale ;
– promouvoir l’adoption d’une IA axée sur l’humain et digne de confiance ;
– garantir un cadre juridique uniforme afin de faciliter les investissements et l’innovation ;
– renforcer la gouvernance et l’application effective de la législation existante en matière d’exigences de sécurité applicables aux systèmes d’IA et de droits fondamentaux ;
– améliorer le fonctionnement du marché intérieur pour des applications d’IA légales et sûres, et empêcher la fragmentation du marché.

Plus spécifiquement, le règlement établit :

– des règles harmonisées concernant la mise sur le marché, la mise en service et l’utilisation de systèmes d’IA dans l’UE ;
– l’interdiction de certaines pratiques ;
– des exigences spécifiques applicables aux systèmes d’IA à haut risque ;
– des règles harmonisées en matière de transparence applicables :
-> aux systèmes d’IA destinés à interagir avec des personnes,
-> aux systèmes de reconnaissance des émotions et de catégorisation biométrique,
-> aux systèmes d’IA générative utilisés pour générer ou manipuler des images ou des contenus audio ou vidéo ;
– des mesures visant à soutenir l’innovation, particulièrement pour les petites et moyennes entreprises (PME).

Cette approche doit tenir compte des résultats bénéfiques sur les plans sociaux et environnementaux que peut apporter l’IA, mais aussi des nouveaux risques ou des conséquences négatives que peut engendrer cette technologie.

La cohérence est assurée avec la Charte des droits fondamentaux de l’UE, mais aussi avec le droit dérivé de l’UE en matière de protection des données, de protection des consommateurs, de non-discrimination et d’égalité entre les femmes et les hommes. Le règlement complète le droit existant en matière de non-discrimination en prévoyant des exigences qui visent à réduire au minimum le risque de discrimination algorithmique, assorties d’obligations concernant les essais, la gestion des risques, la documentation et le contrôle humain tout au long du cycle de vie des systèmes d’IA.

Le règlement sur l’IA sera pleinement applicable à partir du 2 août 2026.

Quelle est la définition de l’intelligence artificielle donnée par le règlement sur l’IA ?

Afin de garantir la sécurité juridique, de faciliter la convergence internationale et une large acceptation, tout en offrant la souplesse nécessaire à la prise en compte des évolutions technologiques rapides de ce domaine, la notion de « système d’IA » est définie par le règlement. Elle est alignée sur les travaux des organisations internationales qui œuvrent dans ce domaine.

Une des caractéristiques essentielle des systèmes d’IA est leur capacité d’inférence, que le règlement définit comme « le processus consistant à générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions, qui peuvent influencer l’environnement physique ou virtuel, et la capacité des systèmes d’IA à inférer des modèles ou des algorithmes, ou les deux, à partir d’entrées ou de données ».

Les techniques qui permettent l’inférence lors de la construction d’un système d’IA comprennent :

– des approches d’apprentissage automatique, qui apprennent à partir des données la manière d’atteindre certains objectifs ;
– des approches fondées sur la logique et les connaissances qui font des inférences à partir des connaissances encodées ou de la représentation symbolique de la tâche à résoudre.

Ces techniques vont au-delà du traitement de données de base en ce que la capacité d’inférence d’un système d’IA lui permet l’apprentissage, le raisonnement ou la modélisation.

Les systèmes d’IA étant conçus pour fonctionner à différents niveaux d’autonomie, ils bénéficient d’un certain degré d’indépendance dans leur action par rapport à une ingérence humaine et de capacités à fonctionner sans intervention humaine.

Le règlement sur l’IA définit aussi :

– un système d’identification biométrique à distance comme « un système d’IA destiné à identifier des personnes physiques sans leur participation active, généralement à distance, en comparant les données biométriques d’une personne avec celles qui figurent dans une base de données » ;
– un système d’identification biométrique à distance en temps réel comme « un système d’identification biométrique à distance dans lequel l’acquisition des données biométriques, la comparaison et l’identification se déroulent sans décalage temporel important et qui comprend non seulement l’identification instantanée, mais aussi avec un léger décalage afin d’éviter tout contournement des règles ».

Quelles sont les pratiques d’IA interdites par le règlement ?

Le règlement sur l’IA interdit les pratiques suivantes en matière d’intelligence artificielle :

– système d’IA ayant recours à des techniques subliminales au-dessous du seuil de conscience d’une personne pour altérer substantiellement son comportement et de manière à causer un préjudice physique ou psychologique (manipulation du comportement humain pour contourner le libre arbitre) ;
– système d’IA exploitant les éventuelles vulnérabilités dues à l’âge ou au handicap d’un individu pour altérer substantiellement son comportement et de manière à causer un préjudice physique ou psychologique ;
– systèmes d’IA destinés à évaluer ou à établir un classement de la fiabilité de personnes en fonction de leur comportement social ou de caractéristiques personnelles et pouvant entraîner un traitement préjudiciable de personnes, dans certains contextes, injustifié ou disproportionné. L’accord trouvé entre le Parlement et les États membres précise l’interdiction des systèmes de catégorisation biométrique utilisant des caractéristiques sensibles (opinions politiques, religieuses, philosophiques, orientation sexuelle…) et la notation sociale basée sur le comportement social ou les caractéristiques personnelles ;
– systèmes d’IA pour mener des évaluations des risques des personnes physiques visant à évaluer ou à prédire le risque qu’une personne physique commette une infraction pénale, uniquement sur la base du profilage d’une personne physique ou de l’évaluation de ses traits de personnalité ou caractéristiques. Cette interdiction ne s’applique pas aux systèmes d’IA utilisés pour étayer l’évaluation humaine de l’implication d’une personne dans une activité criminelle ;
– systèmes d’IA créant ou développant des bases de données de reconnaissance faciale par le moissonnage non ciblé d’images faciales provenant d’internet ou de la vidéosurveillance ;
– reconnaissance des émotions sur le lieu de travail et les établissements d’enseignement, sauf pour des raisons médicales ou de sécurité ;
– systèmes d’identification biométrique à distance en temps réel dans des espaces accessibles au public à des fins répressives, sauf dans les cas suivants :
-> recherche ciblée de victimes potentielles spécifiques de la criminalité (enfants disparus, traite, exploitation sexuelle),
-> prévention d’une menace spécifique, substantielle et imminente pour la vie ou la sécurité des personnes ou la prévention d’une attaque terroriste,
-> identification, localisation ou poursuite à l’encontre des auteurs ou des suspects de certaines infractions pénales punissables d’une peine d’une durée maximale d’au moins quatre ans.

L’utilisation de systèmes d’identification biométriques à distance en temps réel doit :

– tenir compte de la situation donnant lieu au recours au système et de la gravité ou de l’ampleur du préjudice en l’absence de son utilisation ;
– tenir compte des conséquences sur les droits et libertés de toutes les personnes concernées (gravité, probabilité, ampleur) ;
– être subordonnée à une autorisation préalable octroyée par une autorité judiciaire ou administrative compétente.

L’annexe III du règlement dresse une liste des systèmes d’IA à haut risque. Les eurodéputés ont inclus dans le règlement une analyse d’impact obligatoire sur les droits fondamentaux, également applicable au secteur bancaire et des assurances. Les systèmes d’IA utilisés pour influer sur le résultat d’élections et le comportement des électeurs sont classés à haut risque.

Les citoyens auront le droit de :

– déposer des plaintes concernant les systèmes d’IA ;
– recevoir des explications sur les décisions fondées sur des systèmes d’IA à haut risque ayant une incidence sur leurs droits.

Le non-respect des règles pourra entraîner des amendes pouvant aller jusqu’à 35 millions d’euros ou 7% du CA mondial, en fonction de la taille de l’entreprise et de l’infraction.

Comment le règlement sur l’IA soutient-il l’innovation ?

Les systèmes d’intelligence artificielle connaissent une évolution rapide qui nécessite la mise en place de nouvelles formes de contrôle réglementaire et d’un espace sûr pour l’expérimentation. Le règlement doit garantir une innovation responsable et l’intégration de garanties et de mesures d’atténuation des risques appropriées. Pour garantir un cadre juridique propice à l’innovation, les États membres devront mettre en place des « bacs à sable réglementaires » sur l’IA pour faciliter l’innovation sous un contrôle réglementaire strict avant la mise sur le marché ou en service de ces systèmes.

L’objectif est :

– de favoriser l’innovation en créant un environnement contrôlé d’expérimentation au stade du développement afin d’assurer la conformité des systèmes d’IA innovants avec le règlement ;
– de renforcer la sécurité juridique pour les innovateurs ainsi que le contrôle et la compréhension des possibilités, des risques émergents et des conséquences de l’utilisation de l’IA ;
– d’accélérer l’accès aux marchés en supprimant les obstacles pour les PME et les jeunes entreprises.

Au-delà du règlement, comment l’UE prend-elle en compte l’intelligence artificielle ?

L’UE n’a pas attendu le règlement sur l’IA du 13 juin 2024 pour s’intéresser à cette question et à ses enjeux.

En 2017, le Conseil européen souligne la nécessité de faire preuve d’un sens de l’urgence face aux tendances émergentes, notamment l’IA [Réunion du Conseil européen (19 octobre 2017) – conclusions].

En 2018, la Commission présente un premier plan coordonné sur l’intelligence artificielle (communication de la Commission). Il s’agit d’un engagement commun visant à renforcer le potentiel européen pour être compétitif à l’échelle mondiale, notamment au travers de stratégies nationales des États membres.

Dans ses conclusions de 2019 sur le plan coordonné, le Conseil de l’UE souligne la nécessité d’assurer le respect intégral des droits des citoyens européens. Le Conseil demande que la législation en vigueur fasse l’objet d’un réexamen [Intelligence artificielle b) Conclusions sur le plan coordonné dans le domaine de l’intelligence artificielle – Adoption].

Le Parlement européen a travaillé sur plusieurs résolutions relatives à l’IA dans divers domaines :

– aspects éthiques [2020/2012(INL)] ;
– régime de responsabilité civile (résolution du Parlement européen du 20 octobre 2020) ;
– droits de propriété intellectuelle (résolution du Parlement européen du 20 octobre 2020) ;
– droit pénal et son utilisation par les autorités policières et judiciaires dans les affaires pénales [2020/2016(INI)] ;
– éducation, culture et audiovisuel [2020/2017(INI)].

Ces textes contiennent des recommandations à destination de la Commission, mais aussi des propositions législatives sur les différents thèmes abordés.

Le 19 février 2020, la Commission publie un Livre blanc sur l’intelligence artificielle qui réaffirme le double objectif européen de promouvoir l’adoption de l’IA et de tenir compte des risques associés à certaines utilisations de cette technologie.

En 2020, le Conseil européen demande à la Commission de « présenter une définition claire et objective des systèmes d’intelligence artificielle à haut risque » [Réunion extraordinaire du Conseil européen (1er et 2 octobre 2020) – conclusions].

Dans des conclusions publiées en octobre 2020, le Conseil de l’UE rappelle que « si les technologies numériques, y compris l’IA, présentent de plus en plus d’opportunités et d’avantages, leur conception, leur développement, leur déploiement et leur utilisation abusive pourraient aussi comporter des risques pour les droits fondamentaux, la démocratie et l’État de droit » [Conclusions de la présidence – La charte des droits fondamentaux dans le contexte de l’intelligence artificielle et du changement numérique].

En avril 2021, la Commission présente des mesures sur l’IA :

– une communication sur la promotion d’une approche européenne ;
– un réexamen du plan coordonné en matière d’intelligence artificielle ;
– une proposition de cadre réglementaire sur l’IA et une analyse d’impact.

Que dit la Cour des comptes européenne ?
Un rapport de la Cour des comptes européenne de mai 2024 analyse l’écosystème européen d’IA :

– les investissements européens dans l’IA n’ont pas suivi le rythme dicté par les leaders mondiaux ;
– les projets dans le domaine de l’IA financés par l’UE ne font pas l’objet d’un suivi systématique ;
– la coordination entre l’UE et les États membres est inefficace, faute d’outils de gouvernance.

Selon le responsable de l’audit, « dans la course à l’IA, il y a fort à parier que le gagnant raflera toute la mise. Si l’UE veut gagner son pari, la Commission européenne et les États membres doivent unir leurs forces de manière plus efficace, accélérer la cadence et libérer le potentiel de l’Union pour réussir cette révolution technologique majeure qui est en cours ».

Quelles différences entre le texte sur l’IA de l’UE et la convention-cadre sur l’IA adoptée par le Conseil de l’Europe ?

Le 17 mai 2024, le Conseil de l’Europe a adopté la convention-cadre sur l’intelligence artificielle et les droits de l’homme, la démocratie et l’État de droit. Il s’agit d’un traité international, adopté par les ministres des affaires étrangères des 46 pays membres du Conseil de l’Europe.

Cette convention-cadre est le premier texte d’ampleur internationale juridiquement contraignant dans le domaine de l’IA. Ses dispositions devront être transposées dans le droit national des États signataires.

Le texte vise à garantir une IA respectueuse des droits fondamentaux, entre autres face aux risques :

– de pratiques discriminatoires ;
– de remise en cause des processus démocratiques ;
– d’atteinte à la vie privée ;
– d’utilisation de l’IA par certains États à des fins répressives.

La convention-cadre établit des règles relatives au respect des droits fondamentaux à toutes les étapes du cycle de vie de systèmes d’IA.

La convention-cadre est un traité international incluant les États membres de l’UE, mais aussi onze États non membres, dont les États-Unis, le Japon et le Canada. Ce texte est compatible avec le règlement sur l’IA de l’UE qui concerne plus spécifiquement l’Union européenne.

La convention-cadre permet ainsi d’être un texte juridiquement contraignant pour des signataires hors UE parmi les acteurs majeurs dans la recherche et le développement des systèmes d’IA.

SOURCE : VIE PUBLIQUE
Intelligence artificielle : le cadre juridique européen de l’IA en six questions | Vie Publique