le Groupe d’experts indépendants de haut niveau sur l’intelligence
artificielle30, ayant pour mission de fournir des expertises, des conseils
stratégiques et des propositions pour développer « une intelligence
artificielle digne de confiance ». Les travaux de ce groupe31, dont
le mandat s’est achevé en juillet 2020, ont notamment servi de ressources
aux initiatives d’élaboration de la politique numérique de
l’Union Européenne, ainsi qu’à l’élaboration d’une législation en
matière d’IA, adoptée le 21 mai 2024 (voir point 1.2.2 ci‑dessous).
S’agissant plus spécifiquement de l’étude des incidences de l’IA sur
la garantie des droits, l’Agence des droits fondamentaux, chargée
de fournir une assistance en ce domaine aux institutions et
autorités de l’Union, a publié plusieurs études analysant son impact
sur les droits et libertés, notamment les risques de la
reconnaissance faciale et les biais et discriminations générés par
les algorithmes32 et proposant des lignes directrices à retenir.
ÉCL AIRAGE 1
En France, les réflexions publiques sont aussi très abondantes.
De nombreux rapports et études examinant les enjeux entourant l’essor
de l’IA se sont ainsi succédés au cours de la dernière décennie,
les réflexions étant surtout axées sur les enjeux éthiques et, dans
une moindre mesure, juridiques. Témoignent notamment de cette priorité
donnée aux considérations éthiques les propositions de l’Office
parlementaire d’évaluation des choix scientifiques et technologiques
sur l’IA déposées en mars 201733, l’étude de la CNIL sur les enjeux
éthiques des algorithmes et de l’intelligence artificielle de décembre
201734 et le rapport de Cédric Villani de mars 201835, qui a ouvert la voie
au lancement de la stratégie nationale pour l’intelligence artificielle fin 2018.
30. GEHN IA, ou High Level Group on Artificial Intelligence, AI HLEG.
31. V
oir notamment le rapport Lignes directrices en matière d’éthique pour une IA digne de confiance, publié le 8 avril 2019.
32. Rapports intitulés Facial recognition technology: fundamental rights considerations in the context of law enforcement, 27 novembre
2019 et Bias in algorithms - Artificial intelligence and discrimination, 8 décembre 2022.
33. Rapport n° 464, Pour une intelligence artificielle maîtrisée, utile et démystifiée, tome I, déposé le 15 mars 2017.
34. Précité, note 24.
35. P
récité, note 23.
151