Livre blanc de la sécurité intérieure

menace. Pour apprendre à un algorithme à différencier ces deux situations,
il faut disposer d’exemples des deux catégories, donc de données n’ayant
rien à voir avec la menace. Or, tout le droit habituel des fichiers de police
ou de renseignement est construit sur le principe de finalité, qui dispose
que seules les données relatives aux personnes en lien avec un acte de
délinquance ou une menace peuvent faire l’objet d’un traitement.
Propositions :
Dissocier juridiquement la phase d’apprentissage par rapport au droit
positif actuel des traitements de données.
Construire, sur la base de l’intérêt public, un cadre assoupli sur certains
critères comme la durée de conservation ou le fait que seules les
données caractérisant de manière avérée la menace sont utilisées.
D’autres garanties peuvent parfaitement être apportées en
contrepartie : exclusion de tout usage opérationnel pour les données
d’entraînement, conservation par un tiers de confiance indépendant
des services investigateurs, pseudonymisation « dans toute la mesure
compatible avec la finalité d’apprentissage visée ».
Mais les nombreuses questions juridiques que soulèvent les intelligences
artificielles seront loin d’être épuisées par le seul règlement du sujet des
jeux d’apprentissage.
Comme le rappellent les recommandations d’avril 2019 du Groupe d’Experts
nommé par la Commission européenne, les projets d’IA interrogent
l’éthique sous des prismes très divers : la maîtrise et la responsabilité
humaine, la fiabilité technique et la sécurité, la protection de la vie privée,
la transparence et l’explicabilité, le risques de biais contraires à l’équité ou
à la non-discrimination, le bien-être collectif ou encore l’auditabilité.
Si une partie de ces principes sont incorporés dans le droit positif, la plupart
de trouvent pas de réponse abstraite générale mais doivent s’apprécier in
concreto, domaine par domaine. De plus, il arrive que ces principes entrent
en contradiction les uns avec les autres : la transparence algorithmique
peut affaiblir la sécurité et faciliter les attaques, le respect de l’équité
implique de collecter plus de données que ne le commanderait le principe
de minimisation, la performance peut être négativement corrélée à la
minimisation des données, etc. Des compromis sont alors nécessaires, qui
doivent être documentés et justifiés.
Le développement inévitable des projets d’IA entraînera la multiplication
des besoins de rédaction et d’évaluation d’études d’impact au titre des
principes éthiques. Cela exigera des compétences juridico-techniques
internes de plus en plus affirmées et spécialisées.
Dans la société numérique contemporaine, les services publics de la
sécurité intérieure comme toutes les autres organisations, devront conduire
une politique renouvelée de la gestion des données (collecte des données,
capitalisation sur les données relatives aux menaces avérées, extraction
des échantillons de données pertinents, selon une approche ternaire. Les
données sont d’abord collectées, raffinées et sélectionnées pour produire
un renseignement particulier dans une thématique et un dossier donné. Les
données relatives aux menaces avérées mériteront d’être capitalisées, dans
un spectre variable mais élargi par rapport à aujourd’hui (données brutes,
249

Select target paragraph3