Les domaines techniques de l’IA sont variés et ouvrent de nombreuses
fonctionnalités telles que faciliter l’accès des usagers et des agents à
l’information, développer la traduction ou la transcription automatiques,
détecter la langue ou reconnaître un locuteur, extraire des informations
d’intérêt telles que les entités nommées(57), accélérer le traitement de la
vidéo par élimination ou sélection de scènes sur requête sémantique,
détecter des schémas de communication, d’attaques, de fraudes, de
comportements financiers, masquer des passages, extraits ou parties de
documents à des fins de protection de la vie privée.
Le moteur dominant des technologies d’automatisation par IA réside
désormais dans la modélisation par les données (apprentissage machine,
apprentissage profond et apprentissage par renforcement). Le processus
impliqué est celui de l’optimisation d’une fonction mathématique à partir
d’un jeu souvent très volumineux de données, qualifié de jeu d’apprentissage.
Les technologies d’IA comportent donc deux phases bien distinctes,
qui peuvent et qui doivent chacune bénéficier d’un régime juridique sur
mesure : la phase de constitution du jeu d’apprentissage, d’entraînement
et de test d’une part ; la phase opérationnelle d’autre part. Dans les deux
cas, un traitement de données est nécessaire, mais avec un impact et des
risques radicalement différents pour les personnes.
Lors de la phase d’entraînement déployée pour développer un algorithme
performant, il est indispensable de disposer de données personnelles
tirées d’exemples opérationnels concrets au plus proches du réel =. En
revanche, l’algorithme ne conserve pas de données personnelles une fois
achevé le processus d’entraînement, et celles-ci n’ont pas de conséquences
opérationnelles à l’égard des personnes concernées. Il s’agit d’un objet
mathématique, dont toute la valeur économique et opérationnelle réside
dans la convergence réussie des paramètres.
La phase opérationnelle (dite de production) exploite des donn��es
nouvelles, entièrement indépendantes des données d’apprentissage. Elles
sont extraites des missions de recherche et d’investigation en cours, et
l’emploi de l’algorithme doit se justifier en finalité et en proportionnalité
dans ce cadre. Le traitement peut légitimement entraîner des conséquences
défavorables pour les personnes visées si celles-ci représentent une menace.
Il convient donc d’appliquer aux données opérationnelle le droit commun
des données : principe de finalité et de proportionnalité, durées strictes
de conservation, contrôle indépendant, etc.
Une autre difficulté se pose fréquemment pour la réalisation d’IA dans les
matières touchant à la sécurité intérieure. Par nature, l’intérêt recherché
par beaucoup de ces outils est de pouvoir discriminer entre une situation
représentative d’une menace et une situation non porteuse d’une telle
57
La « reconnaissance des entités nommées » consiste à apprendre à une machine
à repérer au sein d’un énoncé tous les mots se référant à une entité réelle : personnes,
organisations, lieux, évènements, etc. Les entités nommées se distinguent des mots
« abstraits » de l’énoncé linguistique. En fonction des mots qui entourent ces entités et
de la construction du discours, la machine peut apprendre à déterminer leur nature et
à construire les graphes relationnels référençant leurs attributs et qualifiant les types de
relations qui existent entre différentes entités. La reconnaissance automatique des entités
nommées possède un fort potentiel au service de l’investigation, par sa capacité à analyser
rapidement un très grand nombre de documents et à en extraire de l’information. Elle
peut également permettre d’identifier et d’occulter certaines mentions ou informations
nominatives avant de donner accès à certains documents. C’est utile avant publication des
décisions de justice ou accès aux archives de police pour les données relatives aux victimes
ou aux tiers.
248