L’intelligence artificielle au cœur du contrôle migratoire en Europe
En Europe, l’intelligence artificielle s’impose peu à peu dans la gestion des migrations pour prévoir les flux, vérifier un accent, un âge ou détecter une émotion. Un usage non sans danger pour les droits fondamentaux.
dans l’hebdo N° 1889 Acheter ce numéro

Des caméras qui analysent les visages pour repérer un mensonge, des algorithmes capables de prédire les flux migratoires, ou encore des chatbots (agents conversationnels, N.D.L.R.) chargés de déterminer la provenance d’un demandeur d’asile d’après son accent : ces outils ne relèvent pas de la science-fiction.
Le 3 octobre dernier, l’Assemblée parlementaire du Conseil de l’Europe – organisation internationale rassemblant 46 pays –, dans sa résolution 2628, a reconnu « le potentiel de transformation de l’IA [intelligence artificielle, N.D.L.R.] dans la gestion des migrations » tout en soulignant que « l’innovation technologique ne doit pas se faire au détriment des droits fondamentaux ».
De son côté, l’Union européenne (UE) n’a pas attendu ce texte pour expérimenter des systèmes d’IA néfastes à ceux-ci. Principale utilisation de l’IA en la matière, la reconnaissance faciale a été testée en Italie, en Hongrie, en Grèce et en Lettonie. « Ce sont les tests de détection des émotions ou réactions qui analysent les mouvements du visage dans le but de détecter les réponses fausses, un comportement suspect et voir si la personne ment, explique Tania Racho, docteure en droit européen et juge-assesseure à la Cour nationale du droit d’asile (CNDA). Cela s’est révélé hautement problématique. »
Le projet iBorderCtrl, financé dans le cadre du programme européen Horizon 2020, incluait un système de détection automatique du mensonge (ADDS). Gabrielle du Boucher, chargée de mission numérique, droits et libertés à la direction de la promotion de l’égalité et de l’accès aux droits pour le Défenseur des droits, mettait ainsi en garde sur « le manque de fiabilité » de cette technologie : « Le système était crédité, en 2018, d’un taux de réussite autour de 75 %, ce qui revient à considérer un quart des personnes concernées comme soupçonnées de mentir alors que ce n’est pas le cas. (1) »
Autre procédé déployé : les agents conversationnels. En Allemagne, certaines personnes en procédure de demande d’asile peuvent être confrontées à un chatbot linguistique, chargé d’identifier leur origine géographique en fonction de leur dialecte. L’outil, baptisé Lado (Language Assessment for Determination of Origin), a été développé par l’Agence de l’Union européenne pour l’asile (AUEA). Grâce à des algorithmes d’apprentissage automatique, il distingue accents et variations linguistiques pour établir une « provenance probable ».
Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle.
S. Slama« Cette pratique pose des problèmes en matière de protection des données personnelles et de consentement, avertit la juriste Tania Racho. En Allemagne, l’usage est plutôt transparent, car mentionné aux personnes concernées. En France, c’est beaucoup plus discret. » Pour Serge Slama, professeur de droit public à l’université Grenoble-Alpes (UGA), l’enjeu dépasse la transparence : « Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle, ce droit de contrôler l’usage de ses propres données et de choisir la manière de s’informer. Face à ce type de technologie, un illettré et un ingénieur, tous deux demandeurs d’asile, ne seront pas logés à la même enseigne. »
Petri Honkonen, rapporteur de la résolution, reconnaît lui-même « des risques en matière de données personnelles », mais le député finlandais estime que, « dans l’ensemble, l’utilisation de l’IA est quelque
Il vous suffit de vous inscrire à notre newsletter hebdomadaire :
Pour aller plus loin…
Extrême droite armée, police peu réactive… Après la mort de Quentin Deranque, des faits et des questions
Gisèle Pelicot, le déni dans la joie
« La mort de Quentin Deranque témoigne d’une grave défaillance de la puissance publique »