L’intelligence artificielle au cœur du contrôle migratoire en Europe

En Europe, l’intelligence artificielle s’impose peu à peu dans la gestion des migrations pour prévoir les flux, vérifier un accent, un âge ou détecter une émotion. Un usage non sans danger pour les droits fondamentaux.

Julie Kermarrec  • 19 novembre 2025 abonné·es
L’intelligence artificielle au cœur du contrôle migratoire en Europe
© Éric Dervaux / Hans Lucas via AFP

Des caméras qui analysent les visages pour repérer un mensonge, des algorithmes capables de prédire les flux migratoires, ou encore des chatbots (agents conversationnels, N.D.L.R.) chargés de déterminer la provenance d’un demandeur d’asile d’après son accent : ces outils ne relèvent pas de la science-fiction.

Le 3 octobre dernier, l’Assemblée parlementaire du Conseil de l’Europe – organisation internationale rassemblant 46 pays –, dans sa résolution 2628, a reconnu « le potentiel de transformation de l’IA [intelligence artificielle, N.D.L.R.] dans la gestion des migrations » tout en soulignant que « l’innovation technologique ne doit pas se faire au détriment des droits fondamentaux ».

De son côté, l’Union européenne (UE) n’a pas attendu ce texte pour expérimenter des systèmes d’IA néfastes à ceux-ci. Principale utilisation de l’IA en la matière, la reconnaissance faciale a été testée en Italie, en Hongrie, en Grèce et en Lettonie. « Ce sont les tests de détection des émotions ou réactions qui analysent les mouvements du visage dans le but de détecter les réponses fausses, un comportement suspect et voir si la personne ment, explique Tania Racho, docteure en droit européen et juge-assesseure à la Cour nationale du droit d’asile (CNDA). Cela s’est révélé hautement problématique. »

Le projet iBorderCtrl, financé dans le cadre du programme européen Horizon 2020, incluait un système de détection automatique du mensonge (ADDS). Gabrielle du Boucher, chargée de mission numérique, droits et libertés à la direction de la promotion de l’égalité et de l’accès aux droits pour le Défenseur des droits, mettait ainsi en garde sur « le manque de fiabilité » de cette technologie : « Le système était crédité, en 2018, d’un taux de réussite autour de 75 %, ce qui revient à considérer un quart des personnes concernées comme soupçonnées de mentir alors que ce n’est pas le cas. (1) »

Autre procédé déployé : les agents conversationnels. En Allemagne, certaines personnes en procédure de demande d’asile peuvent être confrontées à un chatbot linguistique, chargé d’identifier leur origine géographique en fonction de leur dialecte. L’outil, baptisé Lado (Language Assessment for Determination of Origin), a été développé par l’Agence de l’Union européenne pour l’asile (AUEA). Grâce à des algorithmes d’apprentissage automatique, il distingue accents et variations linguistiques pour établir une « provenance probable ».

Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle.

S. Slama

« Cette pratique pose des problèmes en matière de protection des données personnelles et de consentement, avertit la juriste Tania Racho. En Allemagne, l’usage est plutôt transparent, car mentionné aux personnes concernées. En France, c’est beaucoup plus discret. » Pour Serge Slama, professeur de droit public à l’université Grenoble-Alpes (UGA), l’enjeu dépasse la transparence : « Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle, ce droit de contrôler l’usage de ses propres données et de choisir la manière de s’informer. Face à ce type de technologie, un illettré et un ingénieur, tous deux demandeurs d’asile, ne seront pas logés à la même enseigne. »

Petri Honkonen, rapporteur de la résolution, reconnaît lui-même « des risques en matière de données personnelles », mais le député finlandais estime que, « dans l’ensemble, l’utilisation de l’IA est quelque

Envie de terminer cet article ? Nous vous l’offrons !

Il vous suffit de vous inscrire à notre newsletter quotidienne :

Vous préférez nous soutenir directement ?
Déjà abonné ?
(mot de passe oublié ?)

Pour aller plus loin…

De l’enfer carcéral au théâtre, la renaissance de Redwane Rajel
Portrait 13 mai 2026 abonné·es

De l’enfer carcéral au théâtre, la renaissance de Redwane Rajel

Le comédien de 51 ans raconte son parcours de vie accidenté dans un seul en scène salué par ses pairs. Son histoire est celle d’un homme qui s’est reconstruit grâce à la scène, découverte en prison à la faveur des permissions de sortie et des activités culturelles.
Par Hugo Forquès
Master Poulet : à L’Après M de Marseille, « il faut arrêter d’utiliser la nourriture pour stigmatiser »
Reportage 12 mai 2026 abonné·es

Master Poulet : à L’Après M de Marseille, « il faut arrêter d’utiliser la nourriture pour stigmatiser »

La polémique autour de l’ouverture d’un Master Poulet à Saint-Ouen, contestée par le maire Karim Bouamrane (PS), a charrié des enjeux à l’intersection entre classe sociale, racisme et géographie de territoire. Un sujet qui résonne à L’Après M, restaurant solidaire dans les quartiers nord de Marseille.
Par Zoé Cottin
Fin de vie : le Sénat abrège les débats sur l’aide à mourir
Loi 12 mai 2026 abonné·es

Fin de vie : le Sénat abrège les débats sur l’aide à mourir

Les parlementaires ont voté contre l’article sur lequel reposait « l’assistance médicale à mourir », une version plus restrictive du texte adopté à l’Assemblée nationale. Laquelle sera, dorénavant, seul maître à bord du texte.
Par Hugo Boursier
Des hymnes à Pétain aux néonazis dans la rue : le long week-end de la honte
Parti pris 11 mai 2026

Des hymnes à Pétain aux néonazis dans la rue : le long week-end de la honte

Toute la fin de la semaine, le Rassemblement national et les groupuscules d’extrême droite ont donné à voir leur réécriture dangereuse et génocidaire de l’histoire. Dans leurs villes ou dans la rue, leur haine explicite n’a fait que souligner la compromission des autorités.
Par Olivier Doubre