L’intelligence artificielle au cœur du contrôle migratoire en Europe

En Europe, l’intelligence artificielle s’impose peu à peu dans la gestion des migrations pour prévoir les flux, vérifier un accent, un âge ou détecter une émotion. Un usage non sans danger pour les droits fondamentaux.

Julie Kermarrec  • 19 novembre 2025 abonné·es
L’intelligence artificielle au cœur du contrôle migratoire en Europe
© Éric Dervaux / Hans Lucas via AFP

Des caméras qui analysent les visages pour repérer un mensonge, des algorithmes capables de prédire les flux migratoires, ou encore des chatbots (agents conversationnels, N.D.L.R.) chargés de déterminer la provenance d’un demandeur d’asile d’après son accent : ces outils ne relèvent pas de la science-fiction.

Le 3 octobre dernier, l’Assemblée parlementaire du Conseil de l’Europe – organisation internationale rassemblant 46 pays –, dans sa résolution 2628, a reconnu « le potentiel de transformation de l’IA [intelligence artificielle, N.D.L.R.] dans la gestion des migrations » tout en soulignant que « l’innovation technologique ne doit pas se faire au détriment des droits fondamentaux ».

De son côté, l’Union européenne (UE) n’a pas attendu ce texte pour expérimenter des systèmes d’IA néfastes à ceux-ci. Principale utilisation de l’IA en la matière, la reconnaissance faciale a été testée en Italie, en Hongrie, en Grèce et en Lettonie. « Ce sont les tests de détection des émotions ou réactions qui analysent les mouvements du visage dans le but de détecter les réponses fausses, un comportement suspect et voir si la personne ment, explique Tania Racho, docteure en droit européen et juge-assesseure à la Cour nationale du droit d’asile (CNDA). Cela s’est révélé hautement problématique. »

Le projet iBorderCtrl, financé dans le cadre du programme européen Horizon 2020, incluait un système de détection automatique du mensonge (ADDS). Gabrielle du Boucher, chargée de mission numérique, droits et libertés à la direction de la promotion de l’égalité et de l’accès aux droits pour le Défenseur des droits, mettait ainsi en garde sur « le manque de fiabilité » de cette technologie : « Le système était crédité, en 2018, d’un taux de réussite autour de 75 %, ce qui revient à considérer un quart des personnes concernées comme soupçonnées de mentir alors que ce n’est pas le cas. (1) »

Autre procédé déployé : les agents conversationnels. En Allemagne, certaines personnes en procédure de demande d’asile peuvent être confrontées à un chatbot linguistique, chargé d’identifier leur origine géographique en fonction de leur dialecte. L’outil, baptisé Lado (Language Assessment for Determination of Origin), a été développé par l’Agence de l’Union européenne pour l’asile (AUEA). Grâce à des algorithmes d’apprentissage automatique, il distingue accents et variations linguistiques pour établir une « provenance probable ».

Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle.

S. Slama

« Cette pratique pose des problèmes en matière de protection des données personnelles et de consentement, avertit la juriste Tania Racho. En Allemagne, l’usage est plutôt transparent, car mentionné aux personnes concernées. En France, c’est beaucoup plus discret. » Pour Serge Slama, professeur de droit public à l’université Grenoble-Alpes (UGA), l’enjeu dépasse la transparence : « Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle, ce droit de contrôler l’usage de ses propres données et de choisir la manière de s’informer. Face à ce type de technologie, un illettré et un ingénieur, tous deux demandeurs d’asile, ne seront pas logés à la même enseigne. »

Petri Honkonen, rapporteur de la résolution, reconnaît lui-même « des risques en matière de données personnelles », mais le député finlandais estime que, « dans l’ensemble, l’utilisation de l’IA est quelque

Envie de terminer cet article ? Nous vous l’offrons !

Il vous suffit de vous inscrire à notre newsletter hebdomadaire :

Vous préférez nous soutenir directement ?
Déjà abonné ?
(mot de passe oublié ?)

Pour aller plus loin…

Extrême droite armée, police peu réactive… Après la mort de Quentin Deranque, des faits et des questions
Enquête 18 février 2026 abonné·es

Extrême droite armée, police peu réactive… Après la mort de Quentin Deranque, des faits et des questions

Neuf personnes appartenant à la Jeune Garde ont été interpellées, mardi soir, dans l’enquête concernant la mort du militant nationaliste, Quentin Deranque. L’enquête policière avance avec un déroulé précis de faits qui commencent à s’éclairer, avec encore des questions en suspens.
Par Pierre Jequier-Zalc
Gisèle Pelicot, le déni dans la joie
Chronique illustrée 17 février 2026 abonné·es

Gisèle Pelicot, le déni dans la joie

Après avoir été élue femme de l’année par le Time en 2025, proposée au prix Nobel de la Paix, décorée de la Légion d’honneur, Gisèle Pelicot devient le phénomène littéraire qu’on attendait. « La Grande Librairie », Elle, Le Nouvel Obs, Le Figaro, Le Monde, la presse étrangère… tout le monde doit être témoin de la « résilience » de Mme Pelicot, sublimée par le titre Et la joie de vivre.
Par Cécile Cée
« La mort de Quentin Deranque témoigne d’une grave défaillance de la puissance publique »
Entretien 17 février 2026

« La mort de Quentin Deranque témoigne d’une grave défaillance de la puissance publique »

Après la mort du militant d’extrême droite, jeudi 12 février à la suite d’une rixe, l’avocat lyonnais Olivier Forray, qui défend les victimes de l’extrême droite à Lyon, revient sur les évènements et pointe un laxisme des autorités face aux groupes d’extrême droite qui a créé les conditions de ce drame.
Par Pierre Jequier-Zalc
« Tous les transports publics du quotidien devraient être gratuits »
La Midinale 13 février 2026

« Tous les transports publics du quotidien devraient être gratuits »

Patrick Le Moal, représentant de l’Union pour la gratuité et le développement des transports (UGDT), est l’invité de « La Midinale ».
Par Pablo Pillaud-Vivien