L’intelligence artificielle au cœur du contrôle migratoire en Europe

En Europe, l’intelligence artificielle s’impose peu à peu dans la gestion des migrations pour prévoir les flux, vérifier un accent, un âge ou détecter une émotion. Un usage non sans danger pour les droits fondamentaux.

Julie Kermarrec  • 19 novembre 2025 abonné·es
L’intelligence artificielle au cœur du contrôle migratoire en Europe
© Éric Dervaux / Hans Lucas via AFP

Des caméras qui analysent les visages pour repérer un mensonge, des algorithmes capables de prédire les flux migratoires, ou encore des chatbots (agents conversationnels, N.D.L.R.) chargés de déterminer la provenance d’un demandeur d’asile d’après son accent : ces outils ne relèvent pas de la science-fiction.

Le 3 octobre dernier, l’Assemblée parlementaire du Conseil de l’Europe – organisation internationale rassemblant 46 pays –, dans sa résolution 2628, a reconnu « le potentiel de transformation de l’IA [intelligence artificielle, N.D.L.R.] dans la gestion des migrations » tout en soulignant que « l’innovation technologique ne doit pas se faire au détriment des droits fondamentaux ».

De son côté, l’Union européenne (UE) n’a pas attendu ce texte pour expérimenter des systèmes d’IA néfastes à ceux-ci. Principale utilisation de l’IA en la matière, la reconnaissance faciale a été testée en Italie, en Hongrie, en Grèce et en Lettonie. « Ce sont les tests de détection des émotions ou réactions qui analysent les mouvements du visage dans le but de détecter les réponses fausses, un comportement suspect et voir si la personne ment, explique Tania Racho, docteure en droit européen et juge-assesseure à la Cour nationale du droit d’asile (CNDA). Cela s’est révélé hautement problématique. »

Sur le même sujet : Dossier : Comment l’Europe se cale sur l’extrême droite

Le projet iBorderCtrl, financé dans le cadre du programme européen Horizon 2020, incluait un système de détection automatique du mensonge (ADDS). Gabrielle du Boucher, chargée de mission numérique, droits et libertés à la direction de la promotion de l’égalité et de l’accès aux droits pour le Défenseur des droits, mettait ainsi en garde sur « le manque de fiabilité » de cette technologie : « Le système était crédité, en 2018, d’un taux de réussite autour de 75 %, ce qui revient à considérer un quart des personnes concernées comme soupçonnées de mentir alors que ce n’est pas le cas. (1) »

1

« Les algorithmes et l’intelligence artificielle contre les étrangers en Europe », Gabrielle du Boucher, Plein droit, n° 140, mars 2024, dossier « Le techno-contrôle des migrations », GISTI.

Autre procédé déployé : les agents conversationnels. En Allemagne, certaines personnes en procédure de demande d’asile peuvent être confrontées à un chatbot linguistique, chargé d’identifier leur origine géographique en fonction de leur dialecte. L’outil, baptisé Lado (Language Assessment for Determination of Origin), a été développé par l’Agence de l’Union européenne pour l’asile (AUEA). Grâce à des algorithmes d’apprentissage automatique, il distingue accents et variations linguistiques pour établir une « provenance probable ».

Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle.

S. Slama

« Cette pratique pose des problèmes en matière de protection des données personnelles et de consentement, avertit la juriste Tania Racho. En Allemagne, l’usage est plutôt transparent, car mentionné aux personnes concernées. En France, c’est beaucoup plus discret. » Pour Serge Slama, professeur de droit public à l’université Grenoble-Alpes (UGA), l’enjeu dépasse la transparence : « Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle, ce droit de contrôler l’usage de ses propres données et de choisir la manière de s’informer. Face à ce type de technologie, un illettré et un ingénieur, tous deux demandeurs d’asile, ne seront pas logés à la même enseigne. »

Sur le même sujet : « IA quoi ? » : et si on parlait des vrais dangers de l’intelligence artificielle ?

Petri Honkonen, rapporteur de la résolution, reconnaît lui-même « des risques en matière de données personnelles », mais le député finlandais estime que, « dans l’ensemble, l’utilisation de l’IA est quelque chose de positif : cela permet d’accélérer les procédures souvent longues, d’apprendre une langue ou de trouver un emploi ». « Des usages dont il est permis de douter au vu des orientations actuelles des politiques migratoires à l’échelle de l’Union européenne », nuance Pascaline Chappart, membre du Groupe d’information et de soutien des immigrés (Gisti).

Amalgame entre criminalisation et immigration

Le second champ d’application de l’IA dans la migration est tout aussi problématique : l’analyse prédictive. Derrière ce terme, une série de programmes européens financés pour anticiper les mouvements migratoires grâce à l’exploitation massive de données. « Ici, ce sont les recherches Google, les mots-clés sur les réseaux sociaux ou encore les métadonnées des téléphones portables qui sont scrutés afin de détecter les flux migratoires », rapporte le spécialiste Serge Slama (???????)

Un refus d’entrée pourrait se fonder non pas sur la situation réelle d’une personne, mais sur des calculs prédictifs.

J. Castro John

C’est le principe du projet ITFlows (2020-2023), financé à hauteur de 4 millions d’euros par l’UE, ou encore du projet QuantMig, visant à simuler les dynamiques migratoires dans 31 pays européens jusqu’en 2060. L’AUEA a, de son côté, mis en place un système d’alerte précoce, Early Warning and Preparedness System (EWPS), fondé sur un algorithme d’apprentissage automatique.

Selon Serge Slama, ces outils ne servent pas à « mieux prévoir pour mieux accueillir » : « L’idée est plutôt d’anticiper les déplacements pour fermer les routes. » Le Gisti a dénoncé à plusieurs reprises ces dispositifs et explique : « Les données collectées sont mises en corrélation avec d’autres déjà utilisées, comme celles d’Eurodac ou de Frontex, alimentent ces fichiers, renforçant une logique de tri social et un amalgame entre criminalisation et immigration. »

Sur le même sujet : Frontex, une troupe de choc en roue libre

De plus, « c’est la qualité même de la donnée qui est questionnable, ajoute Tania Racho. L’IA est alimentée par des données issues des réseaux sociaux, donc biaisées et discriminatoires. » Júlia Castro John, doctorante à l’université Paris-Panthéon-Assas (2), alerte qu’un « contrôle renforcé, voire le refus d’entrée, pourrait se fonder non pas sur la situation réelle d’une personne, mais sur des calculs prédictifs. La conscience d’une surveillance accrue pourrait aussi dissuader de s’exprimer, restreignant les libertés d’association, de croyance et d’expression politique. »

2

« L’intelligence artificielle au cœur du contrôle des flux migratoires de l’Union européenne », Júlia Castro John, Questions internationales, 4 décembre 2024.

Un cadre juridique encore trop permissif

En mars 2024, le Défenseur des droits se montrait déjà « préoccupé par le déploiement des algorithmes et de l’intelligence artificielle à des fins de contrôle et de surveillance des personnes étrangères [qui] laisse craindre une fragilisation de leurs droits fondamentaux contre laquelle la future législation européenne n’apporte visiblement pas toutes les garanties nécessaires ».

Adopté en 2024, l’AI Act classe les systèmes d’IA selon le risque qu’ils présentent pour les droits fondamentaux. Les technologies utilisées dans la gestion des migrations sont ainsi considérées « à haut risque » et se voient imposer des restrictions importantes. Or, certaines agences européennes utilisant le Système d’information Schengen (SIS), le Système d’information sur les visas (VIS), Eurodac (base de données d’empreintes digitales) et les systèmes d’autorisation de voyage EES et ETIAS ont jusqu’en 2030 pour se conformer.

Le texte est d’autant plus flou sur le contexte migratoire qu’il exclut de son champ d’application les IA utilisés par les États pour leur sécurité nationale.

T. Racho

« Ce délai rend possible la poursuite de pratiques reconnues comme dangereuses pendant plusieurs années, sans contrepartie en matière de supervision humaine ou de transparence », avertit Júlia Castro John. « Le texte est d’autant plus flou sur le contexte migratoire qu’il exclut de son champ d’application les IA utilisés par les États pour leur sécurité nationale, qui est de la seule responsabilité des États membres », complète Tania Racho.

Est-ce du côté du Conseil de l’Europe, organisation distincte de l’Union européenne censée défendre les droits humains et notamment la Convention européenne des droits de l’homme, qu’il faut attendre des garde-fous ? La résolution du 3 octobre appelle à interdire certaines pratiques, comme la reconnaissance des émotions, le profilage fondé sur la nationalité ou l’évaluation automatisée de la crédibilité.

Sur le même sujet : Immigration : comment l’Europe se durcit

Le texte encourage aussi les États à ratifier la Convention-cadre sur l’intelligence artificielle, censée assurer le respect des droits humains dans le déploiement de ces technologies. Mais les garanties restent fragiles. « La résolution relève de la soft law, c’est-à-dire un instrument non contraignant. Les États membres ne sont donc pas liés par ce texte », rappelle le juriste Serge Slama.

Pascaline Chappart ajoute : « La Convention-cadre est contraignante quant à elle, mais reste peu signée (la France ne l’a pas fait, par exemple) et converge globalement avec le règlement européen sur l’IA, qui prévoit de larges exceptions en matière migratoire. » Alors que l’Europe prétend concilier innovation et protection des droits fondamentaux, elle autorise des technologies qui échappent encore à tout contrôle démocratique.

Recevez Politis chez vous chaque semaine !
Abonnez-vous

Pour aller plus loin…

Prix des médicaments : refuser la prise d’otage de l’industrie pharmaceutique !
Sécurité sociale 19 novembre 2025

Prix des médicaments : refuser la prise d’otage de l’industrie pharmaceutique !

En défendant un amendement sur la transparence des prix des médicaments, le député écologiste Hendrik Davi dénonce le chantage de l’industrie pharmaceutique qui brandit la menace de quitter le marché français. Il appelle à restaurer un contrôle démocratique sur des coûts cachés colossaux.
Par Hendrik Davi
IGPN : la grande faillite du contrôle des policiers 
Violences policières 18 novembre 2025 abonné·es

IGPN : la grande faillite du contrôle des policiers 

Un rapport explosif de l’ONG Flagrant déni, publié ce mardi 18 novembre, met en lumière l’effondrement de la police des polices. Chiffres inédits à l’appui, le document démontre que le taux d’élucidation des violences policières a chuté de 25 % en huit ans alors que le nombre d’affaires est en augmentation.
Par Maxime Sirvins
« La gauche ne parle pas aux ruraux et c’est (aussi) pour ça qu’elle perd »
La Midinale 18 novembre 2025

« La gauche ne parle pas aux ruraux et c’est (aussi) pour ça qu’elle perd »

Lumir Lapray, activiste et autrice de « Ces gens-là ». Plongée dans cette France qui pourrait tout faire basculer aux éditions Payot, est l’invité de « La Midinale ».
Par Pablo Pillaud-Vivien
« Complicité de crime de guerre » : des associations veulent interdire un salon immobilier israélien
Israël 17 novembre 2025 abonné·es

« Complicité de crime de guerre » : des associations veulent interdire un salon immobilier israélien

Dans un courrier adressé au ministre de l’Intérieur que Politis a pu consulter, quatre associations demandent l’interdiction de l’événement Icube, qui a proposé, lors de ses précédentes éditions, des biens dans des territoires illégalement occupés par Israël.
Par Pauline Migevant et Hugo Boursier