L’intelligence artificielle au cœur du contrôle migratoire en Europe

En Europe, l’intelligence artificielle s’impose peu à peu dans la gestion des migrations pour prévoir les flux, vérifier un accent, un âge ou détecter une émotion. Un usage non sans danger pour les droits fondamentaux.

Julie Kermarrec  • 19 novembre 2025 abonné·es
L’intelligence artificielle au cœur du contrôle migratoire en Europe
© Éric Dervaux / Hans Lucas via AFP

Des caméras qui analysent les visages pour repérer un mensonge, des algorithmes capables de prédire les flux migratoires, ou encore des chatbots (agents conversationnels, N.D.L.R.) chargés de déterminer la provenance d’un demandeur d’asile d’après son accent : ces outils ne relèvent pas de la science-fiction.

Le 3 octobre dernier, l’Assemblée parlementaire du Conseil de l’Europe – organisation internationale rassemblant 46 pays –, dans sa résolution 2628, a reconnu « le potentiel de transformation de l’IA [intelligence artificielle, N.D.L.R.] dans la gestion des migrations » tout en soulignant que « l’innovation technologique ne doit pas se faire au détriment des droits fondamentaux ».

De son côté, l’Union européenne (UE) n’a pas attendu ce texte pour expérimenter des systèmes d’IA néfastes à ceux-ci. Principale utilisation de l’IA en la matière, la reconnaissance faciale a été testée en Italie, en Hongrie, en Grèce et en Lettonie. « Ce sont les tests de détection des émotions ou réactions qui analysent les mouvements du visage dans le but de détecter les réponses fausses, un comportement suspect et voir si la personne ment, explique Tania Racho, docteure en droit européen et juge-assesseure à la Cour nationale du droit d’asile (CNDA). Cela s’est révélé hautement problématique. »

Sur le même sujet : Dossier : Comment l’Europe se cale sur l’extrême droite

Le projet iBorderCtrl, financé dans le cadre du programme européen Horizon 2020, incluait un système de détection automatique du mensonge (ADDS). Gabrielle du Boucher, chargée de mission numérique, droits et libertés à la direction de la promotion de l’égalité et de l’accès aux droits pour le Défenseur des droits, mettait ainsi en garde sur « le manque de fiabilité » de cette technologie : « Le système était crédité, en 2018, d’un taux de réussite autour de 75 %, ce qui revient à considérer un quart des personnes concernées comme soupçonnées de mentir alors que ce n’est pas le cas. (1) »

1

« Les algorithmes et l’intelligence artificielle contre les étrangers en Europe », Gabrielle du Boucher, Plein droit, n° 140, mars 2024, dossier « Le techno-contrôle des migrations », GISTI.

Autre procédé déployé : les agents conversationnels. En Allemagne, certaines personnes en procédure de demande d’asile peuvent être confrontées à un chatbot linguistique, chargé d’identifier leur origine géographique en fonction de leur dialecte. L’outil, baptisé Lado (Language Assessment for Determination of Origin), a été développé par l’Agence de l’Union européenne pour l’asile (AUEA). Grâce à des algorithmes d’apprentissage automatique, il distingue accents et variations linguistiques pour établir une « provenance probable ».

Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle.

S. Slama

« Cette pratique pose des problèmes en matière de protection des données personnelles et de consentement, avertit la juriste Tania Racho. En Allemagne, l’usage est plutôt transparent, car mentionné aux personnes concernées. En France, c’est beaucoup plus discret. » Pour Serge Slama, professeur de droit public à l’université Grenoble-Alpes (UGA), l’enjeu dépasse la transparence : « Sous couvert de gain de temps, on restreint plusieurs libertés fondamentales, comme le droit à l’autodétermination informationnelle, ce droit de contrôler l’usage de ses propres données et de choisir la manière de s’informer. Face à ce type de technologie, un illettré et un ingénieur, tous deux demandeurs d’asile, ne seront pas logés à la même enseigne. »

Sur le même sujet : « IA quoi ? » : et si on parlait des vrais dangers de l’intelligence artificielle ?

Petri Honkonen, rapporteur de la résolution, reconnaît lui-même « des risques en matière de données personnelles », mais le député finlandais estime que, « dans l’ensemble, l’utilisation de l’IA est quelque chose de positif : cela permet d’accélérer les procédures souvent longues, d’apprendre une langue ou de trouver un emploi ». « Des usages dont il est permis de douter au vu des orientations actuelles des politiques migratoires à l’échelle de l’Union européenne », nuance Pascaline Chappart, membre du Groupe d’information et de soutien des immigrés (Gisti).

Amalgame entre criminalisation et immigration

Le second champ d’application de l’IA dans la migration est tout aussi problématique : l’analyse prédictive. Derrière ce terme, une série de programmes européens financés pour anticiper les mouvements migratoires grâce à l’exploitation massive de données. « Ici, ce sont les recherches Google, les mots-clés sur les réseaux sociaux ou encore les métadonnées des téléphones portables qui sont scrutés afin de détecter les flux migratoires », rapporte le spécialiste Serge Slama.

Un refus d’entrée pourrait se fonder non pas sur la situation réelle d’une personne, mais sur des calculs prédictifs.

J. Castro John

C’est le principe du projet ITFlows (2020-2023), financé à hauteur de 4 millions d’euros par l’UE, ou encore du projet QuantMig, visant à simuler les dynamiques migratoires dans 31 pays européens jusqu’en 2060. L’AUEA a, de son côté, mis en place un système d’alerte précoce, Early Warning and Preparedness System (EWPS), fondé sur un algorithme d’apprentissage automatique.

Selon Serge Slama, ces outils ne servent pas à « mieux prévoir pour mieux accueillir » : « L’idée est plutôt d’anticiper les déplacements pour fermer les routes. » Le Gisti a dénoncé à plusieurs reprises ces dispositifs et explique : « Les données collectées sont mises en corrélation avec d’autres déjà utilisées, comme celles d’Eurodac ou de Frontex, alimentent ces fichiers, renforçant une logique de tri social et un amalgame entre criminalisation et immigration. »

Sur le même sujet : Frontex, une troupe de choc en roue libre

De plus, « c’est la qualité même de la donnée qui est questionnable, ajoute Tania Racho. L’IA est alimentée par des données issues des réseaux sociaux, donc biaisées et discriminatoires. » Júlia Castro John, doctorante à l’université Paris-Panthéon-Assas (2), alerte qu’un « contrôle renforcé, voire le refus d’entrée, pourrait se fonder non pas sur la situation réelle d’une personne, mais sur des calculs prédictifs. La conscience d’une surveillance accrue pourrait aussi dissuader de s’exprimer, restreignant les libertés d’association, de croyance et d’expression politique. »

2

« L’intelligence artificielle au cœur du contrôle des flux migratoires de l’Union européenne », Júlia Castro John, Questions internationales, 4 décembre 2024.

Un cadre juridique encore trop permissif

En mars 2024, le Défenseur des droits se montrait déjà « préoccupé par le déploiement des algorithmes et de l’intelligence artificielle à des fins de contrôle et de surveillance des personnes étrangères [qui] laisse craindre une fragilisation de leurs droits fondamentaux contre laquelle la future législation européenne n’apporte visiblement pas toutes les garanties nécessaires ».

Adopté en 2024, l’AI Act classe les systèmes d’IA selon le risque qu’ils présentent pour les droits fondamentaux. Les technologies utilisées dans la gestion des migrations sont ainsi considérées « à haut risque » et se voient imposer des restrictions importantes. Or, certaines agences européennes utilisant le Système d’information Schengen (SIS), le Système d’information sur les visas (VIS), Eurodac (base de données d’empreintes digitales) et les systèmes d’autorisation de voyage EES et ETIAS ont jusqu’en 2030 pour se conformer.

Le texte est d’autant plus flou sur le contexte migratoire qu’il exclut de son champ d’application les IA utilisés par les États pour leur sécurité nationale.

T. Racho

« Ce délai rend possible la poursuite de pratiques reconnues comme dangereuses pendant plusieurs années, sans contrepartie en matière de supervision humaine ou de transparence », avertit Júlia Castro John. « Le texte est d’autant plus flou sur le contexte migratoire qu’il exclut de son champ d’application les IA utilisés par les États pour leur sécurité nationale, qui est de la seule responsabilité des États membres », complète Tania Racho.

Est-ce du côté du Conseil de l’Europe, organisation distincte de l’Union européenne censée défendre les droits humains et notamment la Convention européenne des droits de l’homme, qu’il faut attendre des garde-fous ? La résolution du 3 octobre appelle à interdire certaines pratiques, comme la reconnaissance des émotions, le profilage fondé sur la nationalité ou l’évaluation automatisée de la crédibilité.

Sur le même sujet : Immigration : comment l’Europe se durcit

Le texte encourage aussi les États à ratifier la Convention-cadre sur l’intelligence artificielle, censée assurer le respect des droits humains dans le déploiement de ces technologies. Mais les garanties restent fragiles. « La résolution relève de la soft law, c’est-à-dire un instrument non contraignant. Les États membres ne sont donc pas liés par ce texte », rappelle le juriste Serge Slama.

Pascaline Chappart ajoute : « La Convention-cadre est contraignante quant à elle, mais reste peu signée (la France ne l’a pas fait, par exemple) et converge globalement avec le règlement européen sur l’IA, qui prévoit de larges exceptions en matière migratoire. » Alors que l’Europe prétend concilier innovation et protection des droits fondamentaux, elle autorise des technologies qui échappent encore à tout contrôle démocratique.

Recevez Politis chez vous chaque semaine !
Abonnez-vous

Pour aller plus loin…

Aux États-Unis, l’habit fait le trumpiste
Analyse 12 décembre 2025 abonné·es

Aux États-Unis, l’habit fait le trumpiste

Entre exaltation d’une féminité à l’ancienne, nostalgie d’une Amérique fantasmée et stratégies médiatiques, l’esthétique vestimentaire se transforme en arme politique au service du courant Maga. Les conservateurs s’en prennent jusqu’à la couleur rose d’un pull pour hommes.
Par Juliette Heinzlef
Naturalisation : des Palestiniens sous pression de la DGSI
Enquête 11 décembre 2025 abonné·es

Naturalisation : des Palestiniens sous pression de la DGSI

Convoqués par la Direction générale de la sécurité intérieure alors qu’ils demandaient la nationalité française, trois Palestiniens racontent les entretiens durant lesquels on leur a suggéré de fournir aux Renseignements des informations sur le mouvement associatif palestinien.
Par Pauline Migevant
« La surveillance des Palestiniens en Europe est très répandue »
Entretien 11 décembre 2025

« La surveillance des Palestiniens en Europe est très répandue »

En Europe, les Palestiniens sont de plus en plus ciblés par les surveillances numériques ou les fermetures de comptes bancaires. Layla Kattermann, responsable de la veille pour l’European Legal Support Center, revient sur ce standard européen de surveillance.
Par William Jean
À la frontière franco-britannique, la parade de l’extrême droite, entre associations inquiètes et forces de l’ordre passives
Reportage 6 décembre 2025 libéré

À la frontière franco-britannique, la parade de l’extrême droite, entre associations inquiètes et forces de l’ordre passives

Sur la plage de Gravelines, lieu de départ de small boats vers l’Angleterre, des militants d’extrême droite britannique se sont ajoutés vendredi 5 décembre matin aux forces de l’ordre et observateurs associatifs. Une action de propagande dans un contexte d’intimidations de l’extrême droite. Reportage.
Par Pauline Migevant et Maxime Sirvins