L’algorithme de notation des CAF attaqué en justice

Discriminatoire et opaque, l’algorithme de notation des allocataires de la CAF cible principalement les plus précaires et renforce les inégalités sociales, dénoncent quinze associations. Elles ont saisi le Conseil d’État pour réclamer son arrêt.

Thomas Lefèvre  • 16 octobre 2024 abonné·es
L’algorithme de notation des CAF attaqué en justice
© Philippe Huguen / AFP

Mercredi 16 octobre, veille de la Journée mondiale du refus de la misère, quinze associations ont annoncé avoir saisi le Conseil d’État. Elles réclament l’arrêt de l’utilisation de l’algorithme de notation des allocataires par la Caisse nationale des allocations familiales (CNAF). Elles dénoncent un dispositif discriminatoire et une utilisation excessive des données personnelles par l’organisme public. L’algorithme attribue un score à chaque allocataire, afin de déterminer ceux étant considérés comme « à risque », et donc, plus à même de faire l’objet d’un contrôle. Plus le score est élevé, plus la probabilité de subir un contrôle est grande.

Une lutte disproportionnée contre la fraude sociale

Chaque mois, les Caisses d’allocations familiales (CAF) utilisent les données de plus de 32 millions de personnes pour nourrir l’algorithme, et ambitionnent de prédire les potentielles erreurs, ou les potentiels fraudeurs. Les contrôles des CAF peuvent s’accompagner d’un arrêt de versement des prestations et d’une demande de remboursement, même dans le cas d’erreurs. Les motifs de sanction sont souvent difficilement accessibles et les voies de recours peu compréhensibles. « Impossible de se défendre face à une accusation dont on ignore tout », critique Clément Terrasson, avocat spécialiste des litiges liés aux CAF à Grenoble.

Dans ses résultats 2022, la CNAF fait état de 351 millions d’euros de fraudes détectées, soit 0,35 % du total des prestations versées.

Cet indicateur est supposé permettre de détecter des sommes indûment versées, mais dans les faits, il associe précarité et suspicion de fraude. « Des erreurs non intentionnelles sont qualifiées de fraude », résume Didier Minot, président du collectif Changer de Cap, lors d’une conférence de presse. Pascale Ribes, présidente d’APF France Handicap, demande à ce que « toute l’énergie investie dans la recherche de fraudeurs, soit investie dans un meilleur accompagnement des allocataires », regrettant des démarches complexes et opaques, susceptibles d’augmenter les erreurs.

Sur le même sujet : Fraude sociale : un rapport bat en brèche des années de discours stigmatisants

Les associations s’inquiètent d’une lutte disproportionnée contre la fraude sociale, en rappelant que cette dernière serait environ cinq fois plus faible que la fraude fiscale, estimée de 60 à 80 milliards d’euros selon le syndicat Solidaires Finances publiques. De plus, dans ses résultats 2022, la CNAF fait état de 351 millions d’euros de fraudes détectées, soit 0,35 % du total des prestations versées, qui représentent 99 milliards d’euros.

Des discriminations à tous les niveaux

Le score établi par l’algorithme de la CNAF est compris entre 0 et 1, augmente en fonction de certaines variables et augmente, avec lui, la probabilité de subir un contrôle de la part de l’organisme. La Quadrature du Net, une association luttant contre les dérives de surveillance dans le monde numérique, avait déjà réalisé une enquête fin 2023 sur le dispositif utilisé par la CNAF. Le collectif est parvenu à obtenir le code source utilisé pour l’algorithme, après des demandes répétées à la commission d’accès aux documents administratifs.

Néanmoins, ce sont des versions antérieures qui leur ont été transmises, celles utilisées entre 2010 et 2018, et partielles car plusieurs variables demeurent confidentielles. La CNAF explique vouloir garder le programme actuellement utilisé secret, car « en identifiant les critères constituant des facteurs de ciblage, des fraudeurs pourraient organiser et monter des dossiers frauduleux », rapporte l’enquête. De leur côté, les associations dénoncent un manque de transparence. Les codes sources obtenus permettent d’avoir une idée des procédés utilisés et des variables retenues.

Selon Bastien Le Querrec, juriste à la Quadrature du Net, « certaines variables sont directement discriminatoires ». Parmi les facteurs augmentant le score de suspicion, on retrouve notamment le fait d’avoir de faibles revenus, d’être bénéficiaire de l’allocation adulte handicapée trimestrielle, d’être allocataire du RSA, d’être au chômage, ou encore d’avoir divorcé dans les douze derniers mois. Autrement dit, l’âge, la situation économique, la situation familiale et la situation de handicap influeraient directement sur la probabilité de subir un contrôle d’une CAF.

Les familles monoparentales ont plus de chance d’avoir un score élevé avec cet algorithme, alors même qu’elles sont composées à 82 % de mères seules.

Le recours juridique déposé par les 15 associations parle également de discrimination indirecte. Un algorithme de notation comme celui de la CNAF utilise l’intelligence artificielle et est entraîné sur des quantités massives de données, reproduisant ainsi des stéréotypes et des biais déjà ancrés dans la société. En l’occurrence, les personnes dans les situations les plus précaires sont davantage susceptibles de se faire contrôler.

Sur le même sujet : Sortir les mères isolées de l’ombre

Par exemple, les familles monoparentales ont plus de chance d’avoir un score élevé avec cet algorithme de notation, alors même que celles-ci étaient composées à 82 % de mères seules avec un ou plusieurs enfants en 2020, selon l’Insee. Il est interdit à un algorithme de prendre en compte le sexe comme critère, mais l’utilisation d’autres variables corrélées, comme la situation familiale, conduit indirectement à des disparités entre hommes et femmes.

Le non-respect du RGPD

Un autre argument juridique avancé par les associations dans le recours devant le Conseil d’État, est la disproportion du traitement des données personnelles. En effet, selon le règlement général de protection des données (RGPD) en vigueur dans l’Union européenne, et la loi Informatique et Libertés qui l’adapte au droit français, tout traitement de données doit être proportionné à l’objectif poursuivi. Dans ce cas précis, le but affiché est d’identifier les dossiers dans lesquels il est probable de découvrir une somme indûment versée en cas de contrôle, avec tous les biais cités précédemment.

Sur le même sujet : « Une intelligence artificielle de confiance doit être socialement acceptable »

Les associations alertent aussi sur l’opacité du fonctionnement d’un tel algorithme de notation et sur la généralisation de ce genre d’outil au sein d’organismes publics, citant notamment l’algorithme d’employabilité de France Travail. À l’aune du développement de l’intelligence artificielle et de la dématérialisation, le collectif d’associations demande au Conseil d’État de transmettre l’affaire à la Cour de justice de l’Union européenne, afin d’obtenir une décision applicable à l’ensemble de ses membres.

Pour aller plus loin…

Aux États-Unis, l’habit fait le trumpiste
Analyse 12 décembre 2025 abonné·es

Aux États-Unis, l’habit fait le trumpiste

Entre exaltation d’une féminité à l’ancienne, nostalgie d’une Amérique fantasmée et stratégies médiatiques, l’esthétique vestimentaire se transforme en arme politique au service du courant Maga. Les conservateurs s’en prennent jusqu’à la couleur rose d’un pull pour hommes.
Par Juliette Heinzlef
Naturalisation : des Palestiniens sous pression de la DGSI
Enquête 11 décembre 2025 abonné·es

Naturalisation : des Palestiniens sous pression de la DGSI

Convoqués par la Direction générale de la sécurité intérieure alors qu’ils demandaient la nationalité française, trois Palestiniens racontent les entretiens durant lesquels on leur a suggéré de fournir aux Renseignements des informations sur le mouvement associatif palestinien.
Par Pauline Migevant
« La surveillance des Palestiniens en Europe est très répandue »
Entretien 11 décembre 2025

« La surveillance des Palestiniens en Europe est très répandue »

En Europe, les Palestiniens sont de plus en plus ciblés par les surveillances numériques ou les fermetures de comptes bancaires. Layla Kattermann, responsable de la veille pour l’European Legal Support Center, revient sur ce standard européen de surveillance.
Par William Jean
À la frontière franco-britannique, la parade de l’extrême droite, entre associations inquiètes et forces de l’ordre passives
Reportage 6 décembre 2025 libéré

À la frontière franco-britannique, la parade de l’extrême droite, entre associations inquiètes et forces de l’ordre passives

Sur la plage de Gravelines, lieu de départ de small boats vers l’Angleterre, des militants d’extrême droite britannique se sont ajoutés vendredi 5 décembre matin aux forces de l’ordre et observateurs associatifs. Une action de propagande dans un contexte d’intimidations de l’extrême droite. Reportage.
Par Pauline Migevant et Maxime Sirvins