IA générative : c’est (toujours) non merci
Non, ce n’est pas un « outil neutre » dont on ferait un simple malheureux usage.

Il y a quelques jours, un média iranien a produit une vidéo représentant des crimes de guerre états-uniens, rappelant ainsi le passé (et le présent) sanglant d’un pays dont l’interventionnisme n’a jamais eu une quelconque motivation démocratique. Si la vidéo rappelle la nature coloniale et martiale des États-Unis, elle a aussi pour but de présenter une image unifiée de l’Iran alors que sévit localement un régime autoritaire d’une violence inouïe. Elle s’insère également dans une logique d’intimidation et de résistance à la guerre ouverte par l’axe impérialiste Israël-États-Unis depuis le 28 février 2026.
Une semaine avant, j’apprenais par mon laboratoire la mise à disposition d’un nouvel outil de recherche : « Grâce à un accord passé avec la société Mistral AI, le CNRS s’est doté d’un agent conversationnel sécurisé en intelligence artificielle générative, avec des modèles à la pointe de la recherche en IA générative. » Cet agent conversationnel s’appelle Emmy, en référence à la mathématicienne Emmy Noether. Un honneur féministe.
Enfin, la chanson « Imbattables », produite par IA, s’impose depuis quelques jours sur les réseaux sociaux comme l’hymne officieuse de l’équipe de France pour la Coupe du monde et fait un carton jusqu’à l’international, où l’on danse au rythme des noms scandés de Dembélé, Cherki, Mbappé ou Konaté. Cette musique apparaît dans un moment de déferlement extrême de racisme politique en France, qui n’a d’ailleurs jamais épargné les joueurs.
Qu’il s’agisse de critiquer et dénoncer l’impérialisme, se présenter comme un outil de recherche au label féministe, ou encore valoriser des subjectivités et cultures africaines (nord et sud) dans une France gangrenée par le racisme, l’IA semble revêtir des usages de plus en plus « acceptables ».
Les six catastrophes de l’IA
Que l’IA générative puisse être utilisée à des fins subversives (le terme est à relativiser quand on parle de business économiques si colossaux que sont le football, la recherche ou la guerre) n’est pas le sujet, et ne l’a même jamais été. Le meilleur ouvrage à date sur la question, Contre-Atlas de l’intelligence artificielle de Kate Crawford (éditions Zulma, 2022), explique dans un style accessible et référencé les six catastrophes de l’IA : d’abord, celle de la Terre, de la main-d’œuvre, des données (fichage et surveillance), de la classification (des individus selon des typologies stéréotypées), des affects, et de l’État.
L’ouvrage commence par rappeler que l’IA n’est ni intelligente ni artificielle. Elle provient d’une volonté foncièrement ancrée dans l’optimisation et le rendement, l’accroissement du capital et la militarisation du monde. Qu’elle existe sous la forme de reconnaissance faciale, d’empreintes pour déverrouiller un téléphone ou d’une question sur ChatGPT, elle « est à la fois incarnée et matérielle, faite de ressources naturelles, de carburant, de main-d’œuvre humaine, d’intrastructures, de logistique, d’histoires et de classifications ».
L’autrice poursuit : « Les systèmes d’IA ne sont ni autonomes ni rationnels, ni capables de discerner quoi que ce soit sans formation extensive et intensive sur le plan computationnel, grâce à d’importants ensembles de données, avec règles et récompenses prédéfinies. […] Et à cause du capital nécessaire pour produire l’IA à grande échelle et les manières de voir qu’il optimise, les systèmes d’IA sont finalement conçus pour servir les intérêts dominants. En ce sens, l’intelligence artificielle est le reflet du pouvoir. »
La sempiternelle rengaine de « ce n’est pas l’outil qui est mauvais, mais son utilisation », sonne alors comme un mantra ultralibéral où les « outils » apparaissent de nulle part, ne sont le fruit d’aucune production, d’aucune division du travail, d’aucune matière. Leur valeur serait définie depuis une intentionnalité hors-sol, elle-même déterminée relativement par l’individu ou le contexte : pourtant, l’outil et l’usage de l’outil ne font qu’un, cette séparation moderne ne marche plus.
Faux arguments
Comme le disait Bruno Latour en 1991 déjà : « Le monde est constitué d’objets hybrides proliférant sans cesse et n’appartenant plus exclusivement au monde scientifique ou technique. Ils se présentent au contraire comme participant à la fois du politique, du culturel ou de l’économique. » Je voudrais lister ici trois des faux arguments les plus récurrents à propos de l’IA, et y répondre :
1) « L’IA n’est pas apparue avec ChatGPT. » Ce n’est pas parce que l’IA existe déjà sous d’autres formes que les LLM [large language model, soit un modèle de langage possédant généralement plus d’un milliard de paramètres, N.D.L.R.], qu’il nous est interdit de lutter contre celles-ci. Ce faux argument se nomme « what-aboutisme », qui signifie détourner l’attention sur un autre problème (« what about X ? ») afin de tuer dans l’œuf toute possibilité critique. On pourrait arguer que c’est précisément parce que l’IA est si omniprésente qu’il est peut-être temps d’entamer une véritable réflexion sur ces usages.
Il est indécent de qualifier tout usage de l’IA de féministe ou de décolonial, ou tout simplement de social.
2) « L’IA rend l’information plus accessible. » C’est peut-être le faux argument le plus répandu, et le plus urgent à débunker. La transformation sociale passe non pas par l’information (on serait sauvé∙es depuis longtemps) mais par la formation de l’esprit critique, qui ne peut arriver que dans un seul espace : celui de la rencontre, du dialogue, de la délibération, et du conflit. L’IA, comme les réseaux sociaux d’ailleurs, n’a tout simplement jamais eu ce but. Il est embarrassant de voir certain∙es feindre de croire que ces « outils » auraient dû être faits pour leur petite démocratie libérale, et s’indigner de la censure d’Instagram ou des commentaires racistes par milliers sur TikTok.
C’est pourquoi il est indécent de qualifier tout usage de l’IA de féministe ou de décolonial, ou tout simplement de social : non seulement le « contenu », le « prompt » sont des formes fascisantes (parce qu’elles augmentent la passivité du ou de la désormais « follower » dont la valeur réside dans l’alignement silencieux aux idées d’autrui qui intensifient individuellement les affects), mais le coût humain (au-delà des litres d’eau qui semblent être un argument bien commode, parce que lointain) est à jamais inacceptable : l’exemple de la main-d’œuvre bon marché indienne qui se cache derrière la jolie voix d’Alexa ou la gestion d’un entrepôt Amazon par l’IA sont réalistes, et glaçants.
L’IA a été créée par et pour des institutions de pouvoir militaires, capitalistes et impérialistes dont le but premier est de générer du profit. Ainsi, qu’il s’agisse d’écrire un manifeste en ligne, de proposer une vidéo de vulgarisation philosophique ou nourrir un blog d’extrême droite de « réinformation », cela ne change rien du point de vue de « l’apprentissage automatique ». Tout devient condensé, lissé, mutilé, dépecé dans les LLM, de sorte à produire un objet « digeste » (les pages de La Crise de la culture de 1961 d’Hannah Arendt sont à cet égard angoissantes de vérité). Démocratiser n’est pas massifier. Être populaire ne devrait jamais signifier être con.
3) « L’IA est de toute façon déjà là, il faut faire avec. » C’est probablement le pire faux argument, qui s’insère dans ce que Mark Fisher appelle le réalisme capitaliste : comme existent l’injustice, l’exploitation, la subjugation et les machines de pouvoir qui broient la vie, elles sont légitimes. Au-delà de l’illogisme absolu d’une telle affirmation (qui en philosophie porte d’ailleurs un nom, la loi de Hume), et de l’invisibilisation de notre responsabilité dans le maintien de ce qui est, il est important de rappeler que l’IA est seulement « déjà là » pour une minorité d’entre nous.
Dans la recherche, où cet argument règne en maître, cette condition « déjà là » ne bénéficie qu’aux pays du Nord privilégiés : l’IA creuse le fossé international dans l’accès à la recherche, les discussions sur la science ouverte en Afrique notamment rappellent l’actualité et l’urgence du sujet. « C’est déjà là » est enfin nauséabond parce qu’il semble interdire tout droit à l’erreur.
Pourtant, refuser, retirer, réorganiser, faire un pas de côté, déserter est tout à fait possible, sans pleurer un âge d’or débarrassé de la technique, qui n’a tout simplement jamais existé. Rédiger votre plan de cours grâce à l’IA, affiner votre thèse avec un logiciel de traduction, juste pour « gagner du temps », est une incision à vif dans le temps commun des capacités humaines (déjà soumises à un régime productiviste insoutenable) : ces choses ne sont pas « déjà là », mais activement construites par celleux qui y participent.
L’IA n’est pas « déjà là ». Nous, en revanche, le sommes.
Chaque jour, Politis donne une voix à celles et ceux qui ne l’ont pas, pour favoriser des prises de conscience politiques et le débat d’idées, par ses enquêtes, reportages et analyses. Parce que chez Politis, on pense que l’émancipation de chacun·e et la vitalité de notre démocratie dépendent (aussi) d’une information libre et indépendante.
Faire Un DonPour aller plus loin…
Racisme envers les élus : quelle République souhaitons-nous défendre ?
Loi Rodwell : les droits des trans dans le viseur
Masculinisme : tout comprendre en 4 minutes, avec Nesrine Slaoui
