L’ex‑département de l’efficacité gouvernementale, alors placé sous la direction d’Elon Musk, a eu recours à des critères explicitement raciaux et ethniques pour cibler puis supprimer des subventions consacrées aux sciences humaines, a conclu un tribunal fédéral américain.
« Ce qui importait pour le DOGE n’était pas de savoir si une subvention manquait de valeur scientifique, ne respectait pas ses conditions ou ne relevait pas des objectifs statutaires du NEH (National Endowment for the Humanities). Ce qui importait, c’est que la subvention concernait un “groupe minoritaire” ».
Dans une décision rendue jeudi 7 mai 2026, la juge fédérale Colleen McMahon n’a pas mâché ses mots pour qualifier l’action du Département de l’efficacité gouvernementale (DOGE), cet « ovni » institutionnel créé sur mesure pour Elon Musk par Donald Trump à son arrivée au pouvoir en janvier 2025, avec pour mission affichée de réduire la bureaucratie et traquer les dépenses fédérales jugées superflues.
S’agissant du NEH – l’agence fédérale qui finance la recherche en sciences humaines –, le DOGE a agi de manière à la fois discriminatoire et inconstitutionnelle, a tranché le tribunal.
Une mécanique abusive
Pour cause, la purge a conduit à l’annulation de plus de 1 400 projets de recherche, représentant plus de 100 millions de dollars de subventions, en visant prioritairement les programmes destinés aux minorités raciales ou sexuelles.
« Le DOGE a pris en compte la race et l’origine ethnique — y compris les subventions concernant les communautés noires, asiatiques, latino et autochtones — ainsi que l’origine nationale et le statut migratoire ; la religion et l’identité religieuse (y compris les sujets juifs, chrétiens et musulmans) ; le sexe ; et l’orientation sexuelle, comme critères de suppression des subventions », indique la juge McMahon.
Les agents du département ont utilisé des recherches par mots‑clés pour repérer les projets à éliminer. Cela va de « DEI », « DEIA », « équité », « inclusion », « BIPOC » (Black, Indigenous, People of Color), à « LGBTQ », « black », « queer » et « homosexuel », entre autres.
Un documentaire consacré à des femmes juives survivantes de l’Holocauste s’est ainsi retrouvé sur la liste noire pour la seule présence du mot « femmes » dans son descriptif.
ChatGPT comme outil de discrimination
Interrogé sous serment sur l’absence de recherches parallèles pour des termes comme « blanc », « caucasien » ou « hétérosexuel », un employé du DOGE a reconnu : « Nous aurions pu, mais nous ne l’avons pas fait. » Cette asymétrie illustre, selon les plaignants et la cour, le caractère discriminatoire du processus.
Le plus stupéfiant reste l’utilisation de ChatGPT comme arbitre final. Les fonctionnaires entraient pour chaque dossier un prompt standard : « Cela implique-t-il du DEI ? Répondez factuellement en moins de 120 caractères. Commencez par oui ou non, suivi d’une brève explication. »
C’est sur la base de ces réponses automatisées, sans analyse humaine approfondie, que des décisions affectant les moyens de subsistance de milliers de personnes ont été prises. Une pratique sèchement désavouée par la justice.
« Le gouvernement ne peut pas se soustraire à sa responsabilité pour le travail du DOGE en faisant de ChatGPT un bouc émissaire », écrit la juge.
