Connexion Premium

Quand le DOGE supprimait les financements de la recherche en sciences sociales via ChatGPT

Inintelligence artificielle

Quand le DOGE supprimait les financements de la recherche en sciences sociales via ChatGPT

Illustration : Flock

Dans un procès remettant en cause les suppressions de financements décidées l’année dernière par l’administration Trump, on découvre que le DOGE a pris ces décisions via de simples prompts dans ChatGPT.

Le 10 mars à 11h04

L’année dernière, l’administration Trump a confié le démantèlement d’une grande partie des agences de la recherche américaine au DOGE, conduit à l’époque par Elon Musk. Plusieurs sociétés savantes américaines ont attaqué en justice les décisions prises au nom de la National Endowment for the Humanities (NEH), l’agence américaine de financement des recherches en sciences sociales. Celles-ci dénoncent le fait que plus de 1 400 programmes de recherche, représentant un montant total de 100 millions de dollars, ont été annulés en utilisant une simple question à ChatGPT.

« Les éléments suivants ont-ils un rapport avec D.E.I. [les politiques de Diversité, équité et inclusion, ndlr] ? Réponds de manière factuelle en moins de 120 caractères. Commence par « Oui » ou « Non » ». Voilà le prompt que les jeunes recrues du DOGE utilisaient pour sélectionner les projets de financements à annuler au sein de la NEH, explique le New York Times.

Cela faisait suite à l’un des premiers décrets pris par Donald Trump après le jour de son investiture, dans lequel le dirigeant états-unien ciblait précisément comme « illégaux » tous les programmes de « diversité, équité et inclusion ». Les salariés de l’agence avaient déjà discriminé les projets de recherche en plusieurs catégories. Mais le DOGE, en prenant les rênes comme il l’a fait pour d’autres agences comme la National Science Foundation ou la National Oceanic and Atmospheric Administration, n’en a pas tenu compte.

Au lieu de ça, « Les deux membres du DOGE ont utilisé ChatGPT pour identifier les subventions associées à un point de vue contraire et supposé dangereux : la promotion de la « DEI » », explique le texte de la plainte [PDF], cosignée par plusieurs sociétés savantes.

Des projets non financés parce qu’ils parlaient de minorités

Les deux agents du DOGE, Justin Fox et Nate Cavanaugh n’avaient aucune formation en sciences humaines et sociales avant d’effectuer cette mission de sélection de financement de la recherche dans ces domaines pour le DOGE.

Leur prompt leur a donné des réponses toutes faites pour supprimer des financements de projets scientifiques qui étaient en place, parfois depuis des années. Ainsi, comme on peut le voir dans cette liste [PDF], un projet de réunion des archives consacrées aux langues autochtones en Alaska risquait, selon ChatGPT, de « promouvoir l’inclusion et la diversité des points de vue ».

Mais on peut voir aussi que le financement d’un projet de film sur le sociologue W.E.B du Bois, premier Afro-américain a obtenir un doctorat aux États-Unis, a été supprimé parce que ChatGPT a généré une réponse affirmant que « la biographie, l’activisme et les écrits de W.E.B. Du Bois contribuent à la compréhension des contextes historiques et sociaux liés à la politique de Diversité, équité et inclusion » et répondant donc « oui » au classement dans des sujets étiquetés « DEI ».

De la même manière, le projet d’un documentaire sur des femmes juives réduites en esclavage pendant la Shoah a été estampillé DEI par ChatGPT car il aurait « amplifié les voix marginalisées ».

Un documentaire sur le Massacre de Colfax, qui vit une milice blanche tuer 150 anciens esclaves libérés, a aussi été stoppé. Sur celui-ci, dans sa déposition publiée sur YouTube par l’American Historical Association, l’une des co-plaignantes, Justin Fox justifie le choix en affirmant que le projet de documentaire « se concentre sur une seule race. Il n’est pas pour le bénéfice de l’humanité ».

Si ce sont ces deux agents du DOGE qui ont sélectionné avec ChatGPT les financements à supprimer, l’un des responsables de l’agence, Michael McDonald, a bien validé la liste suivant la volonté de l’administration Trump de « faire table rase », comme il l’a expliqué lors de l’enquête.

La meilleure publicité pour la nécessité d’une éducation aux sciences humaines ?

« Le principe selon lequel la connaissance de l’histoire, de la littérature, de la religion, de la philosophie et des arts est nécessaire pour maintenir une nation forte et résiliente a poussé le Congrès à créer la NEH », a déclaré dans un communiqué Joy Connolly, la présidente de l’American Council of Learned Societies, l’une des sociétés savantes qui ont entamé ce procès :

« Notre action en justice révèle le mépris de cette administration pour ce principe et pour l’investissement public dans la recherche pour le bien commun. L’utilisation par les employés du DOGE de ChatGPT pour identifier les subventions « inutiles » est peut-être la meilleure publicité pour la nécessité d’une éducation aux sciences humaines, qui développe les compétences en matière de pensée critique. »

Interrogés par le New York Times, ni Michael McDonald, ni Justin Fox, ni Nate Cavanaugh, ni le National Endowment for the Humanities n’ont répondu.

Rappelons qu’en 2023, Bruno Bonnell, secrétaire général pour l’investissement en France, rêvait, lui, d’une IA pour présélectionner les projets de recherche pour les financements de France 2030.

Commentaires (11)

votre avatar
Le dernier show de John Oliver en parlait, à propos de l'USAID . J'imagine que les mêmes prompts ont pu être choisis..
votre avatar
⬇️ Ceci est un commentaire politique. Si vous êtes de la team pas-de-politique-dans-mon-next.ink-parce-que-la-technologie-c'est-neutre, ben ne vous infligez pas cette lecture. En plus, c'est trop très long. ⬇️

Petit à petit je commence à comprendre pourquoi la droite en général, et surtout les plus radicaux aiment tant l'IA : elle leur permet de « justifier » le monde n'existe que dans leur tête, sans avoir à tenir compte de la réalité.

En 2014 une élue FN partageait un photomontage bidon de femmes voilées devant une CAF. Repris et commenté direct par tous les groupes de droite, y compris les politiciens, jusqu'à ce qu'elle soit débunkée. Mais l'image circule toujours dans de nombreux groupes, parce que pour eux elle décrit la-réalité-qui-est-dans-leur-tête, quand bien même ils savent qu'elle est fausse.

Plus récemment, les images générées par IA pullulent chez les soutiens de l'ED (en particulier chez ceux de Zemmour) : les fausses images du passé fantasmé de quand-c'était-mieux-avant, ou des méfaits inventés des immigrés ou de leurs opposants politiques. Rien n'est vrai, mais ils s'en cognent : ils trouvent leur bonheur dans le fait de pouvoir mettre en image la-réalité-qui-est-dans-leur-tête.

Dans un autre registre, qui raccroche les wagons avec le sujet : on parle souvent du fait que tous les sociologues (les vrais, ceux qui ont fait des études dans le domaine, pas les "experts" de plateaux-télé) sont de gauche : c'est un peu vrai, oui, force de le constater. Mais pourquoi ? Beaucoup de gens avec des idées plutôt de droite y font aussi leurs études, parce que ces sujets les intéressent, voir les obsèdent. Et du coup, ils apprennent : les chiffres, les vrais. Les tendances lourdes de la société française. Les erreurs du passé, leurs conséquences, etc. Et du coup, beaucoup se "font une raison" et changent de bord politique sur ces questions. Du coup au final, en effet, il y a peu voire aucun spécialiste de SHS qui défend des idées de droite. Donc les militants et politiciens dénigrent toutes ces disciplines en bloc, et la-réalité-qui-est-dans-leur-tête c'est qu'il y a un complot de leur adversaires politiques dans les universités (toutes d'ailleurs, mais les SHS en particulier). Et donc pour eux les arguments des sociologues sont forcément biaisés, puisque aucun ne peut confirmer leur vision du monde. Peu importe si ces gens ont passé leur vie à étudier ces sujets d'une manière la plus sérieuse, vérifiable, et reproductible possible.

Et avec le sujet de l'article, on est en plein dedans : puisqu'ils ont rejeté toute étude scientifique de la réalité, y compris de la société évidemment, ils se sentent affranchi de la nécessité de savoir, et ils prennent leurs décisions politiques sans aucune connaissance. Et pour prendre des décisions sur des sujets qui les dépassent, l'IA est la solution parfaite : elle a forcément raison puisque c'est le symbole du progrès absolu, en plus il y a le mot « intelligence » dedans. Et puis quand ça fait de merde (mais qui aurait pu prédire ?!), c'est le bouc-émissaire parfait : « c'était pas moi c'était l'IA ».
Un exemple de ça, c'est Elon Musk qui dit qu'ils vont « réparer » Grok quand il raconte des trucs qui ne correspondent pas à la-réalité-qui-est-dans-leur-tête, mais qu'il ne dit rien quand ce même Grok invente de toutes pièces des absurdités évidentes, tant qu'elles vont dans le sens de leur roman (inter)national.

Je ne sais plus où, j'avais entendu Étienne Klein dire « les gens qui ont un avis tranché s'estiment dédouanés de l'obligation d'apprendre à propos de ce sur quoi ils ont un avis tranché. ». Je trouve qu'il avait raison très fort, qu'on est en plein dedans, et que c'est putain de dommage pour l'humanité dans son ensemble.

Déso pour le pavé, j'en ai gros. Gros big up si vous avez tout lu, et chapeau pour la patience 🎩
votre avatar
C'est pas si long que ça, mais ce n'est pas pour autant que ce qui y est dit est vrai.

Comme expliqué dans l'article :
Cela faisait suite à l’un des premiers décrets pris par Donald Trump après le jour de son investiture, dans lequel le dirigeant états-unien ciblait précisément comme « illégaux » tous les programmes de « diversité, équité et inclusion ».
On leur a donc demandé de supprimer toute subvention pour des projets devenus illégaux et ils avaient comme mission d'aller vite en utilisant l'IA.

Ils ont donc fait faire le boulot de tri par l'IA. Ils s'en fichaient que le travail soit bien fait ou pas. Pour rappel, le DOGE montait l'argent qu'il faisait gagner. Les dommages collatéraux, ce n'était pas leur problème et ils se fichaient aussi d'avoir un bouc-émissaire sur qui rejeter la faute. Ils obéissaient à Musk et Trump en étant près bien payés.
votre avatar
Je pense que, par biais, tu imagines que ces gens ont réfléchis pour que leur croyances collent à ce qu'ils eliminaient comme subvention.
Je pense, sûrement par biais aussi, qu'ils sont juste trop bêtes pour penser aussi loin. On leur a demander d'être efficace après avoir pu rentrer dans le DOGE que tonton Orange venait de créer. On leur a laissé les clés alors que Elon s'était barré. Autant se montrer efficace en ne lésinant pas ! Et quand tu ne connais pas un sujet, pour certains, l'IA est LA réponse, pourquoi se gêner.
votre avatar
À part le point où tu dis que Elon s'était barré (Il était toujours là en Mars quand ce qui est relaté ici s'est passé : il est parti du DOGE fin Mai), je suis d'accord avec toi. On a filé un pouvoir important à des gens sans expérience.
votre avatar
Bof, je pense qu'il n'y a de neutralité nul part.

Le problème, c'est qu'on a tous une vision limitée du monde. Réduite à ce qu'on nous en montre, à ce qu'on en comprend et avec une interprétation subjective alimentée par tous nos biais cognitifs et surtout notre propre vie. Les chiffres, les études, c'est biaisé aussi. La preuve, avec le même rapport, deux personnes peuvent tirer des conclusions différentes (exactement le débat du boulot ce matin sur les résultats d'un sondage interne...)

L'IA et la fake news vient clairement en support pour venir titiller cette subjectivité puisqu'elle peut matérialiser à la demande ce qui n'existe pas mais qui est plausible pour ceux qui sont prêts à y croire. Et toutes les études sur les réseaux sociaux confirment que les sujets bien polémiques attirent plus l'attention que les autres, alors que même ceux qui luttent contre alimentent la flamme en faisant de l'interaction...

Si on le recoupe avec la politique, "les contre-vérités" ne sont pas exclusives à un parti, et ne datent pas de l'IA, c'est juste une explosion du volume.
Je pense surtout qu'il y a des sujets plus faciles à falsifier avec l'IA, et je dirais que c'est de fait plus facile pour les partis qui luttent "contre" quelque chose (au hasard, l'immigration) que pour ceux qui luttent plutôt "pour" quelque chose (la liberté, l'écologie...) ou contre un autre parti.

Et là, ça reboucle un peu avec le sujet de la news. Trump, qui est contre à peu près tout, c'est le paradis de la fake news et de l'IA. Il manie à la perfection la loi de Brandolini.
Il a même pas cherché à rediriger les subventions vers ce qui l'intéressait, il a juste fait construire un prompt pour identifier ce qu'il voulait dégager, et franchement la méthodologie est juste affligeante d'amateurisme pour l'élite de la première puissance mondiale.
Mais bon, quand on est soit même à la fin de sa vie et à l'abri du besoin, c'est rigolo d'alimenter son complexe de Dieu et de renverser le monde en un an.

Pire, il est entouré de gens qui gagnent de l'argent à l'encourager à continuer. Faire parler sur X, ça rapporte à Elon, faire générer des fakes, ça fait gagner des sous aux IA, et relayer ces fakes, ça fait fluctuer la bourse, ça fourni de la légitimité aux grands groupes médias... Même les puissants qui sont contre doivent jongler difficilement entre éthique et stratégie politique pour espérer avancer. A long terme, c'est une catastrophe pour la plupart des gens, mais tout ce petit monde aura son petit parachute.
votre avatar
En même temps que peut-on attendre des gens en termes de nouvelles connaissances et de devoir réviser la vision du monde que l'on peut avoir à l'aune de celles-ci ? Quand précisément, les valeurs de droite sont le conservatisme, les traditions, la hiérarchie et la religion ?
Je veux dire l'idée même des sciences, au sens, de la méthode scientifique et des connaissances qu'elles permettent, est complètement antinomique avec les valeurs de droite déjà mentionnées, ne parlons même pas de l'extrême droite qui porte bien son nom.
votre avatar
Voilà voilà, l'extrême droite au pouvoir ...

Sinon bien envoyé :

"L’utilisation par les employés du DOGE de ChatGPT pour identifier les subventions « inutiles » est peut-être la meilleure publicité pour la nécessité d’une éducation aux sciences humaines, qui développe les compétences en matière de pensée critique. "
votre avatar
Les droitards n'ont jamais aimé les sciences sociales .... ça déglingue toutes leurs théories pourries.
votre avatar
Personnellement, ça serait toutes les sciences. Quant la droite ou l'extrême droite parle de traditions c'est toujours un passée fantasmé, c'est totalement non historique. Tu prends le Z citant ses références sur l'histoire de France à chaque interview, n'importe qui ayant un peu de connaissance et les profs d'histoire s'arrachent les cheveux. Et je ne parle même pas quant on a eut la covid.
votre avatar
Plutôt d'accord concernant toutes les science, mais les sciences sociales leur refilent particuliérement des démangeaisons :D , ça transpire dans leur rhétorique.