illustration d'une personne manipulée comme une marionnette par une IA

Google se moque « de savoir si un article a été rédigé par une IA ou par un humain »

All your bIAses are belong to us

Avatar de l'auteur
Jean-Marc Manach

Publié dans

IA et algorithmesInternet

19/01/2024
26

illustration d'une personne manipulée comme une marionnette par une IA

Depuis des mois, un florilège de faux sites d’information sont générés de toutes pièces grâce à l’intelligence artificielle. Cette dernière peut produire très rapidement du contenu (24h/24), mais sans les vérifications et contextualisation que sont censés réaliser les journalistes. Pour Google, ce n’est pas un problème, peu importe qui écrit les articles.

Google News favorise de plus en plus de sites web utilisant des IA pour « pirater » des sites d'informations légitimes, en se bornant à copier-coller leurs articles, déplore 404 Media.

Next a d'ailleurs répertorié, ces derniers mois, plus d'une trentaine de faux sites d'information francophones conçus pour sélectionner puis traduire en français, via des IA, des articles publiés par des sites anglophones notamment (nous y reviendrons).

Vrais-faux sites pour de fausses-vraies informations ?

Ces « vrais-faux » sites d’information ont tous pour points communs de ne bien évidemment pas expliciter qu’ils sont générés par des IA, allant pour nombre d’entre eux jusqu’à faire passer leurs « auteurs » pour des « journalistes ».

Interrogé par 404 Media, Google explique que, « bien qu’elle tente de lutter contre le spam sur Google Actualités, la société ne se préoccupe pas de savoir si un article a été rédigé par une IA ou par un humain ».

Faire passer des IA pour des « journalistes »

Longtemps réservé aux seuls sites web de la presse écrite, de médias audiovisuels et de « pure players » reposant sur le travail de journalistes professionnels, Google News référençait déjà de plus en plus de simples communiqués de presse. Mais aussi des « articles » n’émanant pas de « journalistes », censés vérifier, recouper et contextualiser les informations qu’ils relaient et publient.

Non content de reposer sur ce que notre confrère qualifie de « système opaque » et même de « boîte noire », Google accepterait donc désormais de faire passer pour du « journalisme » des contenus générés automatiquement par n’importe quelle entité susceptible de « produire une masse de contenus sans se soucier de sa qualité ou de son originalité ». Y compris donc par des IA se présentant, de façon mensongère, comme des « journalistes ».

Projet Genesis : quand Google voulait faire écrire des articles par des IA

Rien de très surprenant puisque, comme le titrait le New York Times l’été dernier, « Google teste des outils d’IA capables d’écrire des articles d’actualité ». Dans une déclaration à l’AFP, le géant du Net marchait sur des œufs à propos de ce projet baptisé Genesis :

« Nous sommes dans une phase d’exploration des idées pour potentiellement fournir des outils d’IA qui aideront les journalistes à faire leur travail […] Ces outils ne sont pas conçus pour – et ne peuvent pas – remplacer le rôle essentiel que jouent les journalistes en matière de récolte et de vérification de l’information, et de rédaction des articles ».

Nous n’avons plus aucune nouvelle de ce projet depuis cet été. Impossible donc de savoir si Google persiste dans cette direction, ou au contraire si la plateforme fait machine arrière.

Michał Rogucki dépote jusqu’à 150 articles par jour

Nous avions ainsi récemment identifié un « auteur », Michał Rogucki, notamment trahi parce qu’il avait illustré l’un de ses articles par l’image d’un « nouveau véhicule blindé européen » à qui il manquait une roue (et qui avait donc été générée, mais aussi et surtout « hallucinée » par une IA), capable de publier 150 articles… par jour.

Nous reviendrons prochainement sur cette problématique dans un article dédié.

Image, générée par une IA, d'un véhicule blindé à qui il manque une roue

 

26

Écrit par Jean-Marc Manach

Tiens, en parlant de ça :

Sommaire de l'article

Introduction

Vrais-faux sites pour de fausses-vraies informations ?

Faire passer des IA pour des « journalistes »

Projet Genesis : quand Google voulait faire écrire des articles par des IA

Michał Rogucki dépote jusqu’à 150 articles par jour

Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (26)


sitesref Abonné
Le 19/01/2024 à 10h 56
All your bIAses are belong to us*

:p
Le 19/01/2024 à 11h 29
Adopté !-)
refuznik Abonné
Le 19/01/2024 à 11h 13
Bof, même sans IA on a deja vu des sites publier des articles achetés puis directement traduit anglais/français, clubic est un des nombreux exemples.
pamputt Abonné
Le 19/01/2024 à 11h 52
La différence c'est que là on entre dans la production de merde en masse. Et forcément le contenu de qualité sera noyé dans ce torrent de merde. Ça ne serait pas si grave si Google News n'était pas la porte d'entrée à l'information pour de nombreuses personnes.
Modifié le 22/01/2024 à 08h39
Raikiwi Abonné
Le 19/01/2024 à 11h 31
Très bon le nom de projet GENESIS
Me semble que c'est le nom dans Terminator avant de devenir Skynet :stress:

Edit : My Bad c'était Genisys
Modifié le 19/01/2024 à 11h33
Le 19/01/2024 à 11h 35
Comme le dirait un chef d'entreprise bien connu ici, pour l'instant les IA d'aujourd'hui sont un "etat intermédiaire" avant qqch de plus poussé.
Bientôt elles vous prendront vos jobs, n'en doutez pas. Preparez-vous.
Ferd Équipe
Le 19/01/2024 à 11h 44
😱
Le 19/01/2024 à 11h 48

Ferd

😱
He he.
Prophetique isn't it :D
Ferd Équipe
Le 19/01/2024 à 12h 38

Trooppper

He he.
Prophetique isn't it :D
Hop hop hop, pas de vente de peau d'ursidé avant de l'avoir proprement dézingué.
Le 19/01/2024 à 12h 46

Ferd

Hop hop hop, pas de vente de peau d'ursidé avant de l'avoir proprement dézingué.
Les hologrammes de la soirée du 16 octobre était quand même vachement réaliste, vous ne trouvez pas ?
Le 19/01/2024 à 13h 08

Sébastien Gavois

Les hologrammes de la soirée du 16 octobre était quand même vachement réaliste, vous ne trouvez pas ?
Certains étaient quand meme dilatés en largeur.

==> loin
Le 19/01/2024 à 13h 07

Ferd

Hop hop hop, pas de vente de peau d'ursidé avant de l'avoir proprement dézingué.
Non non, prophetique que le oin oin et les arguments en mode humain allaient arriver.
Encore une fois je ne le souhaite pas
Modifié le 19/01/2024 à 13h37
Le 20/01/2024 à 08h 05
Elle ne prendront le job que de ceux qui ne sauront pas utiliser l'IA comme outil pour créer plus de valeur
Le 19/01/2024 à 13h 49
> Google se moque « de savoir si un article a été rédigé par une IA ou par un humain »

Entre une IA qui génère un article et un humain qui copie-colle des citations/extraits pour faire son article...

J'avoue que c'est compliqué de savoir lequel des deux représente le moins d'intérêt à mes yeux.

eglyn Abonné
Le 19/01/2024 à 14h 06
En fait, ce qui a le plus d'intérêt c'est de ne lire aucun des deux :transpi:
miles67div Abonné
Le 19/01/2024 à 15h 16
Après ceux de ses 2 derniers articles (Zucks et HAMR) ainsi que pour l'ensemble de son œuvre à ce jour, je me permets d'attribuer le rang de "Leader Suprême des sous-titres" à l'honorable maître et bienveillant guide spirituel du peuple de Next, autrement dit : Sebastien Gavois.
Je note par ailleurs les efforts conséquents de l'humble maître Jean-Marc Manach.
Le 19/01/2024 à 17h 55
Merci !-)

PS : "IT Zucks", c'était de moi (et non, je ne dénoncerai pas la proposition initiale de Mr Sébastien Gavois)
fred42 Abonné
Le 19/01/2024 à 15h 59
>Longtemps réservé aux seuls sites web de la presse écrite, de médias audiovisuels et de « pure players » reposant sur le travail de journalistes professionnels, Google News référençait déjà de plus en plus de simples communiqués de presse. Mais aussi des « articles » n’émanant pas de « journalistes », censés vérifier, recouper et contextualiser les informations qu’ils relaient et publient.

À chaque fois que je vois un site gouvernemental sur Google News, je me demande comment la page apparaît là.

Sinon, les règles de Google Actualités sont claires :
>Les internautes qui consultent votre site souhaitent savoir qui écrit et publie vos contenus. C'est pourquoi les sources d'actualités sur Google doivent comporter :

des dates et des signatures claires ;
des informations sur les auteurs, la publication et l'éditeur ;
des informations sur l'entreprise ou le réseau à l'origine du contenu.
Coordonnées

À partir de là, on doit nous dire si ce sont des IA qui écrivent.
Erwan123 Abonné
Le 19/01/2024 à 16h 20
Concernant la photo du véhicule blindé, je dirais que ce n'est pas une preuve absolue ici (je ne parle pas des 150 articles à la journée à moins d'être sous NZT-48... et encore, il faut penser à dormir) mais son article parle d'un nouveau véhicule en phase de pré design, donc véhicule qui n'existe pas et est très souvent illustré par des vues d'artistes (ex: avions ou fusées) qui sont données par les sociétés qui bossent sur le produit.

Donc l'article aurait pu être tout à fait légitime avec une illustration "photoshoppée" nourrie au DALL-E, illustration toute foireuse et bâclée donnée par le service de presse de la société en charge du développement.


D'ailleurs, je rappellerai l'incroyable bévue de la jaquette officielle du DVD de la saison 4 de "Downtown Abbey" avec une bouteille d'eau minérale en plastique trônant sur le coin à droite de la cheminée...

Énorme... Personne ne l'avait vu venir celle là ! :mdr2:
Modifié le 19/01/2024 à 16h33
wanou2 Abonné
Le 20/01/2024 à 08h 39
Je suis toujours dubitatif avec l'IA qui remplacerait un journaliste. Parce que l'IA c'est pas de la magie, elle doit se baser sur des informations existantes. L'IA ne de déplace pas toute seule rencontrée des chefs d'entreprises, faire de l'investigation en Ukraine ou à Gaza, essayer de choper des informations de la part d'informateurs, ... ce sont des humains qui font ça. Ou alors j'ai loupé une étape.
rm Abonné
Le 20/01/2024 à 09h 52
C’est sûr, mais qui vérifie les sources des journalistes ?
C’est une question de confiance je dirais.
Tu peux avoir un bot qui pousse sur Facebook/X un article écrit par une IA, au final ça aura l’air tout autant crédible pour certains qui s’informent déjà par ce biais.
D’ailleurs les fakers n’hésitent pas à créer des fausses répliques de sites type Le Parisien, le monde.
Donc ça c’est pour tromper avec des faux.

Mais tu as un autre but qui est de semer le trouble sur ce qui est vrai ou pas (enfumage), en noyant le marché de l’information de faux, il devient difficile pour un lecteur de se faire une idée sur un fait, s’il s’est vraiment passé ou pas.
Du coup le fait qu’il y ait un travail journalistique ne compte presque pas ici puisqu’il s’agit d’inonder de démentis, de fausses affirmations etc. Dans ce cas l’IA est super car c’est fait automatiquement !

Enfin bref je sais pas si c’est compréhensible.
SebGF Abonné
Le 20/01/2024 à 11h 48
C'est clairement une chimère.

Par contre elle peut aider au travail journalistique en croyant, synthétisant, et extrayant de l'information parmi les sources.
Le 20/01/2024 à 15h 24
En 2017, Julia Cagé, Nicolas Hervé et Marie-Luce Viaud, auteurs de « L’Information à tout prix » (Ina Éditions) avaient analysé l’intégralité du contenu produit en ligne par les médias d’information en France sur l’année 2013, qu’il s’agisse de la presse écrite, de la télévision, de la radio, des pure internet players ou encore de l’AFP, et découvert que « 64 % de ce qui est publié en ligne est du copié-collé pur et simple », en partie du fait des reprises des dépếches AFP & Cie, mais également à cause de la course (et concurrence) lancée par les chaînes d'infos en continu & les sites web, et enfin parce que de nombreuses rédactions imposent aux journalistes de "batonner de la copie" et de produire plusieurs articles par jour.

La situation a changé depuis, avec bien plus de paywalls notamment, nécessitant des contenus inédits et/ou approfondis, mais je suis par ailleurs formateur depuis près de 20 ans (en formations continues, et donc avec des journalistes professionnels), et l'un de leurs principaux problèmes c'est qu'ils n'ont pas le temps de vérifier, recouper, recontextualiser...

Enfin, les sites que j'évoque ne relèvent pas d'IA génératives qui vont "inventer" des articles, au risque d'halluciner, mais d'IA programmées pour pomper tout ou partie des articles de tels ou tels médias (et donc écrits par des journalistes humains) avant que de les traduire en français (ou autre). Et pour ça, les IA seront toujours plus rapides que les humains.

Il y a quelques années, un universitaire avait posé cette question volontairement provocatrice (je ne me souviens plus qui) : journaliste qu'as-tu fait pour mériter ton salaire ? Je ne pense pas que la solution se borne à apprendre à travailler avec les IA, mais plutôt à pouvoir offrir une véritable valeur ajoutée.
Liam Abonné
Le 23/01/2024 à 02h 26
En fait la problématique est bien plus à rapprocher des anciens "made for adsense".

Pour rappel, il s'agissait de sites conçus exclusivement pour générer du trafic pour afficher des pubs adsense en faisant un minimum d'effort. Une solution courante était de pomper allègrement des articles d'un peu partout et, pour berner l'algo anti-duplication de contenu de Google, utiliser un algo qui remplaçait des mots à l'aide d'un dictionnaire des synonymes.

Ça faisait du contenu qui n'avait aucun sens pour un humain (car les synonymes ne sont que rarement des correspondances parfaites, par ex. "les clients dénoncent une pratique honteuse" pouvait devenir "les prospects mouchardent une routine embarrassée") mais ce n'était pas vraiment le but de toute façon. Il s'agissait juste de générer beaucoup de trafic très vite, d'imprimer beaucoup de pubs, puis de disparaître et d'être remplacé par un autre site bidon. D'où le terme "made for adsense" (par opposition à "made for humans").

Ce qu'on voit là c'est une resurgence un peu modernisée et un peu plus subtile de ces pratiques.

L'ennui c'est qu'avec suffisamment de subtilité, ces sites bidons sans valeur ajoutée peuvent devenir plus difficiles à distinguer d'un site ayant une vraie démarche journalistique pour un œil non averti. Il y a donc un "vol de valeur" qui peut effectivement mettre en péril la santé financière déjà fragile (NXI en sait quelque chose) des organes de presse en ligne, en détournant du trafic.Car il suffit pas de grand chose pour couler la presse en ligne en ce moment. La rentabilité se joue souvent à quelques pourcents de CA de plus ou de moins.
Soriatane Abonné
Le 22/01/2024 à 09h 37
Pour rester sur les gros bobards version matériels militaire , je vois sur YouTube des vidéos représentant un nouveau-système d'armes (comme le disent les militaires) type avion, char, porte-avions, etc qui sont plus proches des Méchas que de projets réalistes.

Vidéos d'une 10 min
Exemple de chaînes : Actualités militaires, A tech.
Et je vous apprends rien, des vidéos bobards avec des images de trucs impossibles ça n'est pas limité aux affaires militaires ou à YouTube.
Je m'interroge sur qui clique dessus à part des bots?
Le 22/01/2024 à 11h 05
Ca ne change pas grand chose IA ou pas, il y a longtemps que les infos sont du copier coller. Les seules vérifications faites sont que le texte paraisse Français après traduction. On l'avait bien vu avec la "première mort" de Pascal Sevran qui avait été reprise de partout.
Modifié le 22/01/2024 à 11h07