Google se moque « de savoir si un article a été rédigé par une IA ou par un humain »
All your bIAses are belong to us
Depuis des mois, un florilège de faux sites d’information sont générés de toutes pièces grâce à l’intelligence artificielle. Cette dernière peut produire très rapidement du contenu (24 h/24), mais sans les vérifications et contextualisation que sont censés réaliser les journalistes. Pour Google, ce n’est pas un problème, peu importe qui écrit les articles.
Le 19 janvier à 10h45
4 min
IA et algorithmes
IA
Google News favorise de plus en plus de sites web utilisant des IA pour « pirater » des sites d'informations légitimes, en se bornant à copier-coller leurs articles, déplore 404 Media.
Next a d'ailleurs répertorié, ces derniers mois, plus d'une trentaine de faux sites d'information francophones conçus pour sélectionner puis traduire en français, via des IA, des articles publiés par des sites anglophones notamment (nous y reviendrons).
- Comment tenter d'identifier les textes émanant d'intelligences artificielles génératives ?
- Comment tenter d'identifier les images générées par des intelligences artificielles ?
Vrais-faux sites pour de fausses-vraies informations ?
Ces « vrais-faux » sites d'information ont tous pour points communs de ne bien évidemment pas expliciter qu'ils sont générés par des IA, allant pour nombre d'entre eux jusqu'à faire passer leurs « auteurs » pour des « journalistes ».
Interrogé par 404 Media, Google explique que, « bien qu'elle tente de lutter contre le spam sur Google Actualités, la société ne se préoccupe pas de savoir si un article a été rédigé par une IA ou par un humain ».
Faire passer des IA pour des « journalistes »
Longtemps réservé aux seuls sites web de la presse écrite, de médias audiovisuels et de « pure players » reposant sur le travail de journalistes professionnels, Google News référençait déjà de plus en plus de simples communiqués de presse. Mais aussi des « articles » n'émanant pas de « journalistes », censés vérifier, recouper et contextualiser les informations qu'ils relaient et publient.
Non content de reposer sur ce que notre confrère qualifie de « système opaque » et même de « boîte noire », Google accepterait donc désormais de faire passer pour du « journalisme » des contenus générés automatiquement par n'importe quelle entité susceptible de « produire une masse de contenus sans se soucier de sa qualité ou de son originalité ». Y compris donc par des IA se présentant, de façon mensongère, comme des « journalistes ».
Projet Genesis : quand Google voulait faire écrire des articles par des IA
Rien de très surprenant puisque, comme le titrait le New York Times l’été dernier, « Google teste des outils d’IA capables d'écrire des articles d'actualité ». Dans une déclaration à l’AFP, le géant du Net marchait sur des œufs à propos de ce projet baptisé Genesis :
« Nous sommes dans une phase d'exploration des idées pour potentiellement fournir des outils d'IA qui aideront les journalistes à faire leur travail […] Ces outils ne sont pas conçus pour – et ne peuvent pas – remplacer le rôle essentiel que jouent les journalistes en matière de récolte et de vérification de l'information, et de rédaction des articles ».
Nous n’avons plus aucune nouvelle de ce projet depuis cet été. Impossible donc de savoir si Google persiste dans cette direction, ou au contraire si la plateforme fait machine arrière.
Michał Rogucki dépote jusqu’à 150 articles par jour
Nous avions ainsi récemment identifié un « auteur », Michał Rogucki, notamment trahi parce qu'il avait illustré l'un de ses articles par l'image d'un « nouveau véhicule blindé européen » à qui il manquait une roue (et qui avait donc été générée, mais aussi et surtout « hallucinée » par une IA), capable de publier 150 articles... par jour.
Nous reviendrons prochainement sur cette problématique dans un article dédié.
Google se moque « de savoir si un article a été rédigé par une IA ou par un humain »
-
Vrais-faux sites pour de fausses-vraies informations ?
-
Faire passer des IA pour des « journalistes »
-
Projet Genesis : quand Google voulait faire écrire des articles par des IA
-
Michał Rogucki dépote jusqu’à 150 articles par jour
Commentaires (26)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 19/01/2024 à 10h56
:p
Le 19/01/2024 à 11h29
Le 19/01/2024 à 11h13
Modifié le 22/01/2024 à 08h39
Modifié le 19/01/2024 à 11h33
Me semble que c'est le nom dans Terminator avant de devenir Skynet
Edit : My Bad c'était Genisys
Le 19/01/2024 à 11h35
Bientôt elles vous prendront vos jobs, n'en doutez pas. Preparez-vous.
Le 19/01/2024 à 11h44
Le 19/01/2024 à 11h48
Prophetique isn't it
Le 19/01/2024 à 12h38
Le 19/01/2024 à 12h46
Le 19/01/2024 à 13h08
==> loin
Modifié le 19/01/2024 à 13h37
Encore une fois je ne le souhaite pas
Le 20/01/2024 à 08h05
Le 19/01/2024 à 13h49
J'avoue que c'est compliqué de savoir lequel des deux représente le moins d'intérêt à mes yeux.
Le 19/01/2024 à 14h06
Le 19/01/2024 à 15h16
Je note par ailleurs les efforts conséquents de l'humble maître Jean-Marc Manach.
Le 19/01/2024 à 17h55
PS : "IT Zucks", c'était de moi (et non, je ne dénoncerai pas la proposition initiale de Mr Sébastien Gavois)
Le 19/01/2024 à 15h59
Sinon, les règles de Google Actualités sont claires : des dates et des signatures claires ;
des informations sur les auteurs, la publication et l'éditeur ;
des informations sur l'entreprise ou le réseau à l'origine du contenu.
Coordonnées
À partir de là, on doit nous dire si ce sont des IA qui écrivent.
Modifié le 19/01/2024 à 16h33
Donc l'article aurait pu être tout à fait légitime avec une illustration "photoshoppée" nourrie au DALL-E, illustration toute foireuse et bâclée donnée par le service de presse de la société en charge du développement.
D'ailleurs, je rappellerai l'incroyable bévue de la jaquette officielle du DVD de la saison 4 de "Downtown Abbey" avec une bouteille d'eau minérale en plastique trônant sur le coin à droite de la cheminée...
Énorme... Personne ne l'avait vu venir celle là !
Le 20/01/2024 à 08h39
Le 20/01/2024 à 09h52
C’est une question de confiance je dirais.
Tu peux avoir un bot qui pousse sur Facebook/X un article écrit par une IA, au final ça aura l’air tout autant crédible pour certains qui s’informent déjà par ce biais.
D’ailleurs les fakers n’hésitent pas à créer des fausses répliques de sites type Le Parisien, le monde.
Donc ça c’est pour tromper avec des faux.
Mais tu as un autre but qui est de semer le trouble sur ce qui est vrai ou pas (enfumage), en noyant le marché de l’information de faux, il devient difficile pour un lecteur de se faire une idée sur un fait, s’il s’est vraiment passé ou pas.
Du coup le fait qu’il y ait un travail journalistique ne compte presque pas ici puisqu’il s’agit d’inonder de démentis, de fausses affirmations etc. Dans ce cas l’IA est super car c’est fait automatiquement !
Enfin bref je sais pas si c’est compréhensible.
Le 20/01/2024 à 11h48
Par contre elle peut aider au travail journalistique en croyant, synthétisant, et extrayant de l'information parmi les sources.
Le 20/01/2024 à 15h24
La situation a changé depuis, avec bien plus de paywalls notamment, nécessitant des contenus inédits et/ou approfondis, mais je suis par ailleurs formateur depuis près de 20 ans (en formations continues, et donc avec des journalistes professionnels), et l'un de leurs principaux problèmes c'est qu'ils n'ont pas le temps de vérifier, recouper, recontextualiser...
Enfin, les sites que j'évoque ne relèvent pas d'IA génératives qui vont "inventer" des articles, au risque d'halluciner, mais d'IA programmées pour pomper tout ou partie des articles de tels ou tels médias (et donc écrits par des journalistes humains) avant que de les traduire en français (ou autre). Et pour ça, les IA seront toujours plus rapides que les humains.
Il y a quelques années, un universitaire avait posé cette question volontairement provocatrice (je ne me souviens plus qui) : journaliste qu'as-tu fait pour mériter ton salaire ? Je ne pense pas que la solution se borne à apprendre à travailler avec les IA, mais plutôt à pouvoir offrir une véritable valeur ajoutée.
Le 23/01/2024 à 02h26
Pour rappel, il s'agissait de sites conçus exclusivement pour générer du trafic pour afficher des pubs adsense en faisant un minimum d'effort. Une solution courante était de pomper allègrement des articles d'un peu partout et, pour berner l'algo anti-duplication de contenu de Google, utiliser un algo qui remplaçait des mots à l'aide d'un dictionnaire des synonymes.
Ça faisait du contenu qui n'avait aucun sens pour un humain (car les synonymes ne sont que rarement des correspondances parfaites, par ex. "les clients dénoncent une pratique honteuse" pouvait devenir "les prospects mouchardent une routine embarrassée") mais ce n'était pas vraiment le but de toute façon. Il s'agissait juste de générer beaucoup de trafic très vite, d'imprimer beaucoup de pubs, puis de disparaître et d'être remplacé par un autre site bidon. D'où le terme "made for adsense" (par opposition à "made for humans").
Ce qu'on voit là c'est une resurgence un peu modernisée et un peu plus subtile de ces pratiques.
L'ennui c'est qu'avec suffisamment de subtilité, ces sites bidons sans valeur ajoutée peuvent devenir plus difficiles à distinguer d'un site ayant une vraie démarche journalistique pour un œil non averti. Il y a donc un "vol de valeur" qui peut effectivement mettre en péril la santé financière déjà fragile (NXI en sait quelque chose) des organes de presse en ligne, en détournant du trafic.Car il suffit pas de grand chose pour couler la presse en ligne en ce moment. La rentabilité se joue souvent à quelques pourcents de CA de plus ou de moins.
Le 22/01/2024 à 09h37
Vidéos d'une 10 min
Exemple de chaînes : Actualités militaires, A tech.
Et je vous apprends rien, des vidéos bobards avec des images de trucs impossibles ça n'est pas limité aux affaires militaires ou à YouTube.
Je m'interroge sur qui clique dessus à part des bots?
Modifié le 22/01/2024 à 11h07