Désinformation : après des avertissements inefficaces, Facebook réduit la taille du texte

Désinformation : après des avertissements inefficaces, Facebook réduit la taille du texte

Désinformation : après des avertissements inefficaces, Facebook réduit la taille du texte

La lutte contre les « fake news » est un casse-tête pour le réseau social, accusé d'avoir contribué à leur diffusion massive depuis quelques années.

Depuis plus d'un an, le groupe américain embauche des médias du monde entier pour vérifier des articles suspectés d'être trompeurs. Ceux épinglés sont marqués spécifiquement, en toute logique pour en détourner les internautes, qui disposent de liens sûrs à proximité.

Malheureusement, selon Facebook, la méthode s'est retournée contre lui. Les internautes cliqueraient plus facilement sur ces articles marqués comme faux, renforçant même leurs convictions.

Changement de braquet : le réseau social réduit désormais la taille du texte et celle de l'image des articles marqués comme trompeurs, comme détaillé dans une conférence récente. L'image d'un tel article est dix fois plus petite que celle d'un contenu légitime.

L'entreprise commence d'ailleurs à détecter automatiquement ces contenus, à grands renforts de machine learning, l'intelligence artificielle étant la solution à tous les problèmes de Facebook selon Mark Zuckerberg. Quand on a un marteau, tous les problèmes ressemblent à des clous, dit-on.

Commentaires (11)


Les internautes cliqueraient plus facilement sur ces articles marqués comme faux, renforçant même leurs convictions.Tout comme maintenant en réduisant la taille, les gens vont encore plus cherché à voir ce qui est marqué donc a cliquer dessus.&nbsp;<img data-src=" />


Quand on voit l’exemple, c’est pas que le texte soit plus petit (ce qui nous donnerait envie de cliquer car affiché différemment). L’image n’est plus aussi grande, comme quand un lien fait partie d’un long post Facebook. Résultat, ça devrait moins attirer l’attention qu’avant avec le grand bandeau rouge FAKE NEWS.


On sait que la plupart du temps, on ne clique pas sur les liens pour voir de quoi il s’agit, on ne lit que le texte et l’image affichées dans la Timeline. Donc ça va dans la logique des choses de réduire la publication “fakenews” à un simple bandeau plus petit alors que les publications approuvées auront leur grande photo et leurs gros caractères (un peu comme dans les journaux de petites annonces et dans le bottin des pages jaunes).


Oui j’avais pas vu l’exemple sur techcrunch.

En tout cas, je trouve cette manie de vérification injustifiée.








Hadrien01 a écrit :



L’image n’est plus aussi grande, comme quand un lien fait partie d’un long post Facebook. Résultat, ça devrait moins attirer l’attention qu’avant avec le grand bandeau rouge FAKE NEWS.







Tant que c’est affiché, ca reste cliquable. Ca va juste inciter a des mini-images/titres entre plus racoleurs, et ca confortera ceux qui pensent “qu’on nous cache des choses” puisqu’on les affiche en tout petit.



Le seul moyen efficace c’est un mode par défaut qui n’affiche pas les supposées fakenews (genre le mode “safe” par défaut dans google image pour le supposé porn).









127.0.0.1 a écrit :



Le seul moyen efficace c’est un mode par défaut qui n’affiche pas les supposées fakenews (genre le mode “safe” par défaut dans google image pour le supposé porn).





t’en as pleins qui vont hurler à la censure si ça se réalise <img data-src=" />









WereWindle a écrit :



t’en as pleins qui vont hurler à la censure si ça se réalise <img data-src=" />







Ceux là n’auront qu’à activer le mode “unsafe”… <img data-src=" />









127.0.0.1 a écrit :



Ceux là n’auront qu’à activer le mode “unsafe”… <img data-src=" />





ouais mais tu comprends, faudrait aller toucher un paramètre, c’est pas la portée de tout le monde (cf une bonne partie des “problèmes de confidentialité” de FB), ça prouve bien qu’on nous cache des des trucs/on veut nous faire taire/autre (rayer les mentions inutiles









WereWindle a écrit :



t’en as pleins qui vont hurler à la censure si ça se réalise <img data-src=" />






En même temps, ce fantasme de la modération par algorithme est une véritable censure électronique. Je me rappelle quand j'ai appris que Facebook employait des fermes à clics (des humains! en chair et en os!) pour faire de la modération selon un protocole ubuesque et très aléatoire.


Merci pour le brief. Toutefois, vous auriez pu fournir une illustration similaire à celle de Techcrunch pour se faire une idée visuelle du changement.








refuznik a écrit :



Oui j’avais pas vu l’exemple sur techcrunch.

En tout cas, je trouve cette manie de vérification injustifiée.





C’est vrai, c’est totalement inutile de vérifier si les infos que l’on nous transmet sont fausses ou pas, on n’a qu’a tous choisir la Russie et confier notre bonheur au grand chef. A titre annexe, dans une démocratie, cela relève du devoir de citoyen de bien s’informer pour faire le tri lors de son vote.



Fermer