Contre les « fake news », Google affute son algorithme de recherche et contrôle l’autocomplétion
Un fait divers, un algorithme
Le 26 avril 2017 à 14h08
4 min
Internet
Internet
Google annonce une révision de son moteur, pour faire remonter des résultats « d'autorité » sur les recherches contenant des contenus trompeurs. Il est également possible pour certains utilisateurs de signaler des suggestions de recherche « inappropriées ».
La lutte contre les fausses nouvelles est l'occasion d'une communication nombreuse pour les géants du Net. Google vient d'annoncer une modification de PageRank, l'algorithme de son moteur de recherche. La cible affirmée, les fake news, soit « la diffusion d'informations manifestement trompeuses, de basse qualité, offensantes, voire clairement fausses ».
Si le problème est présenté comme nouveau par Google, il suit la démarche que le groupe affiche à long terme, à savoir lutter contre les mauvais contenus (comme ceux produits dans des « fermes ») et mettre en avant ceux de meilleure qualité. Comme d'habitude, l'entreprise affirme s'appuyer sur trois piliers : améliorer l'algorithme, faciliter les retours d'internautes et être plus transparent. Une trinité qui s'invite dans la communication de nombreuses entreprises du Net, sur n'importe quel sujet.
« Fake news » et communication de géants du Net
Comme celle de Facebook, la communication de Google est à la mesure des critiques que l'entreprise a reçu face à la recrudescence des « fausses nouvelles ». Le sujet, qui a émergé lors de la dernière élection présidentielle américaine, est devenu une préoccupation affichée à grands renforts de billets de blog, de formations et de financements pour les éditeurs de presse, notamment pour des prestations qu'ils fournissent en France (voir notre analyse).
Google avait par exemple interdit en fin d'année dernière la publicité pour ces contenus douteux, affichant des résultats impressionnants quelques mois plus tard. Des centaines de sites auraient ainsi été marqués au fer rouge par le géant, qui ne permet pas de vérifier ses dires.
Pourtant, selon Google, seule « une petite part de nos requêtes quotidiennes (0,25 %) » renverraient des contenus offensants ou trompeurs. Le but de la modification de l'algorithme est donc de fournir plus de résultats « d'autorité » sur cette section spécifique de requêtes, en cachant au mieux ceux estimés indésirables. À la mi-mars, le moteur de recherche a modifié ses lignes directrices en matière de qualité (PDF), pour réaffirmer que « les contenus trompeurs, les pages choquantes inattendues, les hoaxes et les théories du complot » sont descendus.
Signalements dans l'autocomplétion et FAQ complétée
En matière de retour des utilisateurs, Google tient à répondre aux critiques concernant l'autocomplétion et les contenus mis en avant (comme des actualités) en tête de résultats de recherche. En décembre dernier, la société a par exemple retiré manuellement des suggestions de recherche, jugées antisémites et sexistes. Il aura fallu une pression publique de certains utilisateurs pour obtenir ce changement, qui devrait désormais passer par un outil intégré.
Cet épisode en rappelle un autre, en 2012, quand des associations antiracistes françaises ont signalé des suggestions de recherche associant le mot juif à des personnalités. Un accord de médiation avait été trouvé. En 2014, un particulier obtenait le retrait de suggestions associant son nom à des termes connotés, sur le terrain de la loi CNIL.
Désormais, au moins sur la version américaine du moteur, une ligne apparaît sous la liste des recherches suggérées, permettant de marquer une ou plusieurs entrées comme inappropriées. Bien entendu, ces signalements doivent être pris en compte dans le tri des résultats par le moteur de recherche.
Encore faut-il que Google en tienne réellement compte, le traitement des résultats considérés comme choquants étant parfois aléatoire, tout comme les réponses de Google aux utilisateurs. Les soucis de vidéastes dans les recours en matière d'infraction du droit d'auteur illustre certaines difficultés en la matière.
Des suggestions de recherche retirées
Enfin, en matière de transparence, l'entreprise a complété sa section d'aide, en détaillant sa politique en matière de « saisie semi-automatique ». Sont ainsi automatiquement évincées les suggestions estimées vulgaires ou sexuellement explicites, incitant à la haine, à caractère violent et « mentionnant une activité dangereuse ».
Autant de catégories dans la délimitation restent bien à la discrétion de la société, toute transparente veuille-t-elle être, avec des résultats qui seront sûrement difficiles à mesurer simplement... Sinon en s'appuyant sur une probable nouvelle communication de Google à ce sujet dans plusieurs mois.
Contre les « fake news », Google affute son algorithme de recherche et contrôle l’autocomplétion
-
« Fake news » et communication de géants du Net
-
Signalements dans l'autocomplétion et FAQ complétée
-
Des suggestions de recherche retirées
Commentaires (15)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 26/04/2017 à 14h43
Après l’argument d’autorité ou de pouvoir (argumentum ad potentiam - dixit Wikipedia), les “résultats « d’autorité »” des algorithmes et/ou des petites mains (ou micro-tâcherons ou digital labors - dixit Antonio Casilli) du web social.
Le 26/04/2017 à 15h19
Une énième frontière de franchise qui éloigne d’avantage google de la neutralité.
Le 26/04/2017 à 15h52
Au bout d’un moment il est quand même bien de se poser la question, est-ce qu’on peut continuer comme ça? Si chaque internaute était capable d’avoir du recul sur l’information, de faire le tri entre le bon grain et l’ivraie et mettre de côté ses opinions politiques pour se concentrer sur les faits, on en serait pas là aujourd’hui… C’est dommage qu’un acteur majeur du web doive égratigner sa façon de gérer l’info, mais vu les proportions que ça prend.
Le 26/04/2017 à 16h07
Si seulement ces procédures, mises en place par Google, étaient transparentes et étaient réalisées avec de réelles intentions de salubrité de l’information, il n’y aurait rien à redire. Malheureusement, tout ça se fait dans les arrière-boutiques sans que rien ne soit public de ces algorithmes et de ces “autorités” de l’information vérifiée (partenariats? - choisies unilatéralement par Google? - qui sont nommément ces “autorités”?) et sans aucune assurance de la réactivité de Google en cas de signalement (comme écrit dans l’article).
Le 26/04/2017 à 16h19
Pour le coup, les algorithmes de google, ça a toujours été un secret et ça le restera longtemps… Concernant les “autorités”, ce serait bien qu’ils précisent ce qu’ils entendent par là, mais ce sont eux qui décident. Par contre le truc que je trouve con, c’est le morceau sur les infos “offensantes”, dans la mesure où aujourd’hui, tout le monde s’offense pour tout et n’importe quoi, ils sont pas sortis du sable…
Le 26/04/2017 à 16h44
Le 26/04/2017 à 18h14
Avant Google Search renvoyait les sites les plus pertinents = ceux qui faisaient référence (les plus cités / visités).
Mais ca, c’était avant que Google ne s’intéresse a mon bien-être et ne décide de filtrer ce qui peut m’offenser et ce qui peut m’induire en erreur.
Merci Google.
Le 26/04/2017 à 18h25
Le 26/04/2017 à 18h30
Donc le nuage ne passe pas la frontière,
et il y a des armes de destructions massives en Irak.
G$\(gle et Faceb\)$k le disent, amen. " />
#radiolondres
Le 26/04/2017 à 18h41
Le 26/04/2017 à 18h55
Sur le principe je suis totalement d’accord. Et qu’il existe un moyen de se protéger de ces actes détestables est une bonne chose. Mais je ne pense pas que cela soit la responsabilité d’un indexeur, encore moins privé.
Le 26/04/2017 à 19h37
Il y a quand même un vrai coté faux-cul de cette objectivité des algorithmes à la sauce Google. Il est bon de se rappeler des résultats de certains sur Youtube : Asselineau sur Youtube et leur résultats aux élections.
Le 26/04/2017 à 20h58
Qu’aurait dit Google avec cet algorithme de recherche ?
Peut être “fake news”, et on imagine les conséquences.
Le 26/04/2017 à 21h16
Tant qu’on se limite à l’actualité visible (la terre est ronde) et aux infos vérifiables facilement (les chiffres du chômage par exemple) ça ne pose pas vraiment de problèmes. Quand on part sur des sujets plus pointus où dépendant d’une analyse scientifique, là part contre, je suis d’accord que le procédé perd en efficacité. Mais la plupart des “fake news” relayée sur les réseaux sociaux, concernent très souvent des infos facilement vérifiables et se limitent à des intox grossières.
Le 26/04/2017 à 21h26
D’où l’intérêt d’intégrer des médias indépendants et identifiés dans la boucle. Si on laisse l’initiative dans les seules mains des réseaux sociaux, le doute est permis. S’ils ne servent que de support et de plateforme technique pour de véritables journalistes, ça gagne en crédibilité. Sauf bien sûr pour ceux qui préfèrent alimenter leur biais de confirmation en s’abreuvant sur des sites partisans et bourrés d’intoxs…