Connexion
Abonnez-vous

L’algorithme de YouTube biaisé à droite, mais pas tellement vers l’extrémisme

ça penche un peu

L’algorithme de YouTube biaisé à droite, mais pas tellement vers l’extrémisme

Une nouvelle étude scientifique conclut à un relatif biais à droite de l'algorithme de YouTube. En revanche, elle ne démontre pas d'exposition marquée aux contenus extrémistes, sauf chez les profils d'utilisateurs déjà les plus marqués à l'extrême, en particulier à l'extrême-droite.

Le 15 décembre 2023 à 14h49

Les algorithmes des réseaux sociaux sont souvent critiqués pour leur propension à faciliter la radicalisation des internautes. YouTube, notamment, a été épinglé à plusieurs reprises pour sa propension à orienter les contenus visionnés par ses usagers vers des propositions toujours plus extrêmes.

Cet été, 16 survivants de la tuerie de Buffalo, dans laquelle 10 personnes noires ont été tuées en mai 2022, ont même porté plainte contre YouTube (et Reddit) au motif que la plateforme aurait participé à la radicalisation de l’assassin. En pratique, pourtant, le champ scientifique peine à affirmer avec certitude dans quelle mesure YouTube participe – ou pas – à la radicalisation de certains de ses utilisateurs.

Une nouvelle étude des universités de Princeton et UC Davis vient donner de l’eau au moulin de ces débats. Après des centaines de milliers de tests automatisés, ses auteurs constatent que l’algorithme de recommandation de la plateforme, propriété de Google, a tendance à proposer des vidéos en accord avec les parti pris des internautes quand ceux-ci présentent une tendance partisane évidente.

Cela ne semble pas empêcher une exposition modérée à des contenus plus transversaux. L’étude indique en revanche que la part de contenus cohérents avec la position déjà exprimée par l’internaute est plus forte pour les utilisateurs marqués à droite de l’échiquier politique. Et que les comptes politiquement modérés se voient recommander plus de contenu tendant vers la droite que la gauche.

L’équipe n’a par ailleurs pas constaté de renforcement du nombre de contenus extrémistes au fil des suggestions de vidéos. En revanche, elle rapporte que la part de vidéos tirées de chaînes catégorisées comme « problématiques » augmente avec le nombre de recommandations, en particulier, encore une fois, auprès des utilisateurs les plus à droite.

« Si la proportion de ces recommandations reste basse (2,5 % maximum), elles sont néanmoins visibles pour plus de 36,1 % des utilisateurs, et jusqu’à 40 % de ceux d’extrême-droite », écrivent les chercheurs.

Algorithme tout-puissant ?

Le rôle des algorithmes de recommandation dans la tournure prise par les discussions est un enjeu qui traverse toutes les plateformes, sociales ou autres, via lesquelles nous échangeons ou consommons des contenus culturels. Nous en parlions il y a quelques jours avec les bulles de thématiques que les mécaniques d’Amazon semblent créer dans sa librairie. Ou il y a quelques mois au sujet des logiques de recommandation des plateformes musicales.

Les systèmes de recommandation algorithmique des plateformes de médias sociaux, écrivent les scientifiques de Princeton et UC Davis, « sont uniquement conçus pour optimiser l'engagement des utilisateurs ». En cela, ils jouent sur ce que l’utilisateur/internaute consomme, mais aussi sur ce que les créateurs/influenceurs proposent. Le youtubeur Amixem a par exemple décrit auprès de l’ADN comment les évolutions de la mécanique de YouTube faisait évoluer son travail.

« Montrer aux gens davantage de choses qu'ils aiment est une caractéristique de tous les systèmes de recommandation et n'est pas alarmant en soi », continue l’équipe de recherche. « Néanmoins, dans le cas de contenus politiques, certains craignent que la personnalisation et la volonté d’augmenter l’engagement utilisateur ne mène à recommander du contenu qui amplifie les biais préexistants de l’utilisateur et à minimiser son exposition à des points de vue différents. »

Créée par le data scientist français et ancien de Google Guillaume Chaslot, un projet comme Algo Transparency a illustré par le passé la propension de la mécanique de YouTube à promouvoir des contenus faux et/ou haineux. Au Point, l’ingénieur donnait deux exemples d’enfermement accrus par le système algorithmique : celui relatif aux thèses complotistes, comme celle de la Terre plate, et les thématiques liées aux détestations en tout genre. « Haine anti-immigrés, haine anti-Français, haine religieuse, haine de classe : les créateurs haineux ont été particulièrement mis en avant par la page d'accueil de YouTube, parce qu'ils sont très efficaces pour faire regarder de la pub » expliquait-il alors.

Faux comptes et catégorisation des audiences

Pour enquêter sur le phénomène, les équipes américaines ont constitué un échantillon de 100 000 faux comptes (sockpuppets), qui, combinés, ont visionné plus de 9 milliards de vidéos YouTube tirées de plus de 120 000 chaînes différentes.

Leur but était double. Il s’agissait, d’une part, de tenter d’observer si l’algorithme proposait des vidéos cohérentes avec l’idéologie d’un internaute, et si cette tendance s’accroissait au fil des vidéos. L’autre hypothèse consistait à observer si les recommandations devenaient de plus en plus extrêmes ou si elles venaient de chaînes YouTube catégorisées comme « problématiques ».

[caption id="attachment_120476" align="aligncenter" width="850"]Schéma décrivant la méthodologie de l'étude YouTube, The Great Radicalizer? CC 4.0 YouTube, The Great Radicalizer?[/caption]

Pour estimer l’orientation idéologique des vidéos analysées, les scientifiques se sont appuyés sur l’audience de chacune d’elles sur un autre réseau : Twitter (désormais X). Après récupération des tweets mentionnant chaque vidéo, c’est le profil des twittos, selon qu’il soit plus ou moins marqué d’un côté ou de l’autre de l’échiquier, qui a permis de classer les publications sur une échelle à cinq degrés : extrême-gauche, gauche, centre, droite, extrême-droite. L’étude s’appuie aussi sur une liste de 4 150 chaînes qualifiées de « problématiques » par de précédentes études, elle dépend donc de plusieurs facteurs externes, ce qui peut évidemment influencer sur les résultats.

Biais droitier

Résultat des courses, YouTube semble effectivement recommander un nombre croissant de contenus allant dans le sens du parti pris idéologique de l’internaute, mais cela ne signifie pas que celui-ci se retrouve coupé d’autres points de vue.

Au contraire, alors que les comptes utilisés par les chercheurs avaient été entraînés exclusivement sur des vidéos correspondant au bord politique qui leur avait été attribué, le visionnage plus classique leur fournissait d’autres types de contenu, « ce qui peut s’expliquer par le fait que le système ait été construit pour recommander aussi des vidéos à succès et les dernières informations ».

Globalement, l’analyse suggère tout de même « la présence d’un biais de droite dans l’algorithme de YouTube », dans la mesure où les comptes les plus modérés politiquement se voient plus recommander de vidéos qui tendent vers la droite que vers la gauche.

Quoi qu'il en soit, où que soit situé un profil politiquement, la masse dominante des vidéos qui lui seront poussées correspondront à ses idées, « en particulier pour les usagers d’extrême-droite ». Confirmant un récent travail qui montrait que la page d’accueil de YouTube est généralement plus marquée politiquement que les recommandations poussées par la lecture automatique « prochaine vidéo » (up next), l’étude ne constate par ailleurs pas d’augmentation linéaire du nombre de vidéos recommandées cohérentes avec le positionnement politique de l’internaute.

Les comptes fictifs « très à gauche ne rencontrent pas un nombre croissant de vidéos très à gauche lorsqu'elles suivent les recommandations "prochaine vidéo". Néanmoins, pour les comptes fictifs très à droite, leurs chances de rencontrer des recommandations très à droite augmentent de 37 % au fur et à mesure » que ces comptes consomment des vidéos sur YouTube.

« Cette augmentation est loin d'être insignifiante et confirme le constat » d'une plus grande « congénialité », c’est-à-dire d’une plus grande cohérence avec les idées déjà exprimées, « pour ce groupe idéologique ».

Contenus problématiques rapidement recommandés

Sur la question de la radicalisation progressive des contenus, l’équipe note que les vidéos recommandées aux internautes fictifs d’extrême-droite et d’extrême-gauche « deviennent nettement plus extrêmes au fur et à mesure », mais que ces évolutions ne sont pas très importantes tant il faut aller loin pour y être exposé. Et les scientifiques d'estimer qu’« il est peu probable qu'ils aient un impact démocratique ».

Ce qui alerte plus, en revanche, est l’apparition de contenus tirés de chaînes « problématiques » au milieu des feeds, quelle que soit l’obédience politique assignée aux comptes fictifs. Les comptes marqués à droite ou à l’extrême-droite « sont ceux qui risquent le plus de les rencontrer, même si les profils les plus modérés s’y retrouvent aussi de plus en plus confrontés à mesure qu’ils avancent dans les recommandations "prochaine vidéo". »

Dans la plupart des cas, les recommandations de ce type de contenu restent minimes -« jamais plus de 2,5 % des vidéos proposées en moyenne ». Cela dit, « leur apparition dans les fils de recommandation de plus de 32 % des comptes fictifs est problématique ». En effet, note l’équipe, 70 % du contenu consommé sur YouTube l’est à partir des recommandations. Les auteurs de l’étude estiment donc que « ce schéma de recommandation peut activer un cycle de radicalisation ».

S’il est riche en enseignement, un tel travail est à compléter avec d’autres, qui s’appuient sur des historiques de navigations d’internautes réels, indiquent l’équipe autrice de l’étude. En août, justement, Science Advances publiait une étude de ce type, menée par une chercheuse de l’université de New-York sur un échantillon d’un peu plus de mille personnes.

Celle-ci y concluait que les recommandations les plus extrêmes n’étaient pas tant montrées au grand public qu’à celles et ceux qui consommaient déjà ce type de contenu. Et que la plateforme jouait bien un rôle dans l’exposition à des chaînes potentiellement extrémistes.

Commentaires (19)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar
Ça ne me paraît pas aisé de définir ce qui est au centre de l'échiquier politique, par exemple le centre aux États-Unis n'est pas le même que le centre en France, et idem entre la France et la Croatie (autre exemple). Quelqu'un comme Joe Biden est vu majoritaire comme plutôt à droite en France, alors qu'il est à gauche aux États-Unis.

Et même sans faire de comparaison avec un pays étranger, quand on parle à un électeur nettement de droite ou de gauche (sans être extrême), ils n'ont pas non plus la même définition de ce qui serait le centre. Par conséquent, quand il est estimé ici que ça penche un peu à droite sur Youtube, c'est quelque peu subjectif et lié à la sensibilité politique des auteurs.
votre avatar
Quand tu vois que le classement politique des vidéos a été fait à partir de l'audience qu'ont ces vidéos sur Twitter à partir de ceux qui les voient, tu comprends que l'on est probablement dans la marge d'erreur. De plus ils ont fait voir 90 000 vidéos par compte ce qui me semble beaucoup. À raison de 10 vidéos par jour ça fait 24 ans soit plus que l'âge de YouTube qui date de 2005. À 30 vidéos par jour, ça fait encore 8 ans. Et en 8 ans je pense que l'algorithme évolue ainsi que le type de vidéos, donc cette étude est à prendre avec des pincettes.
votre avatar
Exactement. De manière générale le clivage droite/gauche est défini différemment selon où on s'y place, et alors dire ce qu'est le centre est encore plus compliqué puisque chacun va vouloir tirer la couverture (la fenêtre d'Overton) à soi en normalisant (centralisant) le plus possible la perception de ses idées.

Sachant que le centre bouge toujours vers la gauche par définition (ce qui fait qu'en vieillissant on bouge relativement vers la droite...), puisque selon une définition relative (de gauche) du clivage, donc non historique (qui est la définition de droite), la gauche c'est le mouvement politique, vers la recherche d'un progrès, tandis que la droite c'est la résistance à ce mouvement et la tentative de stabiliser et d'enraciner. Donc certains se permettent d'anticiper un mouvement qui n'a pas encore eu lieu.

C'est pourquoi les débats employant ces mots sont creux et sans intérêt si on ne commence pas par les définir.
votre avatar
Sachant que le centre bouge toujours vers la gauche par définition
Pourquoi par définition ?

De ce que j'observe, c'est l'inverse : on bouge à droite avec l'âge (Donc on a l'impression que le centre bouge à gauche, mais c'est subjectif).
votre avatar
Donc pour toi, rien ne change, c'est dans la tête ?
Non, les choses évoluent politiquement, vers la gauche toute (sauf si l'élastique est tiré trop fort trop vite, il peut casser...), par définition parce que on appelle "gauche" justement le mouvement politique vers la nouveauté, et "droite" la conservation voire le retour en arrière. C'est la définition de gauche du clivage.

Par exemple, l'individualisme, le libéralisme, furent des mouvements politiques, donc de gauche, puis un jour c'est devenu de droite tandis que la gauche est passée à autre chose, la communauté et l'égalitarisme, etc... Et c'est ça qui est énervant selon la définition de droite du clivage (celle qui s'accroche à la mort du roi en 1789), car la droite défend des idées qui ont été à gauche un jour, et donc elle en a marre de se faire insulter pour ça, "si ce sont des mauvaises idées finalement, pourquoi ne pas avoir écouté la droite de l'époque qui vous le disait" ? Mais non, pour la gauche, le mouvement est presque un but en soi, comme si tout mouvement était progrès (spoiler : non, exemple : les innovations de la langue pour exclure les femmes du masculin et les réintégrer à coups de points ou de répétitions lourdes).

Quand je dis "la gauche" ou "la droite", je ne parle évidemment par de partis politiques, mais de concepts. On devrait tous avoir ces deux concepts en affrontement dans nos têtes sujet par sujet plutôt que de se caser d'un côté ou de l'autre.
votre avatar
Par exemple, l'individualisme, le libéralisme, furent des mouvements politiques, donc de gauche
N'importe quoi…

T'as eu une promo sur les sophismes pour en sortir autant ?
votre avatar
Le libéralisme au départ c'est une valeur de gauche, même si le sens de nos jours a évolué et s'est restreint à la partie économique. Les anglo-saxons (américains en particulier) ont gardé le sens initial de "liberal", qui s'oppose aux conservateurs et gens plutôt à droite qui veulent interdire, en particulier côté moeurs.
votre avatar
Bon, en relisant une nième fois ton message, je pense avoir compris ce que tu cherches à dire : la gauche est progressiste donc ses idées « progressent », la droite est conservatrice donc ses idées « stagnent » (ou progressent, mais avec un train de retard). C'est ça ?

Moi, je le vois dans l'autre sens : quand t'es jeune, t'as pas grand choses (à part des idéaux) rien à perdre, et tu as donc envie de faire bouger les choses, de rendre le monde meilleur, etc.
Quand tu vieillis, tu te poses, trouves un boulot stable, fondes une famille, achètes une maison, fais des enfants, etc. et donc tu as beaucoup moins envie que les choses changent.
votre avatar
Tu l'écris à l'envers, je n'essaye pas de dire "la gauche" ou "la droite", je définis d'abord ce qu'on appelle gauche et droite. La gauche vote la mort du Roi, la droite vote contre, ça c'est la naissance du clivage. Une France sans roi (c'est-à-dire ne gardant même pas une monarchie constitutionnelle comme nombre de voisins) c'est la nouvelle idée. Garder l'existant, c'est l'opposition à la nouvelle idée.

Et ensuite à partir de cette définition, tu peux juger si ceux qui prétendent incarner "la droite" ou "la gauche" en sont réellement, et ce sujet par sujet, selon s'ils se satisfont du statu quo (ou craignent la nouvelle idée) ou pas. Si "la gauche" veut conserver, elle est de droite, si "la droite" accepte une nouveauté, elle est de gauche, c'est pour ça que ces expressions sont trompeuses.

L'individualisme (droits de l'Homme, 1 Homme 1 voix...) est toujours un progrès souhaité pour bon nombre de sociétés claniques et tribales, et le libéralisme a été un progrès aussi. C'est pas du sophisme, c'est de l'histoire, peut-être que je n'emploie pas le bon mot, n'empêche que notre monde actuel est l'héritage des innovations politiques, donc des anciennes gauches, tout en ayant conservé pas mal de choses aussi. Aucun jugement de valeur généralisé.

Ensuite toi tu réponds à une autre question sur son placement individuel par rapport au clivage, et oui en effet y'a de ça aussi. Ce qui joue énormément je pense, c'est le souvenir d'une enfance heureuse ou pas, pour l'effet "c'était mieux avant". Il y a eu des époques pas si lointaines où, les années passant, tout allait de mieux en mieux, donc la nouveauté faisait rêver toute la vie. Aujourd'hui ce n'est plus le cas, globalement on est de plus en plus nombreux à voir le prix de ce rêve et on sent la chute, les années passant...

C'est beaucoup plus complexe en réalité, et on n'évolue pas pareil sur les questions par exemple économiques (plus influencées par le statut social que par l'âge je dirais) ou sur les questions sociétales (là par contre...), liées de force sans raison, c'est d'ailleurs ça qu'on est beaucoup à souhaiter de délier.
votre avatar
Ca me rappelle un article que j'ai retrouvé: lemonde.fr Le Monde

En résumé, pour la partie qui rejoint le présent article, Internet serait plutôt à droite.
"Les conservateurs s’y imposent, non seulement par leurs revenus et capacités, par leur organisation hiérarchique, ainsi que par leur message… et le fait que celui-ci soit plus simple, d’une certaine manière plus partageable"
votre avatar
Je sais bien que mon cas en fait pas la règle, mais depuis quelques mois, YT a tendance à me proposer des vidéos de chaînes puant l'extrême facho.
J'avoue aussi que je n'ai que parcouru l'article très vite, et que je ne sais pas exactement pourquoi certain commentaires parlent de centre. Je tiens quand même à préciser que le centre, en France, ne sent pas très bon non plus. Vous voulez qu'on reparle du "barrage" ?
votre avatar
Je suis dans le même cas, je m’intéresse à l’histoire récente, à l’économie en essayant de rester dans les sources peu politisés et l’algorithme me balance pas mal des contenu aux extrêmes politiques dont certains qui reviennent régulièrement malgré les tags ‘ne m’intéresse pas’
votre avatar
J'avoue, de temps en temps, il me propose des vidéos d'astronogeek :p...
votre avatar
Je ne saurais dire si les suggestions de Google penchent à droite ou à gauche. En ce qui me concerne, il ne me propose que du contenu sans rapport avec la politique.
votre avatar
Idem. Je vois rarement du politique dans mes suggestions. Peut-être parce que je ne regarde aucune chaine d'actu (genre replay des chaines TV ou journaux) ? Excepté arte ou un docu de temps en temps.

Perso quand je vais sur YT c'est pour regarder mes abonnements en priorité (et j'ai déjà fort à faire pour tout voir... du coup, j'ai pris l’habitude de regarder en accéléré :D)
votre avatar
J'ai le souvenir de vidéos éducatives pour le primaire envoyées par les enseignants de mes enfants pendant les confinements Covid. Il y avait dès la 5ème suggestion des contenus complotistes. Depuis ce jour, j'évite le plus possible YouTube.
votre avatar
Je reste sur ma faim.
L'article explique en détail le protocole mis en place par les chercheurs (avec ses atouts et ses limites) pour faire leur constat.
Mais ça n'explique pas cette asymétrie.

Quand j'étais étudiant, je me souviens avoir assisté à une conférence sur la politique sur Internet.
C'était tenu par un chercheur qui voulait montrer une application de la théorie des graphes.
Pour reposer le contexte, en 2006, c'était l'époque c'était Ségo contre Nico, je ne suis pas sur que Facebook était ne serait-ce un projet étudiant et l'essentiel du militantisme se passait sur les blogs.
La théorie du conférencier, crawlers à l'appui, c'était que la droite avait un développement vertical (peu de sites mais puissants : rapport liens entrants/liens sortant élevé), la gauche avait un développement horizontal (beaucoup de petits blogs avec des rapports liens entrants/liens sortants faibles).

Bilan dans Google, la 1ère page sur les sujets sensibles du moment donnait un souvent seul site de droite plutôt bien placé, et 9 sites de gauche.

L'exposé était à la limite de ce que l'on appellerait aujourd’hui le SEO. Mais on comprenait le pourquoi de ce comportement.

Ici, ça s'arrête à "c'est la faute à l'algo foireux" :(
votre avatar
Oui, le sujet de cette étude est uniquement le comportement des algorithmes de recommandation de YouTube :
"Auditing and Mitigating Ideological Biases in YouTube Recommendations"

Personnellement, j'ai du mal à comprendre le protocole des data scientists pour déterminer la place de chaque vidéo dans le spectre politique. La somme des occurrences ferait un positionnement politique ?
votre avatar
Je dirais plutôt que les réseaux (youtube comme fb, insta ...) t'enfoncent dans l'extrême que tu regardes :
Si tu regardes du contenu à gauche, l'algo va te proposer "ce que tu aimes" et de conforter dans tes idées pour aller vers l'extrême gauche. Si tu penches à droite l'algo va te faire glisser à l'extrême droite.

A voir sur les contenus apolitiques mais comme le but est de coller une étiquette sur tout et n'importe quoi, même dora et les bisounours doivent être étiquetés à gauche ou à droite par l'algo.

L’algorithme de YouTube biaisé à droite, mais pas tellement vers l’extrémisme

  • Algorithme tout-puissant ?

  • Faux comptes et catégorisation des audiences

  • Biais droitier

  • Contenus problématiques rapidement recommandés

Fermer