L’algorithme de YouTube biaisé à droite, mais pas tellement vers l’extrémisme
ça penche un peu
Une nouvelle étude scientifique conclut à un relatif biais à droite de l'algorithme de YouTube. En revanche, elle ne démontre pas d'exposition marquée aux contenus extrémistes, sauf chez les profils d'utilisateurs déjà les plus marqués à l'extrême, en particulier à l'extrême-droite.
Le 15 décembre 2023 à 14h49
9 min
IA et algorithmes
IA
Les algorithmes des réseaux sociaux sont souvent critiqués pour leur propension à faciliter la radicalisation des internautes. YouTube, notamment, a été épinglé à plusieurs reprises pour sa propension à orienter les contenus visionnés par ses usagers vers des propositions toujours plus extrêmes.
Cet été, 16 survivants de la tuerie de Buffalo, dans laquelle 10 personnes noires ont été tuées en mai 2022, ont même porté plainte contre YouTube (et Reddit) au motif que la plateforme aurait participé à la radicalisation de l’assassin. En pratique, pourtant, le champ scientifique peine à affirmer avec certitude dans quelle mesure YouTube participe – ou pas – à la radicalisation de certains de ses utilisateurs.
Une nouvelle étude des universités de Princeton et UC Davis vient donner de l’eau au moulin de ces débats. Après des centaines de milliers de tests automatisés, ses auteurs constatent que l’algorithme de recommandation de la plateforme, propriété de Google, a tendance à proposer des vidéos en accord avec les parti pris des internautes quand ceux-ci présentent une tendance partisane évidente.
Cela ne semble pas empêcher une exposition modérée à des contenus plus transversaux. L’étude indique en revanche que la part de contenus cohérents avec la position déjà exprimée par l’internaute est plus forte pour les utilisateurs marqués à droite de l’échiquier politique. Et que les comptes politiquement modérés se voient recommander plus de contenu tendant vers la droite que la gauche.
L’équipe n’a par ailleurs pas constaté de renforcement du nombre de contenus extrémistes au fil des suggestions de vidéos. En revanche, elle rapporte que la part de vidéos tirées de chaînes catégorisées comme « problématiques » augmente avec le nombre de recommandations, en particulier, encore une fois, auprès des utilisateurs les plus à droite.
« Si la proportion de ces recommandations reste basse (2,5 % maximum), elles sont néanmoins visibles pour plus de 36,1 % des utilisateurs, et jusqu’à 40 % de ceux d’extrême-droite », écrivent les chercheurs.
- Peut-on corriger les biais des algorithmes ?
- Comment les mouvements politiques français jouent des techniques de manipulation de l’information sur les réseaux sociaux
- Comment la mécanique de la librairie d’Amazon influe sur les ventes… et le discours public
Algorithme tout-puissant ?
Le rôle des algorithmes de recommandation dans la tournure prise par les discussions est un enjeu qui traverse toutes les plateformes, sociales ou autres, via lesquelles nous échangeons ou consommons des contenus culturels. Nous en parlions il y a quelques jours avec les bulles de thématiques que les mécaniques d’Amazon semblent créer dans sa librairie. Ou il y a quelques mois au sujet des logiques de recommandation des plateformes musicales.
Les systèmes de recommandation algorithmique des plateformes de médias sociaux, écrivent les scientifiques de Princeton et UC Davis, « sont uniquement conçus pour optimiser l'engagement des utilisateurs ». En cela, ils jouent sur ce que l’utilisateur/internaute consomme, mais aussi sur ce que les créateurs/influenceurs proposent. Le youtubeur Amixem a par exemple décrit auprès de l’ADN comment les évolutions de la mécanique de YouTube faisait évoluer son travail.
« Montrer aux gens davantage de choses qu'ils aiment est une caractéristique de tous les systèmes de recommandation et n'est pas alarmant en soi », continue l’équipe de recherche. « Néanmoins, dans le cas de contenus politiques, certains craignent que la personnalisation et la volonté d’augmenter l’engagement utilisateur ne mène à recommander du contenu qui amplifie les biais préexistants de l’utilisateur et à minimiser son exposition à des points de vue différents. »
Créée par le data scientist français et ancien de Google Guillaume Chaslot, un projet comme Algo Transparency a illustré par le passé la propension de la mécanique de YouTube à promouvoir des contenus faux et/ou haineux. Au Point, l’ingénieur donnait deux exemples d’enfermement accrus par le système algorithmique : celui relatif aux thèses complotistes, comme celle de la Terre plate, et les thématiques liées aux détestations en tout genre. « Haine anti-immigrés, haine anti-Français, haine religieuse, haine de classe : les créateurs haineux ont été particulièrement mis en avant par la page d'accueil de YouTube, parce qu'ils sont très efficaces pour faire regarder de la pub » expliquait-il alors.
Faux comptes et catégorisation des audiences
Pour enquêter sur le phénomène, les équipes américaines ont constitué un échantillon de 100 000 faux comptes (sockpuppets), qui, combinés, ont visionné plus de 9 milliards de vidéos YouTube tirées de plus de 120 000 chaînes différentes.
Leur but était double. Il s’agissait, d’une part, de tenter d’observer si l’algorithme proposait des vidéos cohérentes avec l’idéologie d’un internaute, et si cette tendance s’accroissait au fil des vidéos. L’autre hypothèse consistait à observer si les recommandations devenaient de plus en plus extrêmes ou si elles venaient de chaînes YouTube catégorisées comme « problématiques ».
[caption id="attachment_120476" align="aligncenter" width="850"] CC 4.0 YouTube, The Great Radicalizer?[/caption]
Pour estimer l’orientation idéologique des vidéos analysées, les scientifiques se sont appuyés sur l’audience de chacune d’elles sur un autre réseau : Twitter (désormais X). Après récupération des tweets mentionnant chaque vidéo, c’est le profil des twittos, selon qu’il soit plus ou moins marqué d’un côté ou de l’autre de l’échiquier, qui a permis de classer les publications sur une échelle à cinq degrés : extrême-gauche, gauche, centre, droite, extrême-droite. L’étude s’appuie aussi sur une liste de 4 150 chaînes qualifiées de « problématiques » par de précédentes études, elle dépend donc de plusieurs facteurs externes, ce qui peut évidemment influencer sur les résultats.
Biais droitier
Résultat des courses, YouTube semble effectivement recommander un nombre croissant de contenus allant dans le sens du parti pris idéologique de l’internaute, mais cela ne signifie pas que celui-ci se retrouve coupé d’autres points de vue.
Au contraire, alors que les comptes utilisés par les chercheurs avaient été entraînés exclusivement sur des vidéos correspondant au bord politique qui leur avait été attribué, le visionnage plus classique leur fournissait d’autres types de contenu, « ce qui peut s’expliquer par le fait que le système ait été construit pour recommander aussi des vidéos à succès et les dernières informations ».
Globalement, l’analyse suggère tout de même « la présence d’un biais de droite dans l’algorithme de YouTube », dans la mesure où les comptes les plus modérés politiquement se voient plus recommander de vidéos qui tendent vers la droite que vers la gauche.
Quoi qu'il en soit, où que soit situé un profil politiquement, la masse dominante des vidéos qui lui seront poussées correspondront à ses idées, « en particulier pour les usagers d’extrême-droite ». Confirmant un récent travail qui montrait que la page d’accueil de YouTube est généralement plus marquée politiquement que les recommandations poussées par la lecture automatique « prochaine vidéo » (up next), l’étude ne constate par ailleurs pas d’augmentation linéaire du nombre de vidéos recommandées cohérentes avec le positionnement politique de l’internaute.
Les comptes fictifs « très à gauche ne rencontrent pas un nombre croissant de vidéos très à gauche lorsqu'elles suivent les recommandations "prochaine vidéo". Néanmoins, pour les comptes fictifs très à droite, leurs chances de rencontrer des recommandations très à droite augmentent de 37 % au fur et à mesure » que ces comptes consomment des vidéos sur YouTube.
« Cette augmentation est loin d'être insignifiante et confirme le constat » d'une plus grande « congénialité », c’est-à-dire d’une plus grande cohérence avec les idées déjà exprimées, « pour ce groupe idéologique ».
Contenus problématiques rapidement recommandés
Sur la question de la radicalisation progressive des contenus, l’équipe note que les vidéos recommandées aux internautes fictifs d’extrême-droite et d’extrême-gauche « deviennent nettement plus extrêmes au fur et à mesure », mais que ces évolutions ne sont pas très importantes tant il faut aller loin pour y être exposé. Et les scientifiques d'estimer qu’« il est peu probable qu'ils aient un impact démocratique ».
Ce qui alerte plus, en revanche, est l’apparition de contenus tirés de chaînes « problématiques » au milieu des feeds, quelle que soit l’obédience politique assignée aux comptes fictifs. Les comptes marqués à droite ou à l’extrême-droite « sont ceux qui risquent le plus de les rencontrer, même si les profils les plus modérés s’y retrouvent aussi de plus en plus confrontés à mesure qu’ils avancent dans les recommandations "prochaine vidéo". »
Dans la plupart des cas, les recommandations de ce type de contenu restent minimes -« jamais plus de 2,5 % des vidéos proposées en moyenne ». Cela dit, « leur apparition dans les fils de recommandation de plus de 32 % des comptes fictifs est problématique ». En effet, note l’équipe, 70 % du contenu consommé sur YouTube l’est à partir des recommandations. Les auteurs de l’étude estiment donc que « ce schéma de recommandation peut activer un cycle de radicalisation ».
S’il est riche en enseignement, un tel travail est à compléter avec d’autres, qui s’appuient sur des historiques de navigations d’internautes réels, indiquent l’équipe autrice de l’étude. En août, justement, Science Advances publiait une étude de ce type, menée par une chercheuse de l’université de New-York sur un échantillon d’un peu plus de mille personnes.
Celle-ci y concluait que les recommandations les plus extrêmes n’étaient pas tant montrées au grand public qu’à celles et ceux qui consommaient déjà ce type de contenu. Et que la plateforme jouait bien un rôle dans l’exposition à des chaînes potentiellement extrémistes.
L’algorithme de YouTube biaisé à droite, mais pas tellement vers l’extrémisme
-
Algorithme tout-puissant ?
-
Faux comptes et catégorisation des audiences
-
Biais droitier
-
Contenus problématiques rapidement recommandés
Commentaires (19)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousModifié le 15/12/2023 à 16h43
Et même sans faire de comparaison avec un pays étranger, quand on parle à un électeur nettement de droite ou de gauche (sans être extrême), ils n'ont pas non plus la même définition de ce qui serait le centre. Par conséquent, quand il est estimé ici que ça penche un peu à droite sur Youtube, c'est quelque peu subjectif et lié à la sensibilité politique des auteurs.
Le 15/12/2023 à 19h37
Le 17/12/2023 à 03h16
Sachant que le centre bouge toujours vers la gauche par définition (ce qui fait qu'en vieillissant on bouge relativement vers la droite...), puisque selon une définition relative (de gauche) du clivage, donc non historique (qui est la définition de droite), la gauche c'est le mouvement politique, vers la recherche d'un progrès, tandis que la droite c'est la résistance à ce mouvement et la tentative de stabiliser et d'enraciner. Donc certains se permettent d'anticiper un mouvement qui n'a pas encore eu lieu.
C'est pourquoi les débats employant ces mots sont creux et sans intérêt si on ne commence pas par les définir.
Le 18/12/2023 à 12h45
De ce que j'observe, c'est l'inverse : on bouge à droite avec l'âge (Donc on a l'impression que le centre bouge à gauche, mais c'est subjectif).
Modifié le 19/12/2023 à 04h03
Non, les choses évoluent politiquement, vers la gauche toute (sauf si l'élastique est tiré trop fort trop vite, il peut casser...), par définition parce que on appelle "gauche" justement le mouvement politique vers la nouveauté, et "droite" la conservation voire le retour en arrière. C'est la définition de gauche du clivage.
Par exemple, l'individualisme, le libéralisme, furent des mouvements politiques, donc de gauche, puis un jour c'est devenu de droite tandis que la gauche est passée à autre chose, la communauté et l'égalitarisme, etc... Et c'est ça qui est énervant selon la définition de droite du clivage (celle qui s'accroche à la mort du roi en 1789), car la droite défend des idées qui ont été à gauche un jour, et donc elle en a marre de se faire insulter pour ça, "si ce sont des mauvaises idées finalement, pourquoi ne pas avoir écouté la droite de l'époque qui vous le disait" ? Mais non, pour la gauche, le mouvement est presque un but en soi, comme si tout mouvement était progrès (spoiler : non, exemple : les innovations de la langue pour exclure les femmes du masculin et les réintégrer à coups de points ou de répétitions lourdes).
Quand je dis "la gauche" ou "la droite", je ne parle évidemment par de partis politiques, mais de concepts. On devrait tous avoir ces deux concepts en affrontement dans nos têtes sujet par sujet plutôt que de se caser d'un côté ou de l'autre.
Le 19/12/2023 à 09h30
T'as eu une promo sur les sophismes pour en sortir autant ?
Le 09/01/2024 à 09h57
Le 19/12/2023 à 15h13
Moi, je le vois dans l'autre sens : quand t'es jeune, t'as pas grand choses (à part des idéaux) rien à perdre, et tu as donc envie de faire bouger les choses, de rendre le monde meilleur, etc.
Quand tu vieillis, tu te poses, trouves un boulot stable, fondes une famille, achètes une maison, fais des enfants, etc. et donc tu as beaucoup moins envie que les choses changent.
Modifié le 20/12/2023 à 13h42
Et ensuite à partir de cette définition, tu peux juger si ceux qui prétendent incarner "la droite" ou "la gauche" en sont réellement, et ce sujet par sujet, selon s'ils se satisfont du statu quo (ou craignent la nouvelle idée) ou pas. Si "la gauche" veut conserver, elle est de droite, si "la droite" accepte une nouveauté, elle est de gauche, c'est pour ça que ces expressions sont trompeuses.
L'individualisme (droits de l'Homme, 1 Homme 1 voix...) est toujours un progrès souhaité pour bon nombre de sociétés claniques et tribales, et le libéralisme a été un progrès aussi. C'est pas du sophisme, c'est de l'histoire, peut-être que je n'emploie pas le bon mot, n'empêche que notre monde actuel est l'héritage des innovations politiques, donc des anciennes gauches, tout en ayant conservé pas mal de choses aussi. Aucun jugement de valeur généralisé.
Ensuite toi tu réponds à une autre question sur son placement individuel par rapport au clivage, et oui en effet y'a de ça aussi. Ce qui joue énormément je pense, c'est le souvenir d'une enfance heureuse ou pas, pour l'effet "c'était mieux avant". Il y a eu des époques pas si lointaines où, les années passant, tout allait de mieux en mieux, donc la nouveauté faisait rêver toute la vie. Aujourd'hui ce n'est plus le cas, globalement on est de plus en plus nombreux à voir le prix de ce rêve et on sent la chute, les années passant...
C'est beaucoup plus complexe en réalité, et on n'évolue pas pareil sur les questions par exemple économiques (plus influencées par le statut social que par l'âge je dirais) ou sur les questions sociétales (là par contre...), liées de force sans raison, c'est d'ailleurs ça qu'on est beaucoup à souhaiter de délier.
Le 15/12/2023 à 16h47
En résumé, pour la partie qui rejoint le présent article, Internet serait plutôt à droite.
"Les conservateurs s’y imposent, non seulement par leurs revenus et capacités, par leur organisation hiérarchique, ainsi que par leur message… et le fait que celui-ci soit plus simple, d’une certaine manière plus partageable"
Le 15/12/2023 à 16h58
J'avoue aussi que je n'ai que parcouru l'article très vite, et que je ne sais pas exactement pourquoi certain commentaires parlent de centre. Je tiens quand même à préciser que le centre, en France, ne sent pas très bon non plus. Vous voulez qu'on reparle du "barrage" ?
Le 15/12/2023 à 22h10
Le 16/12/2023 à 01h38
Le 15/12/2023 à 18h15
Le 16/12/2023 à 19h49
Perso quand je vais sur YT c'est pour regarder mes abonnements en priorité (et j'ai déjà fort à faire pour tout voir... du coup, j'ai pris l’habitude de regarder en accéléré )
Le 15/12/2023 à 20h46
Le 18/12/2023 à 09h25
L'article explique en détail le protocole mis en place par les chercheurs (avec ses atouts et ses limites) pour faire leur constat.
Mais ça n'explique pas cette asymétrie.
Quand j'étais étudiant, je me souviens avoir assisté à une conférence sur la politique sur Internet.
C'était tenu par un chercheur qui voulait montrer une application de la théorie des graphes.
Pour reposer le contexte, en 2006, c'était l'époque c'était Ségo contre Nico, je ne suis pas sur que Facebook était ne serait-ce un projet étudiant et l'essentiel du militantisme se passait sur les blogs.
La théorie du conférencier, crawlers à l'appui, c'était que la droite avait un développement vertical (peu de sites mais puissants : rapport liens entrants/liens sortant élevé), la gauche avait un développement horizontal (beaucoup de petits blogs avec des rapports liens entrants/liens sortants faibles).
Bilan dans Google, la 1ère page sur les sujets sensibles du moment donnait un souvent seul site de droite plutôt bien placé, et 9 sites de gauche.
L'exposé était à la limite de ce que l'on appellerait aujourd’hui le SEO. Mais on comprenait le pourquoi de ce comportement.
Ici, ça s'arrête à "c'est la faute à l'algo foireux" :(
Le 18/12/2023 à 10h56
"Auditing and Mitigating Ideological Biases in YouTube Recommendations"
Personnellement, j'ai du mal à comprendre le protocole des data scientists pour déterminer la place de chaque vidéo dans le spectre politique. La somme des occurrences ferait un positionnement politique ?
Le 18/12/2023 à 12h31
Si tu regardes du contenu à gauche, l'algo va te proposer "ce que tu aimes" et de conforter dans tes idées pour aller vers l'extrême gauche. Si tu penches à droite l'algo va te faire glisser à l'extrême droite.
A voir sur les contenus apolitiques mais comme le but est de coller une étiquette sur tout et n'importe quoi, même dora et les bisounours doivent être étiquetés à gauche ou à droite par l'algo.