Utilisé par YouTube contre les complots, Wikipédia veut plus de contrôle sur ses reprises
[Réf. nécessaire]
Le 16 mars 2018 à 15h50
7 min
Internet
Internet
Pour lutter contre les vidéos complotistes, YouTube affichera bientôt des extraits de Wikipédia associées à certains sujets. Pour Christophe Henner de Wikimedia, l'encyclopédie doit devenir une plateforme au contenu exportable, mieux financée par les services qui l'utilisent, alors que les géants du Net prennent conscience de leur rôle social.
Le 13 mars, lors d'un entretien au festival SXSW d'Austin, Susan Wojcicki a annoncé l'intégration d'extraits de Wikipédia sous certaines vidéos conspirationnistes sur YouTube. La directrice générale de la plateforme vidéo promet cet ajout dans les semaines à venir. Les sujets concernés sont tirés d'une liste préétablie, que YouTube recoupe avec ceux les plus traités par les vidéastes. Parmi eux, les premiers pas de l'Homme sur la lune ou les chemtrails.
Dans un communiqué, la fondation Wikimedia déclare ne pas avoir été prévenue de ce choix. Elle estime que Wikipédia est « une part essentielle de l'infrastructure d'Internet » qu'il s'agit aussi de financer à hauteur de son utilisation. S'adresse-t-elle à Google ?
« Il est plutôt dans les bons élèves de la classe. Entre le Summer of Code, les hackatons, les événements techniques qu'ils financent, en plus de bourses... Google contribue déjà en partie à l'écosystème Wikipédia » nous répond Christophe Henner, le président de la fondation. Avec lui, nous revenons sur cette annonce et le contrôle que Wikipédia peut exercer sur ces réutilisations de son contenu.
Wikipédia : passer d'un site à une plateforme
Selon le président de la fondation, il n'est jamais agréable d'apprendre une telle opération par voie de presse, surtout que Wikimedia collabore bien avec Google d'habitude. Ils ont pris contact à ce sujet depuis, d'abord pour comprendre pourquoi l'organisation n'a pas été associée. Ce n'est pourtant pas une surprise : selon Christophe Henner, Wikimedia est rarement prévenu de l'intégration de Wikipédia dans un produit commercial... et l'encyclopédie rarement rétribuée.
« On a mentionné le financement dans le communiqué parce qu'on veut rendre les données de Wikipédia utilisables par tous. Elles sont utilisées en dehors, par Alexa et Siri par exemple, qui reposent beaucoup sur notre infrastructure, sans contribuer comme Google à ce bien commun » regrette Henner. Il demande au moins une mention de l'encyclopédie et de la possibilité de contribuer, après les réponses de ces assistants vocaux.
Wikipédia n'a donc pas d'opposition de principe à ces intégrations. « En tant que tel, ça ne nous gêne pas plus que ça. Dans notre stratégie, on veut faire évoluer Wikipédia sur du "knowledge as a service", soit devenir une plateforme. C'est ce que nous initions avec Wikidata et d'autres projets, pour une plus grande réutilisation des contenus de Wikipédia » note le responsable.
Cette vision ne serait poussée que depuis trois à quatre mois. Ce serait le moyen de cadrer ces reprises de contenus, pour que l'encyclopédie en profite plus directement. Vis-à-vis de YouTube, Wikipédia n'a aucun contrôle : ni sur le champ des vidéos concernées par l'opération, ni sur l'authenticité de la reprise. « Le Knowledge Graph [de Google] a déjà repris un contenu pendant qu'une erreur était en ligne. Elle a été corrigée dans les cinq minutes sur Wikipédia, mais est restée en ligne dans le Knowledge Graph » note par exemple notre interlocuteur, qui juge ces cas anecdotiques.
Entre liberté d'expression et contrôle des contenus
En utilisant une liste de complots et les données de Wikipédia, YouTube tente de maintenir une apparence de neutralité. Comme Facebook, la société assure ne pas vouloir devenir une arbitre de la vérité. Quand Facebook choisit des médias partenaires (rémunérés) pour vérifier les informations, la plateforme vidéo a préféré une encyclopédie libre.
Au fond, l'encyclopédie ne sert-elle pas d'alibi à une plateforme privée ? « Il faut remettre l'annonce dans le contexte américain. Le Premier Amendement de leur constitution garantit la liberté d'expression. Légalement, rien n'empêche personne de faire de la "fake news", de la théorie du complot... contrairement à la France où la liberté d'expression est encadrée » explique Christophe Henner. YouTube est donc tenu de respecter ce droit.
Pour le président de Wikimedia, Wikipédia est sûrement le plus ancien organe de fact-checking du Net. « Même si c'est collaboratif, avec des erreurs, c'est la plus grande base de données d'informations recoupées en ligne » remarque-t-il. Dans le cadre américain, renvoyer vers Wikipédia est donc une solution acceptable. D'autant que l'approche encyclopédique faciliterait les changements d'opinions sur un sujet. « On ne donne pas de la vérité mais de l'information aux gens. »
L'action de YouTube, après plus d'un an de pression publique sur la désinformation en ligne, est tout de même une action à portée politique. « Les acteurs technologiques s'interrogent sur leur responsabilité. Ce sont des entreprises jeunes, sur une plateforme technologique pas si vieille. Que ce soit nous ou Facebook, avoir des centaines de millions de personnes regroupées à un endroit pose des questions nouvelles » pense encore Henner. Wikipédia a pris tôt le parti de l'inclusion et de la possibilité pour chaque internaute de participer, dans un cadre défini. « C'est facile pour une ONG, mais plus compliqué et disruptif pour une entreprise. »
Hébergeur un jour, hébergeur toujours ?
Comme toute grande plateforme, YouTube tient plus que tout à son statut d'hébergeur, qui lui évite tout contrôle et blocage des contenus en amont. La société, que ce soit en France ou outre-Atlantique, n'est tenue que de répondre rapidement aux signalements d'internautes ou d'acteurs tiers, comme les ayants droit.
Or, le tri et la mise en avant de contenu, c'est-à-dire l'éditorialisation, peuvent en théorie le faire basculer dans la catégorie des éditeurs. Là, la plateforme vidéo devrait mener un contrôle strict des très nombreux contenus qui s'empilent chaque jour sur ses serveurs. Aujourd'hui, YouTube s'autorise « seulement » à ne pas recommander ou démonétiser des contenus qui enfreignent ses règles, voire à rompre ses contrats avec des auteurs de contenus polémiques (comme PewDiePie ou Logan Paul).
En parallèle, la société est critiquée sur ses recommandations, qui privilégient les contenus similaires. Une vidéo complotiste mènerait ainsi facilement à une autre, et ainsi de suite. À SXSW, Susan Wojcicki a reconnu une « opportunité » d'amélioration sur la question, pour appuyer plus fortement la diversité des vidéos suggérées, un critère déjà pris en compte. Selon elle, la question serait particulièrement sensible sur les sujets politiques et d'actualité.
Au fond, est-ce aux plateformes de lutter contre certains comportements en ligne ? Pour Christophe Henner, au-delà de l'enjeu philosophique, c'est une question pragmatique. « En tant qu'organisation privée, nous pensons avoir cette responsabilité. Si on attendait cette démarche d'États, ce ne serait pas à un seul État de l'avoir mais plus de 200. C'est un choix politique, dans le sens "Vie de la cité" » argue-t-il.
« Wikimedia a un énorme projet sur les comportements toxiques. Jusqu'ici, on se sentait un peu seuls. Quand Twitter annonce qu'il compte parier plus fortement sur l'identification et une démarche plus volontariste, cela montre que le combat avance ».
Utilisé par YouTube contre les complots, Wikipédia veut plus de contrôle sur ses reprises
-
Wikipédia : passer d'un site à une plateforme
-
Entre liberté d'expression et contrôle des contenus
-
Hébergeur un jour, hébergeur toujours ?
Commentaires (34)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 16/03/2018 à 16h03
Et si les articles wikipedia sont complotistes, on pourra avoir les vidéos YT plus nuancées ? " />
Le 16/03/2018 à 16h09
[Réf. nécessaire]
Bon sang, ça m’a tué " />
Le 16/03/2018 à 16h26
{{refnec}} aurait été un meilleur clin d’oeil :p
Le 16/03/2018 à 16h30
Le 16/03/2018 à 16h50
Même pour moi " />
Le 16/03/2018 à 16h57
Si Wikipédia arrive à faire changer d’avis certains complotistes, tant mieux, mais ça ne me paraît pas gagné. " />
Le 16/03/2018 à 17h16
Pour ceux qui ne connaissent pas, il y a une chaîne YouTube au titre marrant, le “Defakator”, au slogan “on défèque sur les fakes”, qui s’attaque aux vidéos moisies sur Youtube, du genre “la terre ne tourne pas”, “L’ISS n’est pas en orbite”, “l’énergie libre” ou les mouvements perpétuels et autres fadaises.
Les vidéos sont plutôt longues, et faites attention au son au début, baissez-le sinon vous allez sursauter :-) .
Le 16/03/2018 à 17h23
Le 16/03/2018 à 17h50
Le 16/03/2018 à 17h53
Le problème à mon avis est que ça risque de motiver encore plus les imbéciles de tous poils pour vandaliser Wikipédia.
Le 16/03/2018 à 18h32
Le 19/03/2018 à 16h47
Le 19/03/2018 à 20h19
Le 19/03/2018 à 22h25
Le 20/03/2018 à 11h17
Difficile à dire, je ne sais pas quelle usage tu en fait mais je le trouve plutôt bien abouti l’éditeur visuel, et puis c’est un bon moyen pour intégrer les nouveaux contributeurs, pasque bon, le code wiki est pas trop dur mais quand même… un WYSIWYG c’est quand même plus intuitif.
Le 20/03/2018 à 11h24
Le budget de Wikipédia, c’est celui de son hébergeur, la Wikimedia Foundation (WMF).
Wikimédia France (WMFr) ce n’est pas la même chose, c’est un chapitre local (en France, asso loi 1901) pour permettre des partenariats. Du coup c’est quoi le rapport ? Quand tu donne des sous en octobre via le bandeau, tu donnes a la WMF (au USA), qui ensuite redistribue selon les demandes de budgets des chapitres, leurs frais de fonctionnement interne, ceux des serveurs, du dev sur le logiciel mediawiki, etc.
Le 20/03/2018 à 11h26
Le 20/03/2018 à 11h32
Hé oui, la cible c’est tout le monde… Tout le monde peux éditer Wikipédia " />
Le 16/03/2018 à 18h52
Le 16/03/2018 à 19h13
Meme si l’encyclopédie en ligne est libre, Google pourrait ad-minima financer Wikipedia qui peine a boucler ses budgets annuels.
Le 16/03/2018 à 22h25
Le 16/03/2018 à 22h30
Le 17/03/2018 à 00h08
Le 17/03/2018 à 08h15
Le 17/03/2018 à 08h49
Blagues mises à part c’est quand-même un sujet très délicat.
La seule arme contre la désinformation et les théories fumeuses, c’est l’éducation.
Mais on ne peut pas éduquer quelqu’un de force. Et si on insiste, ou si l’on supprime/modifie un article ou commentaire, forcément ça passe pour une censure, un complot ourdi par des puissances supérieures (dans la logique de ces gens-là, ça se tient et ça se comprend).
On a été les champions de l’éducation ouverte à tous. Mais est-ce que tout le monde est prêt à la recevoir ? Est-ce que ça n’a pas créé cet effet pervers dans la tête des plus faibles : “si tout le monde, même dans les écoles, a la même version, c’est sûr c’est louche” ?
Finalement cette population à peut-être moins de problème avec des explications du type “c’est comme ça parce que Dieu l’a voulu” qu’avec différents faits impliquant des sciences ou de la géopolitique complexe, et qui demandent réflexion et ouverture d’esprit.
Et cette merveilleuse invention qu’est le web, qui aurait pu permettre au plus grand monde de s’instruire, créé finalement l’effet inverse : un regret de ce qui allait presque de soit, le tout amplifié par de nouveaux algos qui nous emprisonne dans nos bulles en ne proposant que des informations similaires, qui vont dans notre sens. Et sans esprit critique et sans curiosité, on en arrivé là.
Le 17/03/2018 à 08h56
*je voulais écrire “rejet” et non “regret” mais je ne peux plus éditer. Idem pour quelques fautes.
Correcteur automatique du téléphone 😉
Le 17/03/2018 à 09h24
Le 17/03/2018 à 11h11
Et tout le monde sait que le premier homme sur la lune, c’était Jacques Brel.
Nan, c’est Georges Méliès en 1902.
Le 17/03/2018 à 14h02
La chine pour limiter les risques de révolte a développé :
-la censure des sites web et des réseaux sociaux ou elle ne peut avoir le contrôle;
-Une legion d’homme qui discrédite tout commentaire en opposition au parti en place, ces gens commentent tout les commentaires a l’encontre du parti soit par des arguments a opposé soit en se foutant de leurs gueules.
Au final cette méthode permet de minimiser toute idée de revolution car les gens ont l’impression d’être minoritaire…
J’ai regardé l’emission de mediapart sur le journalisme… et c’est très instructif sur le fond du débat…
Les fake news ont toujours existaient et existeront toujours.
Le 18/03/2018 à 08h42
le problème des fake news est une manipulation. les personnes qui ont lancé ça sont des politiciens… Ils veulent faire amener les gens à penser qu’une nouvelle est soit vrais ou fausse.
Une fois cette idée implanté, on peut ensuite contrôler les informations… Celles qui nous arrangent sont vrais et les autres fausses. (donc on s’arroge le droit d’établir ce qu’est la vérité, c’est une forme de pouvoir)
Mais en réalité, toutes les informations sont fausses, à un degrés ou un autre… dans une démocratie, c’est l’éducation qui doit permettre aux citoyens d’éviter ce genre de manipulation et faire un choix éclairé.
Le 18/03/2018 à 16h52
Toute façon on ne vit même pas dans un Univers “réel”.
" />
Le 19/03/2018 à 10h38
{{refnec}} c’est le code wiki que tu insères pour justement afficher la note [Réf. nécessaire] dans un article de Wikipédia, indiquant que l’information n’est pas sourcée. Cela implique que tu ai déjà édité une page, et ce en wikicode… (aujourd’hui il y a l’éditeur visuel, merci bien)
Le 19/03/2018 à 11h15
Moi c’est le terme complot qui me dérange, une théorie est une théorie point.
Aujourd’hui, est devenue théorie du complot toutes les théories non officielles.
J’ai vu des commentaires parler de moutons, pour le coup ça marche dans les 2 sens.
Je suis tout à fait d’accord sur l’éducation, c’est avec un minimum d’esprit critique que l’on peut faire la part des choses, certainement pas en regardant youtube et ses algorithmes qui enferment les gens dans une bulle …
Le 19/03/2018 à 13h51