Facebook en pleine polémique suite à son expérience sur 689 000 personnes
1984 style
Le 01 juillet 2014 à 08h15
6 min
Internet
Internet
Une étude révélée récemment fait polémique. Organisée dans le dos de 689 003 membres de Facebook il y a deux ans et demi, l'étude a consisté en une modification de l'affichage prioritaire des statuts dans le flux des utilisateurs. Certains ont ainsi affiché plus de publications positives, et d'autres plus de statuts négatifs. Et selon les chercheurs, cela a bien influé (légèrement) sur leur comportement. La manipulation n'est toutefois pas du goût de tout le monde, notamment outre-Atlantique.
« Les émotions exprimées par d'autres sur Facebook influencent nos propres émotions »
Sur Facebook, il est possible d'afficher sur son flux les statuts de ses amis de deux façons différentes : soit chronologiquement (du plus récent au plus ancien) soit d'une façon un peu plus aléatoire, certains statuts plus anciens de quelques heures pouvant s'afficher avant d'autres pourtant plus récents. Dans ce dernier cas, le réseau social réalise un tri en fonction de diverses priorités, basées sur les préférences et les habitudes de l'utilisateur.
Ce flux, pour des questions d'expérience, a donc été manipulé par Facebook pour 689 003 personnes au début de l'année 2012. L'objectif était de démontrer que « les états émotionnels peuvent être transférés à d'autres personnes par une contagion émotionnelle, conduisant les gens à éprouver les mêmes émotions sans en avoir conscience ». En somme, si l'on fait face à des statuts globalement positifs, nous aurons plus de chance de publier nous-mêmes des contenus joyeux. A contrario, une personne face à des statuts négatifs suivra le même chemin et sera donc encline à publier des messages loin d'être positifs.
Plus précisément, l'expérience a voulu exclure les interactions et vérifier si le transfert d'émotion était possible uniquement via l'affichage du contenu. Pour Adam D. I. Kramer (de Facebook), Jamie E. Guillory de l'Université de Californie et Jeffrey T. Hancock de l'Université de Cornell, ces résultats prouvent que « les émotions exprimées par d'autres sur Facebook influencent nos propres émotions, constituant la preuve expérimentale de contagion via les réseaux sociaux ».
Pas besoin d'interaction pour avoir une influence
Pour les trois auteurs de l'étude, les résultats permettent aussi une deuxième conclusion : « Ce travail suggère également que, contrairement aux hypothèses actuelles, l'interaction en personne et des indices non verbaux ne sont pas strictement nécessaires à la contagion émotionnelle, et que l'observation des expériences positives des autres constitue une expérience positive pour les gens. »
Concernant la manipulation du flux des centaines de milliers de « cobayes » sur Facebook, l'étude indique que des contenus (positifs ou négatifs, selon les cas) ont été omis sciemment dans l'affichage principal. Néanmoins, ledit contenu n'a pas été supprimé pour autant tient-on à rassurer. Non seulement il était possible de le visionner en regardant les comptes personnels des amis, mais il s'affichait aussi dans le flux, plus bas. Qui plus est, « l'expérience n'a pas eu d'incidence sur les messages directs envoyés d'un utilisateur à un autre » tient absolument à faire remarquer l'étude.
Le tri a pour sa part été réalisé automatiquement en fonction des mots utilisés dans les statuts. Ces derniers n'ont donc pas été lus par les chercheurs. Au regard de la quantité de personnes prises comme « cobayes », seule une automatisation de l'expérience était de toute façon possible. Pour des questions pratiques et techniques, seules des individus anglophones ont par contre été concernés par les modifications de leurs fluxs, vous n'avez donc pas été touchés. Il est enfin précisé que les modifications n'ont eu lieu que pendant une semaine (entre le 11 et le 18 janvier 2012) et les personnes visées ont été choisies au hasard, ceci en fonction de leur ID. Au total, plus de 3 millions de messages ont été analysés, comprenant plus de 120 millions de mots. Mais seulement 4 millions étaient positifs et 1,8 million négatifs.
Vive polémique outre-Atlantique
Si l'expérience est ancienne, la publication de ses conclusions est néanmoins récente, d'où les réactions tardives de la presse sur le sujet. De l'autre côté de l'Atlantique, principal lieu où étaient situés les cobayes, l'étude fait néanmoins polémique. Slate estime ainsi qu'il s'agit d'une expérience immorale. Le site américain se plaint qu'il n'y ait pas eu de consentement réel de la part des utilisateurs de Facebook, les chercheurs se contentant de déclarer qu'ils ont respecté la politique d'utilisation des données du réseau social. Politique acceptée par les membres de Facebook lors de leur inscription.
Slate note de plus que la méthodologie opérée « soulève de graves questions éthiques ». Même son de cloche du côté de Business Week (Bloomberg), qui estime que tous les réseaux sociaux sont concernés et que nous ne sommes au courant que du fait de la publication des conclusions de l'étude. Mais qui ne nous dit pas que de telles expériences internes n'ont pas été réalisées dans notre dos, sans que nous n'en sachions rien, soit par Facebook à d'autres moments, soit par d'autres réseaux équivalents ?
On peut de plus se demander si de telles manipulations ne pourraient pas être appliquées pour des contenus bien plus importants, politiques ou économiques par exemple. La question mérite d'être posée et laisser un réseau trier de soi-disant « meilleurs statuts » à notre place est certainement la problématique principale ici. Today a d'ailleurs interrogé ses lecteurs sur la possibilité de la part de Facebook de contrôler le flux principal. Les réponses à l'heure où nous rédigeons ces lignes sont sans équivoques : sur plus de 87 000 réponses, 90 % étaient contre, 10 % pour. Mais tous les utilisateurs de Facebook ont-ils déjà conscience de tout ceci ?
Sur sa page Facebook, Adam D.I. Kramer, l'un des auteurs de l'étude, a tenu à s'expliquer suite à la montée de la polémique. Il a notamment fait valoir que le but des recherches était uniquement d'offrir un meilleur service. Mais il s'est surtout excusé non pas d'avoir réalisé cette étude, mais des conséquences médiatiques actuelles : « Après avoir rédigé et mené cette expérience moi-même, je peux vous dire que notre objectif n'était en aucun cas de déranger qui que ce soit. Je peux comprendre pourquoi certaines personnes ont des préoccupations à ce sujet, et les co-auteurs et moi-même sommes vraiment désolés pour la façon dont le papier a décrit la recherche et l'anxiété causée. Avec le recul, les avantages de la recherche du document ne peuvent pas justifier toute cette angoisse. »
Facebook en pleine polémique suite à son expérience sur 689 000 personnes
-
« Les émotions exprimées par d'autres sur Facebook influencent nos propres émotions »
-
Pas besoin d'interaction pour avoir une influence
-
Vive polémique outre-Atlantique
Commentaires (66)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 01/07/2014 à 08h25
Le 01/07/2014 à 08h26
A leurs habitudes, les américains dramatisent et réagissent de façon impulsive.
On est loin d’un Prism, ici il n’y a rien d’invasif, juste un test qui, au pire, changeait un newsfeed, le truc le plus insignifiant par rapport à des données personnelles.
Le 01/07/2014 à 08h26
Combien parmi les indignés jurent par ailleurs qu’ils ne sont pas influencés par la pub ? " />
On pourrait penser que ceux qui s’inscrivent sur Facebook méritent qu’on les manipule.
Le 01/07/2014 à 08h30
Adieu Facebook !
" />
Erf, c’est vrai, je n’ai plus de compte depuis des années…
" />
Le 01/07/2014 à 08h31
Autant je n’aime pas facebook et je n’y suis pas, autant, je ne comprend pas la polémique.
Il est logique et normal que Facebook fasse des tests de pertinence dans les infos qui sont affichées. A vrai dire, tout les sites font ce genre de tests. !?
La seule chose qui puisse leur être reprochée c’est que c’était à l’insu de l’utilisateur.
Mais encore une fois, les gens ont approuvé les conditions d’utilisation…
Là, facebook fait des tests sur les status, mais lorsqu’ils font des tests avec la publicité (qui est ciblée rappelons-le), je suis certain qu’ils doivent aussi observer des tendances, et ça c’est accepté." />
Le 01/07/2014 à 08h31
Une étude révélée récemment fait polémique. Organisée dans le dos de 689 003 membres de Facebook il y a deux ans et demi
plus précisément dans le bas du dos " />
Le 01/07/2014 à 08h32
C’est clair que la polémique, je me demande aussi pourquoi ils en font une…
Rien de bien choquant là-dedans. " />
Le 01/07/2014 à 08h36
Le 01/07/2014 à 08h36
Ce genre de “test” est monnaie courante pour la publicité, et je doute que l’on prenne le temps “d’informer” l’utilisateur avant.
" />
Le 01/07/2014 à 08h36
Le 01/07/2014 à 08h37
Le 01/07/2014 à 08h38
J’ai un compte Facebook, fouetter moi !
" />
Le 01/07/2014 à 08h40
Comme d’autres avant, ça ne me semble pas si dramatique pour le coup. J’imagine que plein d’autres boites ne se gênent pas pour faire des tests grandeur nature de ce genre en toute opacité, que ce soit pour la publicité ou simplement pour améliorer des algorithmes, etc.
Et puis Facebook c’est typiquement le site où on est déjà un rat de laboratoire à partir du moment où on s’inscrit dessus, puisque le modèle commercial implique que tout soit analysé pour personnaliser les publicités.
Tant que c’est bien sale et bien opaque tout le monde s’en fout, mais dès que c’est une étude plus sociologique et avouée alors là levée de boucliers !
Ok, paye ta logique… " />
Le 01/07/2014 à 08h40
bah oui, tout va bien dans le meilleur des mondes !
Peut être que quand quelqu’un divulguera un programme de recherche équivalent pour l’armée américaine qui lui permet d’influencer directement les utilisateurs de FB ce sera plus grave ?
Je sais pas, par exemple, pouvoir insérer des infos sur les réseaux sociaux pour participer à l’engouement général en vue de l’invasion d’un pays lointain, refuge de méchants terroristes et d’armes de destruction massives…
si ça se trouve FB vend cher ce genre de manipulations aux grosses sociétés en pipeautant les réactions, les tweets, les publications pour les mettre en avant de manière positive et discrète ?
tout est possible ma bonne dame !
Le 01/07/2014 à 08h43
Le 01/07/2014 à 08h48
Le 01/07/2014 à 08h50
Le 01/07/2014 à 08h54
Le 01/07/2014 à 08h55
Le 01/07/2014 à 08h56
Le 01/07/2014 à 09h05
Le 01/07/2014 à 09h08
Et si il y avait un ou des morts ?
On verse des millions à la famille, une paille ! C’était peut-être déjà provisionné " />
Le 01/07/2014 à 09h10
Le 01/07/2014 à 09h11
Le 01/07/2014 à 09h19
Le 01/07/2014 à 09h19
Le 01/07/2014 à 09h20
Question à la con : Comment détectent ils qu’un statut est positif ou négatif ?
Ils ont un algo ?
Ca doit être galère vu que pas mal doivent parler en “internet slang”, et que de façon générale personne ne s’exprime de la même manière
Du coup si on suppose que cet algo fonctionne assez bien, cela veut-dire que FB peut facilement détecter quelqu’un qui déprime où est de bonne humeur ?
Ca commence à faire pas mal d’info sur notre comportement " />
Le 01/07/2014 à 09h22
Mais vous découvrez le fonctionnement de FB ou quoi ? " />
Le 01/07/2014 à 09h30
Le 01/07/2014 à 09h32
attention, révélation de ouphe :
La rédaction d’un article, son titre, influencent le comportement du lecteur.
Salauds de manipulateurs !!!!! " />" />" />" />" />" />" />
" />
sans dec, on serait influencé par ce qu’on nous met devant les yeux ?
Le 01/07/2014 à 09h34
il ne manquerait plus que Facebook mette en avant la pub en analysant les profils et comportement des utilisateurs…
ah, on me dit à l’oreillette que….
" />
Le 01/07/2014 à 09h35
Le 01/07/2014 à 09h49
Le 01/07/2014 à 09h54
Alors comme ça les chercheurs réinventent le fil à couper le beurre et les médias se la jouent faussement oie blanche.
L’évidence est déjà connu que les médias modidient nos comportements. Je n’y vois rien de nouveau. Le conditionnement pour faire accepter les américains d’aller en Irak par exemple. Les conditionnements qui ont fait voter 25% au fn par la peur au quotidien mise en avant par les médias.
Bref. Rien de nouveau sous le soleil.
Le 01/07/2014 à 09h56
Le 01/07/2014 à 09h56
Et j’oubliais effectivement la pub qui nous conditionne aussi. Et le conditionnement familiale, etc…
libre arbitre? Hehehe.
Le 01/07/2014 à 10h01
Le 01/07/2014 à 10h07
oups à effacer.
Le 01/07/2014 à 10h16
Je pensais que c’était un bug d’affichage… " />
Le 01/07/2014 à 10h16
bah en lisant en diagonale, l’étude porte surtout sur les mécanisme de l’empathie (ou de la sympathie pour être plus juste)
FB sert juste d’échantillon et de zone de test.
Ne pas prévenir les utilisateurs est pertinent scientifiquement (pour ne pas influencer leur comportement) mais discutable éthiquement.
(Que les résultat de l’étude soient utilisés pour la pub, pourquoi pas - probablement même - mais ce n’est pas le sujet de l’étude elle-même)
Le 01/07/2014 à 10h19
C’est toujours intéressant de connaître la nature et le comportement humain, perso ça ne me choque aucunement.
Le 01/07/2014 à 10h47
Le 01/07/2014 à 10h51
Le 01/07/2014 à 11h04
Le 01/07/2014 à 11h16
Plusieurs points méritent tout de même réflexion et pas de simplement se cantonner à “oui ben ce sont des idiots sur FB, ils l’ont bien cherché!”.
Bref… ils ont franchi la ligne jaune… rien de mal au niveau règlement mais éthiquement discutable!
Au final, une tempête dans un verre d’eau! " />
Le 01/07/2014 à 11h19
Le 01/07/2014 à 11h23
Le 01/07/2014 à 12h27
Pour qui conque s’y connait en statistique cette étude n’est qu’une grosse farce.
Les différentes tailles de l’effet de leur expérience sont de 0.001, 0.008 et 0.02.
Dites-vous qu’une différence de 0.2 est considérée comme faible selon Cohen, alors 0.001 devrait être considéré comme infiniment faible (bien que dans d’autres domaines comme la médecine, selon les implications une taille de l’effet plus faible pourrait montrer des résultats cliniquement significatifs et utiles).
L’interprétation qu’ils font de cette faible taille de l’effet est elle aussi ridicule et ne rejoint pas réellement les propos des auteurs qu’ils citent. Il est donc faux de dire que l’émotion sur Facebook influence les émotions des autres selon les données présentées. Je ne dis pas que cet effet n’existe pas, simplement que les résultats ne permettent pas d’entrevoir cette conclusion.
Bref encore une autre preuve de l’échec de bons nombres de chercheurs en science sociale à comprendre que la puissance d’un test p statistique n’implique aucunement que celui-ci a une portée théorique utile.
" />
Le 01/07/2014 à 12h51
Le 01/07/2014 à 12h53
Le 01/07/2014 à 13h00
Le 01/07/2014 à 13h07
Le 01/07/2014 à 13h28
Le 01/07/2014 à 13h31
Le 01/07/2014 à 13h46
Le 01/07/2014 à 14h26
dites donc, ceux qui prennent de haut cette news en disant que FB réinvente la propagande, je pense que vous ne saisissez pas le concept de FB.
FB n’est pas un site d’actualité ou un journal papier ou même le JT d’une chaine télé.
Il ne s’agit aucunement de propagande au sens de fourniture d’informations filtrées, censurées, manipulées ou fabriquées dans le but de contrôler l’information et manipuler les foules.
Il s’agit de manipuler les publications et informations fournies par les amis des utilisateurs (tri, omission…) dans le but d’exercer une influence sur l’état d’esprit de l’utilisateur !
c’est beaucoup plus subtil ! l’internaute fait confiance à ses amis, sa famille et pense que tout ce que FB lui présente est neutre et fiable
Or, ce n’est pas le cas puisque FB a la possibilité de présenter les infos d’une façon adaptée à sa propre stratégie : influence, manipulation, état d’esprit… où est la limite ???????
Bon, ici on parle de FB mais Google fait la même chose, surement en pire.
Le 01/07/2014 à 14h32
Le 01/07/2014 à 14h52
Le 01/07/2014 à 15h00
Le 01/07/2014 à 15h06
Le 02/07/2014 à 08h38
Le 02/07/2014 à 08h43
Le 02/07/2014 à 12h49
Le 02/07/2014 à 14h23
Le 01/07/2014 à 08h21
Fallait lire les petites lignes… " />
Le 01/07/2014 à 08h23