Une plainte déposée contre TikTok pour provocation au suicide

Une plainte déposée contre TikTok pour provocation au suicide

Une plainte déposée contre TikTok pour provocation au suicide

C’est une première en France : deux ans après le suicide d’une adolescente de 15 ans, ses parents ont décidé de porter plainte contre TikTok pour « provocation au suicide », selon les informations de franceinfo.

La plainte accuse aussi la plateforme de « non-assistance à personne en péril » et « propagande ou publicité des moyens de se donner la mort ».

À l’automne 2021, la jeune fille avait publié une vidéo dans laquelle elle évoquait son mal-être et la difficulté d’être constamment harcelée sur son poids. En réaction, l’algorithme de la plateforme lui avait présenté des vidéos sur le même thème.

L’avocate des parents dénonce précisément un « algorithme extrêmement puissant ». Les vidéos ainsi diffusées « ne peuvent que conduire à être encore plus mal », selon la mère de la victime.

En 2021, une enquête du Wall Street Journal démontrait la propension de TikTok à enfermer certains de ses utilisateurs dans des bulles de contenus toujours plus sombres ou radicaux. En 2023, le même média détaillait comment le réseau fournissait à des utilisateurs mineurs des boucles de contenus liés aux troubles de l’alimentation, à de l’automutilation, voire au suicide. 


Une plainte similaire a été déposée au Royaume-Uni en 2022, où la justice a donné raison aux parents.
La Commission sénatoriale menace TikTok de suspension

Commentaires (32)


C’est moche, ezt c’est un vrai sujet.
Espérons que la plainte sera instruite, et le sera vite. Les conclusions seront intéressantes.


Cet appli est un cancer, à chaque fois tu te dis qu’on peut pas faire pire en terme de conception, et il y en a qui arrivent à aller toujours plus loin


Tiktok est une arme du parti communiste chinois contre l’Occident.


Commencer par interdire les réseaux sociaux au moins de 15 ans serait déjà une grande avancée…



Zeratool a dit:


Commencer par interdire les réseaux sociaux au moins de 15 ans serait déjà une grande avancée…




Une interdiction sélective serait inapplicable en pratique.


Il faudrait que le gouvernement mette en place une API d’authentification basée sur la CNI pour la création du compte et que les sites soit forcés d’utiliser cette API pour déterminer l’âge de la personne.
On peut imaginer un système où les réseaux sociaux n’auraient de leur côté qu’un token, et que l’API seule côté gouvernement seraient en mesure de vérifier les informations confidentielles, nom, prénom, âge, etc.
Par contre, ça signerait la fin définitive de l’anonymat sur les réseaux sociaux. Il faudrait aussi anticiper le risque de partage de comptes ou d’usurpation, pas simple en effet.


Le swipping TikTok est d’une redoutable efficacité : plus on regarde longtemps des vidéos d’une sorte, plus l’algorithme en propose. C’est le modèle de la TV linéaire avec un ciblage individuel. Pour sortir de la boucle, il faut forcer l’algorithme à proposer autre chose.



Pourtant, ça fait de TikTok un outil de découverte de nouveaux créateurs. L’onglet «Pour toi» existe maintenant sur Xtwitter, sur les Reels de Meta-facebook-instagram (avec sûrement des algorithmes différents mais sur la même idée).



(reply:2153565:consommateurnumérique)




Par défaut, ça s’apparente plus à de la drogue qu’à un outil de découverte.


Les médias sociaux sont conçus avec l’aide de la neuropsychologie et des neurosciences, comme tous les outils publicitaires qu’on connaît aujourd’hui, comme toutes les plateformes pornographiques du web (la dopamine, hormone du plaisir immédiat). Le ciblage permis par la collecte et le traitement des données personnelles est redoutablement efficace.



C’est pour ça que beaucoup de créateurs de contenus utilisent TokTok, à commencer par des filles qui capitalisent sur leur physique jusqu’à de la vulgarisation scientifique en passant par des humoristes, des booktokers (contraction des mots book et TikTok), etc.



shadowfox a dit:


Il faudrait que le gouvernement mette en place une API d’authentification basée sur la CNI pour la création du compte et que les sites soit forcés d’utiliser cette API pour déterminer l’âge de la personne. On peut imaginer un système où les réseaux sociaux n’auraient de leur côté qu’un token, et que l’API seule côté gouvernement seraient en mesure de vérifier les informations confidentielles, nom, prénom, âge, etc. Par contre, ça signerait la fin définitive de l’anonymat sur les réseaux sociaux. Il faudrait aussi anticiper le risque de partage de comptes ou d’usurpation, pas simple en effet.




Oui c’est bien ce que je dis : inapplicable en pratique.
Sinon ca aurait déjà été fait, notamment pour le porno.


Pas inapplicable, à condition d’une vraie volonté politique et d’y mettre les moyens. C’est là où le bât blesse.



(reply:2153597:consommateurnumérique)




C’est justement ce qui est débattu aujourd’hui lors d’une commission qui va examiner un projet de loi gouvernemental qualifié en gros de “régulation numérique”.
Il est justement question de faire entrer en jeu toute la mécanique “France Identité” encore en rodage actuellement pour procéder à du contrôle d’âge sur des sites pornographiques ou des réseaux sociaux.



C’est Marc Rees qui en parle sur l’Informé https://www.linforme.com/tech-telecom/article/interdiction-des-vpn-permis-cyber-controle-d-age-les-amendements-de-la-majorite-pour-reguler-le-numerique_985.html



L’article est cependant payant mais on peut trouver des extraits ici : https://www.jeuxvideo.com/forums/42-51-73043891-1-0-1-0-lrem-france-identite-pour-18-x-interdiction-des-vpn-coupure-internet.htm



Ce sujet n’est qu’une partie du projet de loi, Fred42 en a déjà parlé en commentaire dans un autre article du Brief au sujet d’une régulation des VPN.



(reply:2153597:consommateurnumérique)




Booktok c’est clairement le cheval de Troie imaginé par la Chine pour faire adopter TikTok en France. Le meilleur moyen de se faire accepter en France, c’est de vanter la culture alors qu’on sait très bien que ce ne sera jamais l’usage majoritaire pour TikTok. Il faudrait que je retrouve le reportage qui en parlait très bien.



Ca ne viendrait jamais à l’idée de parents normaux de bourrer la gueule de leurs enfants et de leur faire fumer un paquet par jour. Mais par contre on leur file un smartphone avec accès aux réseaux sociaux bien trop tôt, là c’est pas grave.



shadowfox a dit:


Pas inapplicable, à condition d’une vraie volonté politique et d’y mettre les moyens. C’est là où le bât blesse.




Non. Parce que :




  • d’une la France n’est pas seule au monde

  • de deux, ca implique comme tu dis une perte de l’anonymat, et c’est inacceptable pour la population tant les risques sont élevés pour les libertés individuelles.


Tu n’es pas anonyme pour l’état, la justice a parfaitement les moyens de savoir qui tu es sur internet. L’usage d’un VPN ou de Tor peut ralentir mais ne rend pas impossible l’identification. L’anonymat ne l’est que pour les autres, pas pour l’état qui possède déjà tes informations confidentielles.



Je parlais pour la France bien sûr, le reste du monde c’est encore autre chose.



shadowfox a dit:


Tu n’es pas anonyme pour l’état, la justice a parfaitement les moyens de savoir qui tu es sur internet.




Oui. Et la justice doit rester la seule à pouvoir t’identifier, avec des gardes fous : on ne doit demander ton identification qu’en cas de délit constaté, et par un juge.


ce n’est pas l’anonymat, les jeunes, et la liberté d’utiliser le net le problème. vous pensez à l’envers



c’est comment ces ENTREPRISES COMMERCIALES sont structurées, comment elles organisent leurs “réseaux (as)sociaux”, leur fonctionnement, leurs interfaces et leur financement qui est le problème



Le commerce de l’engagement (vous tenir émotionnellement par la colère, la peur, etc) pour vendre de la pub via de la manipulation (les “algorithmes” qui décident quoi vous montrer) est foncièrement malsain



c’est l’acte d’organiser les contenus de manières non transparentes sans contrôle par l’utilisateur et le financement par la pub, ces deux choses, qui doivent être criminalisés. tout simplement



vous devez non pas sanctionner l’utilisateur (l’anonymat, s’identifier et donc s’exposer à la haine et harcèlement, etc) mais les ENTREPRISES COMMERCIALES de ces réseaux (as)sociaux.



Attaquez leur argent, attaquez leur fonctionnement, exigez la possibilité de contrôler par défaut ce que le site vous affiche, et faites INTERDIRE TOUTE FORME DE PUBLICITÉ



vous verrez instantanément :




  • moins de réseaux (as)sociaux commerciaux en fonctionnement

  • moins de parasites du malheur d’autrui pour faire de l’argent

  • d’avantage de santé mentale.



en attendant, vous pouvez militer au près des annonceurs pubs et grandes marques que vous refusez de les consommer si elles sont présentes sur les réseaux (as)sociaux.



Attaquez les sources d’argent.


Je vous rejoins dans votre affirmation de la responsabilité de ces entreprises. L’utilisation des neurosciences pour «  capturer » les utilisateurs devrait être illégale. Ce sont des mécanismes de manipulation mentale.


Quand j’ai entendu ce matin cette interview avec les exemples de contenus auxquels la mineure a été exposée (la mère citait notamment de l’auto mutilation), j’en ai déduis à titre personnel que TikTok est potentiellement illégal en France car en violation avec l’article 227-24 code pénal.



Le régulateur (ici : l’Arcom) doit donc prendre les mesures qui s’imposent sous peine de bloquer celle-ci.


Je ne tire pas la même conclusion.



Tout d’abord; TikTok est un hébergeur. Il n’avait aucune obligation de surveillance généralisée en 2021. Le DSA change des choses et TikTok a fait des changements pour s’y conformer. On verra ce qu’il en est.



Ensuite, je n’ai pas compris qu’elle avait été incitée à se livrer à des jeux la mettant physiquement en danger. Ce n’est probablement pas cet article du code pénal qu’il faut utiliser mais plutôt chercher du côté des articles 223-13 à 223-15-1, mais par pour TikTok mais pour ceux qui ont publié de telles vidéos sur ce média.



Et pour finir, l’ARCOM n’a pas encore le pouvoir d’appliquer le DSA, la loi le désignant pour cette tâche n’est pas encore votée par les 2 chambres.


fred42

Je ne tire pas la même conclusion.



Tout d’abord; TikTok est un hébergeur. Il n’avait aucune obligation de surveillance généralisée en 2021. Le DSA change des choses et TikTok a fait des changements pour s’y conformer. On verra ce qu’il en est.



Ensuite, je n’ai pas compris qu’elle avait été incitée à se livrer à des jeux la mettant physiquement en danger. Ce n’est probablement pas cet article du code pénal qu’il faut utiliser mais plutôt chercher du côté des articles 223-13 à 223-15-1, mais par pour TikTok mais pour ceux qui ont publié de telles vidéos sur ce média.



Et pour finir, l’ARCOM n’a pas encore le pouvoir d’appliquer le DSA, la loi le désignant pour cette tâche n’est pas encore votée par les 2 chambres.


Ce n’était pas le critère “jeux dangereux” mais “violent” qui m’a fait tiquer lors de l’interview, car c’était justement le propos tenu par la mère



(c’est chiant on ne retrouve quasi jamais les contenus diffusés en live sur le site de FranceInfo… )



De plus, ces contenus étant promus par l’algorithme de TikTok, de mon point de vue il y a bien une diffusion ainsi qu’une exposition par quelque moyen que ce soit.



Le statut de l’hébergeur de m’est pas venu à l’esprit car il n’a jamais été invoqué à ma connaissance lors des autres applications de l’article 227-24. Ma conclusion n’était pas du tout en lien avec le DSA (qui lui est le socle juridique de la plainte citée), mais bien une lecture au vue du code pénal français par rapport à un mot-clé cité par l’intervenante.


SebGF

Ce n’était pas le critère “jeux dangereux” mais “violent” qui m’a fait tiquer lors de l’interview, car c’était justement le propos tenu par la mère



(c’est chiant on ne retrouve quasi jamais les contenus diffusés en live sur le site de FranceInfo… )



De plus, ces contenus étant promus par l’algorithme de TikTok, de mon point de vue il y a bien une diffusion ainsi qu’une exposition par quelque moyen que ce soit.



Le statut de l’hébergeur de m’est pas venu à l’esprit car il n’a jamais été invoqué à ma connaissance lors des autres applications de l’article 227-24. Ma conclusion n’était pas du tout en lien avec le DSA (qui lui est le socle juridique de la plainte citée), mais bien une lecture au vue du code pénal français par rapport à un mot-clé cité par l’intervenante.


Et les challenges les plus idiots style bucket glass au plus dangereux diffusé sur Meta, Twitter, Tiktok, etc… ça rentre aussi en ligne de compte ?


refuznik

Et les challenges les plus idiots style bucket glass au plus dangereux diffusé sur Meta, Twitter, Tiktok, etc… ça rentre aussi en ligne de compte ?


Pour moi oui, je l’ai plusieurs fois dénoncé ici.


SebGF

Ce n’était pas le critère “jeux dangereux” mais “violent” qui m’a fait tiquer lors de l’interview, car c’était justement le propos tenu par la mère



(c’est chiant on ne retrouve quasi jamais les contenus diffusés en live sur le site de FranceInfo… )



De plus, ces contenus étant promus par l’algorithme de TikTok, de mon point de vue il y a bien une diffusion ainsi qu’une exposition par quelque moyen que ce soit.



Le statut de l’hébergeur de m’est pas venu à l’esprit car il n’a jamais été invoqué à ma connaissance lors des autres applications de l’article 227-24. Ma conclusion n’était pas du tout en lien avec le DSA (qui lui est le socle juridique de la plainte citée), mais bien une lecture au vue du code pénal français par rapport à un mot-clé cité par l’intervenante.


Le DSA ne peut pas être le socle juridique de la plainte puisque le suicide a eu lieu en 2021 donc avant l’application du DSA.



Quant aux algorithmes, je n’ai pas souvenir qu’ils aient fait changer le statut d’hébergeur en éditeur pour les différentes plateformes qui mettent en avant du contenu en fonction de celui déjà vu ou sur d’autres critères.



C’est aussi pour cela que le DSA a comblé un vide entre les 2 statuts pour rendre responsable la plateforme dans un cas comme celui-ci.


fred42

Le DSA ne peut pas être le socle juridique de la plainte puisque le suicide a eu lieu en 2021 donc avant l’application du DSA.



Quant aux algorithmes, je n’ai pas souvenir qu’ils aient fait changer le statut d’hébergeur en éditeur pour les différentes plateformes qui mettent en avant du contenu en fonction de celui déjà vu ou sur d’autres critères.



C’est aussi pour cela que le DSA a comblé un vide entre les 2 statuts pour rendre responsable la plateforme dans un cas comme celui-ci.


OK pour le DSA.



Cela dit, je ne vois pas en quoi une plateforme diffusant du contenu violent à un mineur ne pourrait être attaquée pour violation de l’article L227-24. Il y a pourtant eu des précédents pour exactement la même situation.


fred42

Je ne tire pas la même conclusion.



Tout d’abord; TikTok est un hébergeur. Il n’avait aucune obligation de surveillance généralisée en 2021. Le DSA change des choses et TikTok a fait des changements pour s’y conformer. On verra ce qu’il en est.



Ensuite, je n’ai pas compris qu’elle avait été incitée à se livrer à des jeux la mettant physiquement en danger. Ce n’est probablement pas cet article du code pénal qu’il faut utiliser mais plutôt chercher du côté des articles 223-13 à 223-15-1, mais par pour TikTok mais pour ceux qui ont publié de telles vidéos sur ce média.



Et pour finir, l’ARCOM n’a pas encore le pouvoir d’appliquer le DSA, la loi le désignant pour cette tâche n’est pas encore votée par les 2 chambres.


Il y a une toute petite différence entre être un simple hébergeur et fournir proactivement des vidéos violentes en fonction d’un algorithme nébuleux à une adolescente.


carbier

Il y a une toute petite différence entre être un simple hébergeur et fournir proactivement des vidéos violentes en fonction d’un algorithme nébuleux à une adolescente.


C’est tellement évident (ironie) que l’on a créé le DSA pour avoir un texte légal pour enfin pouvoir punir les sociétés dont les algorithmes font ça. :langue:



Zeratool a dit:


Commencer par interdire les réseaux sociaux au moins de 15 ans serait déjà une grande avancée…




C’est déjà interdit aux moins de 13 ans, et ça ne les empêchent pas d’en avoir…


Cette mère porte plainte contre Tiktok après le suicide de sa fille : elle explique pourquoi
19/09/2023
Les parents d’une jeune fille, qui avait mis fin à ses jours en 2021, ont annoncé porter plainte contre TikTok, lundi 18 septembre 2023. La mère de la lycéenne explique pourquoi elle estime que le réseau social a une part de responsabilité dans le suicide de sa fille.






Suicide : les médias revoient (lentement) leur copie - Arrêt sur images 16/07/2023
Il est aujourd’hui scientifiquement prouvé que le traitement médiatique de certains suicides peut amener un public fragile à reproduire l’acte. Alors que le fléau fait couler de plus en plus d’encre, certains journalistes commencent à peser leurs mots, quand d’autres restent tentés par des récits sensationnalistes.
« Les équipes de Papageno regrettent, par exemple, que le plus grand JT de France n’ait pas diffusé en bandeau le 3114, numéro national de prévention contre le suicide. Une consigne pourtant adressée aux médias par l’Organisation mondiale de la santé (OMS) depuis 2008. »



Comment (bien) parler de harcèlement à la télé ? Ces ados répondent - Arrêt sur images 21/06/2023
La télé n’en parle jamais, sauf quand il est trop tard. Traiter le harcèlement scolaire sérieusement, c’est en parler dans tous ses aspects, répondent six élèves de troisième.


Fermer