En modérant trop rapidement, les plateformes empêchent les services d’enquêter
Le 08 décembre 2020 à 09h03
1 min
Internet
Internet
La ministre déléguée à la citoyenneté, Marlène Schiappa, a demandé aux représentants des plateformes numériques – Google, Facebook, Twitter, Snapchat et TikTok – de partager avec le ministère de l'intérieur davantage d'informations sur les utilisateurs qui postent des contenus relevant du « cyber-islamisme », relève La Lettre A.
La Direction générale de la sécurité intérieure (DGSI), la DGSE ainsi que les agents de la plateforme Pharos déploreraient en effet que certaines plateformes modèrent trop rapidement ce type de contenus, les empêchant d'enquêter plus avant à leur sujet.
En supprimant presque immédiatement une vidéo, une image ou un texte faisant l'apologie du terrorisme, les réseaux sociaux empêchent en effet les cyberenquêteurs de repérer et traquer les individus concernés. Des discussions sont donc en cours pour fixer un juste délai de réponse à apporter aux signalements.
Le 08 décembre 2020 à 09h03
Commentaires (18)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 08/12/2020 à 09h14
oO
autant je comprend l’idée pour les difficultés des enquêtes, mais on va aboutir a u truc assez spécial :
ça va être compliqué tout ça :s
va pas faire bon être hébergeur
Le 08/12/2020 à 09h24
C’est ce à quoi je pensais, ça va être chaud avec la suppression sous 24h …
(Et dire qu’il était souhaité que ce soit sous 1 heure … )
Le 08/12/2020 à 09h34
Faudrait prévenir madame Avia.
Le 08/12/2020 à 09h49
Le 08/12/2020 à 09h53
bonne idée
qui peut nous faire ce montage ?
on lance un financement participatif ?
XD
Le 08/12/2020 à 09h53
Même pas besoin de copyright, lorsqu’il y avait eu une tuerie de masse en Nouvelle Zélande, toute la classe politique était tombée sur les réseaux sociaux car ils n’avaient pas modéré assez vite.
Le 08/12/2020 à 09h53
J’en peux plus, elle est magnifique cette brève.
Le 08/12/2020 à 09h56
Il suffirait de continuer à supprimer le plus rapidement possible, tout en permettant aux services de renseignement ou de police de pouvoir accéder à une interface de gestion, où les contenus seraient toujours accessibles.
Parce que non, chez les GAFAM, la suppression n’existe pas vraiment. C’est juste rendu inaccessible aux simples utilisateurs.
Le 08/12/2020 à 10h12
Oui je pense que ça va être ça au final. Du “shadow” ban du contenu. Le contenu est toujours présent mais plus personne à part l’hébergeur y a accès, du coup en cas de demande judiciaire ils peuvent fournir la chose tout en respectant la “suppression”.
Le 08/12/2020 à 10h14
Cacher le contenu sans le supprimer pour le garder a disposition des autorités donc?
Le 08/12/2020 à 10h25
Je pensais naïvement que ça fonctionnait déjà comme ça.
Le 08/12/2020 à 12h25
Je pensais aussi que ça existait déjà… Ca me semble assez basique (et sain) comme système de modération… A la fois pour permettre les enquêtes d’avancer mais aussi pour avoir un regard sur ce qui est modéré par une entreprise privée…
Le 08/12/2020 à 12h02
Ou simplement avant les enquêteurs pouvaient voir qui suit ces comptes, et faire des connexions, des recoupements avec d’autres suspects, alors que maintenant c’est impossible
Le 08/12/2020 à 13h27
En même temps c’est l’arroseur arosé, ça a été bien documenté (et prédit) par NextInpact ces dernières années. Plus généralement dans l’histoire d’Internet c’est quelque chose qu’on a déjà vu avec les mesures pour arrêter les pédocriminels, le proxénétisme, la violation de copyright…
La censure par une autorité complexifie aussi l’analyse des faits par la société. Car la société civile pourrait, elle aussi, se charger d’une partie de cette noble tâche de modération et de pédagogie, d’analyse sociologique et psychologique…
La motivation pour censurer c’est certainement de casser la chaîne de propagation de l’information le plus tôt possible. Pour autant, est-ce que la pédagogie ne serait pas un meilleur vaccin ? Les idées ne s’arrêtent pas avec des barreaux de prison (il suffit de voir les effets des radicalisations catastrophiques en milieu carcéral).
Et plus généralement, peut-on faire confiance à une autorité de censure étatique ou privée ?
Le 08/12/2020 à 15h20
Surtout, il pouvait faire le plus gros de leur boulot sans devoir faire de demandes particulières à qui que ce soit, sans aucun compte voir avec un compte utilisateur normal suffit largement à récolter des tonnes d’informations.
Pour ce qui est GAFAM, je pense que le contenu est sur les serveurs au moins un certain temps, mais il est juste caché. Mais pour avoir accès à ce genre de contenu, il faut montrer patte blanche.
Le 08/12/2020 à 20h22
Je pense que c’est surtout ça le problème.
Entre devoir faire une demande officielle (si c’est considéré comme une perquisition, faut l’autorisation d’un juge, en cas de raté la preuve est pas utilisable, etc.) et un document dans l’espace publique, c’est clair que les enquêteurs préférerons le second cas .
Le 08/12/2020 à 16h09
Tu peux supprimer un contenu tout en gardant les logs associés.
Tout comme empêcher l’affichage d’un contenu ne signifie pas forcément sa suppression. Petit jeux auquel les réseaux sociaux sont très forts (données personnelles)
Le 08/12/2020 à 18h37
Et un site miroir, avant modération, conservé en interne avec toutes les infos encore présentes et caché des yeux de l’extérieur, juste pour les autorités ? :p