Facebook essaie un outil bloquant le revenge porn

Facebook essaie un outil bloquant le revenge porn

Facebook essaie un outil bloquant le revenge porn

En avril, le réseau social élargissait son arsenal contre les contenus sexuels publiés sans consentement. Il teste désormais en Australie un outil de suppression automatisée des images mises en ligne.

Un internaute doit signaler sa crainte à une autorité dédiée à la sécurité en ligne (le commissaire eSafety en Australie). Il doit ensuite s'envoyer l'image via Facebook Messenger, selon ABC News. Une empreinte (hash) est alors générée et comparée à toute image mise en ligne par la suite. Le fichier n'est pas conservé.

L'essai doit être étendu par la suite au Canada, aux États-Unis et au Royaume-Uni.

Commentaires (8)


Un crop de 1% suffira à tromper le hash. Ça me parait vachement efficace comme solution tiens…


Pas grave le système sera mis en place et testé

Et les AD pourront alors s’appuyer dessus pour dire “ah vous voyez c’est utilisé dans un autre domaine, aucune raison de ne pas le faire pour nos œuvres !”


C’est pas vraiment un hash classique type md5 ou sha. C’est une empreinte d’image, pas une empreinte de fichier ou de données binaires, c’est censé passer outre les altérations légères.



Vois ça comme leur outil de reconnaissance de visage, il sait reconnaître un visage sur plein d’images différentes, bah là c’est pareil.


Faut encore qu’on ait à dispo les fameuses images ! <img data-src=" />&nbsp;Si on s’est filmé avec la gopro de son ex-copain et que celui-ci a gardé pour lui le contenu de la carte mémoire pour mater dans son pieu, bah on est cuit&nbsp;<img data-src=" />


La reconnaissance d’image n’a rien à voir avec la reconnaissance faciale…



La tolérance à la dégradation est très facile à contourner quand la dégradation est faite dans ce but précis. Regarde YouTube, ils sont censés détecter toutes les images de films dans leurs vidéos… sauf que si tu crop de 10%, ou que tu entoure le film d’un fond animé, ben raté, leurs empreintes ne leur servent à rien.



Un système de détection 100% automatisé ne peut pas encore fonctionner avec les techno actuelles, elles permettent seulement de donner des pistes. On peut très bien régler le système pour sévir même quand la détection donne un score faible, mais à ce moment là Facebook va se retrouver avec des millions de faux-positif, et autant de gens qui vont râler, il faudrait donc qu’ils passent chaque signalement par un validateur humain avant suppression, ce qu’ils ne feront pas plus que YouTube pour une simple raison de couts.



Non, cette annonce est tout autant du vent que celles de la lutte contre les fausses informations, les arnaques ou les influences électorale. Ils se contentent de faire joujou avec deux-trois algo et quelques tentatives de machines learnings, mais pour ces problématiques là l’effet est quasi nul car ces techno ne peuvent pas se défendre quand le signal fourni est explicitement tailler pour les tromper. Elles ne fonctionne que dans un cadre “loyal”.



Il faut de l’humain pour ce genre de choses, et ils ne veulent pas en embaucher (ou si peu, genre 1000, à rapporter aux millions de photos ou pub et milliards de messages qu’ils traitent chaque jour ^^), donc…


Ils s’emmerdent pour pas grand chose.



Pornhub utilise de plus en plus une IA pour identifier le contenu des vidéos : nom des modèles, positions, pratiques présentées, etc. Une des craintes est d’ailleurs que l’outil soit en capacité de reconnaître et nommer des amateurs qui n’auraient pas conscience que la vidéo est sur le site.



Moralité : qu’ils demandent à Pornhub, ça ira plus vite.


Fermer