Facebook supprime 120 groupes de cybercrime avec 300 000 membres

Facebook supprime 120 groupes de cybercrime avec 300 000 membres

Facebook supprime 120 groupes de cybercrime avec 300 000 membres

Le réseau social a été averti par KrebsOnSecurity et a donc procédé à un vaste ménage.

Sans que Facebook ne le sache, 300 000 personnes réparties dans 120 groupes de discussions s'échangeaient des informations de nature criminelle : outils de création de botnets, promotion de services d'attaques DDoS, fraudes, spam et vol de comptes y étaient abordés.

Ces groupes, violant allègrement les conditions d'utilisation de Facebook, étaient pourtant présents depuis longtemps sur le réseau. Toujours selon KrebsOnSecurity, certains avaient même entre 4 et 9 ans pour les plus anciens.

Le plus gros groupe était spécialisé dans la vente et l'utilisation de numéros de cartes bancaires. Venait ensuite un autre centré sur le vol d'identifiants pour des comptes très courants tels qu'Amazon, Google, Netflix ou Paypal.

Bien que Facebook ait réagi très rapidement, la société a été forcée d'affirmer qu'elle ferait plus attention désormais à de telles activités.

Alors qu'elle se trouve en difficulté face au scandale Cambridge Analytica, d'aussi vieux groupes de conversation font tache, donnant le sentiment que le réseau ne sait pas vraiment ce qui se passe dans ses propres tuyaux.

Commentaires (12)




Alors qu’elle se trouve en difficulté face au scandale Cambridge Analytica, d’aussi vieux groupes de conversation font tache, donnant le sentiment que le réseau ne sait pas vraiment ce qui se passe dans ses propres tuyaux



ce qui est un comble quand même.








hellmut a écrit :



ce qui est un comble quand même.







C’est malheureusement tout à fait “normal” ou pour le moins “explicable”. Le contenu global est trop grand et demande une débauche d’énergie et d’argent trop important pour être traité exhaustivement.



A titre d’exemple des milliers de salariés de FB visionnent 8000 vidéo par jour, oui par jour, pour filtrer le pire de l’humanité : pédoporn, mutilations d’animaux, violence sur autrui etc. Ils tiennent quelques semaines et ont besoin ensuite d’un suivi psychologique.



Je vous invite à lire ceci :https://www.wsj.com/articles/the-worst-job-in-technology-staring-at-human-deprav…



C’est un problème complexe que FB, ou google, puisse faire l’analyse de tout le contenu qu’il possède sans faire atteinte à la liberté d’expression, le secret la correspondance, le RGPD, l’intrusion automatisé dans les datas etc. tout en séparant le bon grain de l’ivraie.



je n’ai pas dit que ce n’était pas normal, et je suis largement au courant des problématiques liées à la gestion du contenu.



c’est juste rigolo de se dire que FB, accusée de tout savoir sur ses utilisateurs, ne voit pas tout.



reste que dans le cas des Gafam, ce n’est pas un manque de moyens, mais une stratégie: FB ferme bien les groupes de pedoporn (donc est efficace), mais ne ferme pas les groupes de vol de CB qui ont 9 ans (c’est juste énorme). on en déduit que FB met plus de moyens dans la lutte contre le pedoporn.








hellmut a écrit :



je n’ai pas dit que ce n’était pas normal, et je suis largement au courant des problématiques liées à la gestion du contenu.



c’est juste rigolo de se dire que FB, accusée de tout savoir sur ses utilisateurs, ne voit pas tout.



reste que dans le cas des Gafam, ce n’est pas un manque de moyens, mais une stratégie: FB ferme bien les groupes de pedoporn (donc est efficace), mais ne ferme pas les groupes de vol de CB qui ont 9 ans (c’est juste énorme). on en déduit que FB met plus de moyens dans la lutte contre le pedoporn.







Tu viens de démontrer ce que je viens de dire : le contenu est tellement important, tellement gigantesque, que FB préfère mettre son énergie et donc ses moyens plutôt sur la lutte contre la pédopornographie que contre le groupe qui échange des CB.



Comme partout, tu ne peux pas tout faire, partout, en même temps, tu fais des choix. FB a fait les siens.



Après je suis entièrement d’accord avec toi, sans quand même assez poilant de voir que FB effectivement accusé de tout savoir, bah en fait ne sait pas tout <img data-src=" />



le pire dans tout ça, c’est qu’ils doivent garder une copie de la vidéo pédopornographique pour feed une IA quand ils en auront assez.. ( pareil pour youtube je suppose )








Firefly’ a écrit :



le pire dans tout ça, c’est qu’ils doivent garder une copie de la vidéo pédopornographique pour feed une IA quand ils en auront assez.. ( pareil pour youtube je suppose )







C’est légal que FB conserve un contenu illégal ? hé bé… <img data-src=" />



Justement, je pense pas, mais il doit y avoir des accords secrets bien particulier entre le gouvernement et fb/youtube pour ce genre de cas ( même si bien évidement j’en sais rien de la réalité de la chose, ce n’es que spéculation)



Mais ca ne m’étonnerais pas…








hellmut a écrit :



je n’ai pas dit que ce n’était pas normal, et je suis largement au courant des problématiques liées à la gestion du contenu.



c’est juste rigolo de se dire que FB, accusée de tout savoir sur ses utilisateurs, ne voit pas tout.



reste que dans le cas des Gafam, ce n’est pas un manque de moyens, mais une stratégie: FB ferme bien les groupes de pedoporn (donc est efficace), mais ne ferme pas les groupes de vol de CB qui ont 9 ans (c’est juste énorme). on en déduit que FB met plus de moyens dans la lutte contre le pedoporn.





Ne soyons pas naïfs, ils savent dire que Monsieur Truc a entre 30 et 39 ans, est dans une CSP moyenne, vote au centre, aime la pêche, les chats et Taylor Swift. Ils savent sans aucun doute que Monsieur Truc cause régulièrement de CB volées avec 10000 autres personnes dans un groupes qui s’appelle “stolen credit cards”.

&nbsp;

C’est un choix délibéré d’ignorer ce signal, sans doute justement pour ne pas se donner encore plus des allures de Big Brother. Mener une chasse active contre les pédoterroristes, c’est de la bonne PR garantie, la quasi-totalié des gens étant prêts à sacrifier leur vie privée pour attraper les méchants pédoterroristes (car bien évidemment, avant Facebook et le fichage de masse, il était impossible d’attraper ces gens-là…). La chasse aux petits malfrats, c’est un peu plus délicat, ne serait-ce que parce qu’ils sont bien plus nombreux, et que donc, mine de rien, ça fait des utilisateurs en moins.









boogieplayer a écrit :



A titre d’exemple des milliers de salariés de FB visionnent 8000 vidéo par jour, oui par jour, pour filtrer le pire de l’humanité : pédoporn, mutilations d’animaux, violence sur autrui etc. Ils tiennent quelques semaines et ont besoin ensuite d’un suivi psychologique.







On signe où ? <img data-src=" />



Plutôt une signature de la vidéo non ? (un hash ou autre)


je sais pas trop, je pense que c’est plus simple de garder la vidéo ( ou au moins des frames clef/représentative), avec tout le boulot qu’ils y as déjà derrière la reconnaissance d’image ça reste le plus efficace.. ( et puis on parle pas seulement de reconnaitre la même vidéo, mais découvrir automatiquement du nouveau contenu

non répertorié )


difficile de faire apprendre une IA sur un hash. ^^


Fermer