Facebook supprime 120 groupes de cybercrime avec 300 000 membres

Le 17 avril 2018 à 10h32
1 min
Internet
Internet
Le réseau social a été averti par KrebsOnSecurity et a donc procédé à un vaste ménage.
Sans que Facebook ne le sache, 300 000 personnes réparties dans 120 groupes de discussions s'échangeaient des informations de nature criminelle : outils de création de botnets, promotion de services d'attaques DDoS, fraudes, spam et vol de comptes y étaient abordés.
Ces groupes, violant allègrement les conditions d'utilisation de Facebook, étaient pourtant présents depuis longtemps sur le réseau. Toujours selon KrebsOnSecurity, certains avaient même entre 4 et 9 ans pour les plus anciens.
Le plus gros groupe était spécialisé dans la vente et l'utilisation de numéros de cartes bancaires. Venait ensuite un autre centré sur le vol d'identifiants pour des comptes très courants tels qu'Amazon, Google, Netflix ou Paypal.
Bien que Facebook ait réagi très rapidement, la société a été forcée d'affirmer qu'elle ferait plus attention désormais à de telles activités.
Alors qu'elle se trouve en difficulté face au scandale Cambridge Analytica, d'aussi vieux groupes de conversation font tache, donnant le sentiment que le réseau ne sait pas vraiment ce qui se passe dans ses propres tuyaux.
Le 17 avril 2018 à 10h32
Commentaires (12)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 17/04/2018 à 08h47
Alors qu’elle se trouve en difficulté face au scandale Cambridge Analytica, d’aussi vieux groupes de conversation font tache, donnant le sentiment que le réseau ne sait pas vraiment ce qui se passe dans ses propres tuyaux
ce qui est un comble quand même.
Le 17/04/2018 à 09h07
Le 17/04/2018 à 09h28
je n’ai pas dit que ce n’était pas normal, et je suis largement au courant des problématiques liées à la gestion du contenu.
c’est juste rigolo de se dire que FB, accusée de tout savoir sur ses utilisateurs, ne voit pas tout.
reste que dans le cas des Gafam, ce n’est pas un manque de moyens, mais une stratégie: FB ferme bien les groupes de pedoporn (donc est efficace), mais ne ferme pas les groupes de vol de CB qui ont 9 ans (c’est juste énorme). on en déduit que FB met plus de moyens dans la lutte contre le pedoporn.
Le 17/04/2018 à 09h45
Le 17/04/2018 à 10h05
le pire dans tout ça, c’est qu’ils doivent garder une copie de la vidéo pédopornographique pour feed une IA quand ils en auront assez.. ( pareil pour youtube je suppose )
Le 17/04/2018 à 12h10
Le 17/04/2018 à 13h05
Justement, je pense pas, mais il doit y avoir des accords secrets bien particulier entre le gouvernement et fb/youtube pour ce genre de cas ( même si bien évidement j’en sais rien de la réalité de la chose, ce n’es que spéculation)
Mais ca ne m’étonnerais pas…
Le 17/04/2018 à 15h41
Le 17/04/2018 à 16h29
Le 17/04/2018 à 18h38
Plutôt une signature de la vidéo non ? (un hash ou autre)
Le 18/04/2018 à 03h52
je sais pas trop, je pense que c’est plus simple de garder la vidéo ( ou au moins des frames clef/représentative), avec tout le boulot qu’ils y as déjà derrière la reconnaissance d’image ça reste le plus efficace.. ( et puis on parle pas seulement de reconnaitre la même vidéo, mais découvrir automatiquement du nouveau contenu
non répertorié )
Le 18/04/2018 à 08h06
difficile de faire apprendre une IA sur un hash. ^^