Lantern, le nouvel outil des GAFAM destiné à partager les indicateurs et signaux de contenus pédosexuels
Antipedo Tech Coalition
Le 10 novembre 2023 à 08h20
7 min
Internet
Internet
Une « Tech Coalition » réunissant les GAFAM et les principaux réseaux sociaux vient de lancer un outil destiné à faciliter l'échange d'indicateurs de contenus à caractère pédosexuels. Élaboré depuis deux ans « de manière responsable » et « by design » (dès la conception) pour prendre en compte les problématiques de sécurité et de confidentialité. Il a par ailleurs fait l'objet d'une analyse destinée à s'assurer le respect des droits humains.
La fine fleur des Big Tech', réunie dans une « Tech Coalition », vient d'annoncer le lancement de Lantern, « le premier programme de partage de signaux multiplateforme destiné aux entreprises afin de renforcer la manière dont elles appliquent leurs politiques de sécurité des enfants ».
Objectifs : lutter contre l’exploitation et les abus sexuels sur enfants en ligne (OCSEA, pour « Online child sexual exploitation and abuse »), le grooming (ou pédopiégeage, termes consacrés à la sollicitation d’enfants à des fins sexuelles), la sextorsion et le partage de contenus à caractère pédosexuel (CSAM, pour « child sexual abuse material »).
Cette « Tech Coalition » comprend notamment Amazon, Apple, CloudFlare, Discord, Dropbox, Flickr, Google, Grindr, MEGA, Meta, Microsoft, Niantic, OpenAI, Patreon, PayPal, Roblox, Snapchat, TikTok, Verizon, X (ex-Twitter), Yahoo et encore Zoom, pour ne citer qu’eux.
Elle se présente comme « le lieu où se réunit l’industrie technologique mondiale », afin de travailler ensemble pour « favoriser des avancées technologiques cruciales et l’adoption de meilleures pratiques pour assurer la sécurité des enfants en ligne » :
« Lantern est une initiative révolutionnaire qui rassemble des entreprises technologiques pour partager de manière sécurisée et responsable des signaux sur les activités et les comptes qui violent leurs politiques contre l'exploitation et les abus sexuels sur enfants (CSEA). »
Jusqu’à présent, il n’existait aucune procédure cohérente
Elle précise que les signaux peuvent être des adresses e-mail, noms d'utilisateur, hachages ou « mots-clés utilisés pour préparer, acheter et vendre du CSAM » :
« Jusqu’à présent, il n’existait aucune procédure cohérente permettant aux entreprises de collaborer contre les acteurs prédateurs échappant à la détection dans tous les services. Lantern comble cette lacune et met en lumière les tentatives multiplateformes d’exploitation et d’abus sexuels d’enfants en ligne, contribuant ainsi à rendre Internet plus sûr pour les enfants. »
Ses initiateurs estiment que Lantern peut « permettre d'augmenter les capacités de prévention et de détection ; accélérer l'identification des menaces ; développer une conscience situationnelle des nouvelles tactiques prédatrices ; et renforcer le signalement aux autorités des infractions pénales ».
Au cours de la phase pilote du programme, MEGA a ainsi partagé les URL que Meta a utilisées pour mener une enquête sur ses plateformes sur des comportements « potentiellement transgressifs » liés à ces URL. Cela a entraîné la suppression de plus de 10 000 profils Facebook, pages et comptes Instagram.
Meta a de son côté signalé les profils, pages et comptes en infraction au Centre national pour les enfants disparus et exploités (NCMEC), « conformément à ses obligations légales ». La plateforme a également partagé les détails de son enquête sur Lantern, « permettant à d'autres entreprises participantes d'utiliser les signaux pour mener leurs propres enquêtes ».
Les problématiques de sécurité et de confidentialité
La Tech Coalition explique que « construire une procédure multiplateforme réfléchie est difficile et prend du temps ». Au cours des deux dernières années, ses membres ont « déployé des efforts concertés pour concevoir un programme efficace pour lutter contre l'OCSEA [...] conforme aux lois, réglementations et éthiques ».
Consciente que le partage de signaux multiplateforme « soulève des inquiétudes et nécessite une surveillance diligente », la Tech Coalition se dit engagée « en faveur d'une gestion responsable » de ce type de signalements. De plus, elle affirme avoir développé Lantern « de manière responsable » et « by design » (dès la conception) pour prendre en compte les problématiques de sécurité et de confidentialité.
En termes de respect des droits humains, elle a ainsi chargé Business for Social Responsibility (BSR), dont la mission est de « travailler avec les entreprises pour créer un monde juste et durable », de mener une évaluation d'impact sur les droits de l'homme pour « éclairer le développement de Lantern et fournir des conseils continus à mesure que nous itérons et améliorons le programme ». Elle précise avoir d'ores et déjà mis en œuvre 9 des 19 recommandations de son rapport, et poursuit ou étudie actuellement 10 d’entre elles.
La Tech Coalition explique avoir par ailleurs engagé « plus de 25 experts et organisations » axés sur la sécurité des enfants, les droits numériques, la défense des communautés marginalisées, le gouvernement et les forces de l'ordre, à participer à cette évaluation. Elle ne fournit par contre pas de synthèse de leurs contributions.
Une « avancée cruciale »
Un « premier groupe d'entreprises » comprenant « notamment » Discord, Google, Mega, Meta, Quora, Roblox, Snap et Twitch, participera à la « première phase » de lancement de Lantern, avant que d'autres suivent en fonction de leurs retours.
La Tech Coalition s'engage également à inclure Lantern dans son rapport annuel de transparence, et à fournir aux entreprises participantes des recommandations sur la manière d'intégrer leur participation au programme dans leur propre rapport de transparence.
Meta précise dans un communiqué avoir fourni à la Tech Coalition, dont elle est l'un des membres fondateurs, l’infrastructure technique qui se trouve derrière le programme et qu'elle continuera à la maintenir :
« Nous utilisons des technologies telles que PhotoDNA de Microsoft et PDQ de Meta [un logiciel propriétaire d'identification d'images et de filtrage de contenu pour le premier, algorithme de comparaison de photos pour le second, ndlr] pour arrêter la diffusion de matériel pédopornographique (CSAM) sur Internet, mais nous avons besoin de solutions supplémentaires pour empêcher les prédateurs d'utiliser différentes applications et sites Web pour cibler les enfants. »
Amy Crocker – responsable de la protection de l'enfance et de la technologie, ECPAT International (pour End child prostitution, child pornography and trafficking of children for sexual purposes), un réseau de 126 organisations de 104 pays combattant l'exploitation sexuelle des enfants – qualifie le lancement de Lantern d'« avancée cruciale [qui] ouvre la voie à la collaboration, en favorisant un environnement sûr, sécurisé et respectueux de la vie privée, où l'échange de signaux cruciaux pourrait faire basculer le destin d'un enfant de l'exploitation à la protection ».
Ce lancement intervient opportunément alors que l'on dénombrait récemment sept projets de loi ou règlement pouvant miner le chiffrement au nom de la lutte contre la pédocriminalité notamment.
Et ce, d'autant que suite à la polémique autour du projet controversé de règlement européen de lutte contre la pédocriminalité, qualifié par ses opposants de « projet de loi européen le plus critiqué de tous les temps » (cf nos articles autour de cette affaire de #ChatControl), le Parlement européen a finalement adopté un compromis « historique » en supprimant la surveillance proactive des messageries, afin de préserver le chiffrement sécurisé de bout en bout.
- Une lettre ouverte contre les sept projets de loi anti-chiffrement
- #ChatControl : un compromis « historique » exclut la surveillance des messageries en Europe
- Détection des contenus pédosexuels : le « projet de loi européen le plus critiqué de tous les temps »
Lantern, le nouvel outil des GAFAM destiné à partager les indicateurs et signaux de contenus pédosexuels
-
Jusqu’à présent, il n’existait aucune procédure cohérente
-
Les problématiques de sécurité et de confidentialité
-
Une « avancée cruciale »
Commentaires (5)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 10/11/2023 à 09h33
et
sont contradictoires. On ne peut être respectueux de la vie privée (et du RGPD) et s’échanger des adresses e-mail ou des noms d’utilisateurs.
Ils veulent nous faire prendre des vessies pour des lanternes ?
Le 10/11/2023 à 12h08
Il y a substitution au rôle de policeet d’enquêtes des états.
C’est une position dangereuse, qui donne accès a des informations qui ne devraient pas être detenues par des entreprises privées.
Même si l’idée est honorable, elle n’est pas forcément legale.
Ça pourrait même gêner le travail d’enquête si le système n’a pas l’aval des autorités locale.
Triste problème des mouvances libertaires qui clairement militent pour etre des etats a la place des etats
Le 10/11/2023 à 14h10
Effectivement, même si l’objectif est louable, c’est pas le rôle de ce projet que de sanctionner / supprimer les profils concernés. Et en cas de faux positif, coupable par défaut ?
J’aurai préféré que ce projet soit aux mains d’une fondation reconnue et qui transmette les infos à la Justice plutôt qu’une organisation privée fasse le boulot, quitte à bousiller une enquête en cours.
Le 10/11/2023 à 14h47
C’est toujours pareil, c’est toujours pour lutter contre la pédophilie/terorisme/propriété intelectuelle/jeux argents qu’on commence les coups de canifs, et puis petit à petit on l’étend
La lutte contre la pédophilie passe surtout par le renforcement des moyens d’enquête ET de justice … mais bon c’est sur, c’est moins démagogique comme solution ( et moins liberticide )
Le 10/11/2023 à 15h44
Donc, si on reprend le cas du parent ayant pris des photos du pénis de son fils pour l’envoyer à un médecin via gmail, ce n’est plus l’ensemble des ses comptes google qui seront suspendu, mais l’ensemble de ses comptes sur les plateformes des participants à lantern…