Un « point de bascule » concernant les images d’abus sexuels d’enfants générées par IA

L'Internet Watch Foundation, ONG qui gère la hotline des signalements de photos ou de vidéos d'abus sexuels sur enfants sur Internet, tire la sonnette d'alarme sur les contenus pédopornographiques générés par IA.

Elle explique rencontrer de plus en plus de contenus d'abus sexuels d'enfants créés en utilisant les technologies d'intelligence artificielle sur des sites aisément accessibles.

L'IWF ajoute avoir agi à propos de 74 signalements pour de tels contenus entre avril et fin septembre (une période de 6 mois donc). Elle avait agi sur 70 signalements sur la période des 12 mois précédents, entre avril 2023 et avril 2024.

Pour 99 % de ces contenus, aucun navigateur spécifique comme Tor Browser n'était nécessaire pour y accéder.

La plupart d'entre eux (78 %) lui ont d'abord été signalés par des internautes qui sont tombés sur un forum ou une galerie d'images générées par IA. Le reste a été détecté par les analystes de l'ONG en cherchant de manière proactive.

Mais, en plus du problème de la profusion d'images de ce type, l'Internet Watch Foundation explique que la détection de photos pédocriminelles réelles risque d'en pâtir.

Un de ses analystes témoigne : « Je trouve cela vraiment effrayant, car j'ai l'impression que nous sommes à un point de basculement et que des organisations comme nous et la police risquent d'être submergées par des centaines et des centaines de nouvelles images, sans que nous sachions toujours s'il s'agit d'un véritable enfant qui a besoin d'aide ».

L'ONG signale que plus de la moitié des serveurs qui hébergeaient ce type de contenus se trouvaient dans deux pays : 27 en Russie, 16 aux États-Unis. Le Japon et les Pays-Bas suivent avec respectivement 8 et 6 des serveurs. 3 de ces serveurs se trouvaient en France et un seul des serveurs listés par l'IWF n'était accessible que via une URL en .onion.

L'IWF rappelle que ses analystes continuent de repérer des images de victimes de pédocriminalité utilisées pour générer de nouvelles images et des deepfakes de violences sexuelles.

Commentaires (7)


Comment ils savent où sont les serveurs en .onion ?
Ils ne savent pas, justement. Tous les serveurs concernés par un signalement, sauf 1, n'étaient pas en .onion.
Modifié le 18/10/2024 à 16h45

Historique des modifications :

Posté le 18/10/2024 à 16h44


Ils ne savent pas, justement. Tous les serveurs concernéspar un signalement, sauf 1, n'étaient pas en .onion.

Martin Clavey

Ils ne savent pas, justement. Tous les serveurs concernés par un signalement, sauf 1, n'étaient pas en .onion.
Ah, j'ai mal compris cette phrase alors :
de ces serveurs se trouvaient en France et un seul des serveurs listés par l'IWF n'était accessible que via une URL en .onion.


Je pensais qu'un des trois serveurs en France était en .onion… (me manquait le "et" entre les deux 😅)
Modifié le 18/10/2024 à 17h17

Historique des modifications :

Posté le 18/10/2024 à 17h16


Ah, j'ai mal compris cette phrase alors :

de ces serveurs se trouvaient en France et un seul des serveurs listés par l'IWF n'était accessible que via une URL en .onion.


Je pensais qu'un des trois serveurs en France était en .onion… 😅

la détection de photos pédocriminelles réelles risque d'en pâtir.


Avec les IA génératives, le concept de "réalité" s'estompe peu à peu.
La loi devra choisir entre:
- étendre la criminalité aux contenus générés artificiellement.
- autoriser les contenus générés artificiellement, même s'ils sont photoréalistes .

La loi a déjà choisi : les images générées artificiellement (ou humainement aussi, comme les dessins) sont interdites.

L'intérêt de détecter les images réelles, c'est pour retrouver les enfants.

Mihashi

La loi a déjà choisi : les images générées artificiellement (ou humainement aussi, comme les dessins) sont interdites.

L'intérêt de détecter les images réelles, c'est pour retrouver les enfants.
Seule la diffusion (ou la volonté de diffuser) l'image est illégal.
Cf. article 227-23 du Code pénal.

Le problème avec l'IA c'est que tu peux/pourras générer cette image sur ton PC "IA ready" à partir d'un prompt... un prompt qui n'est finalement que du texte. Du texte qu'on peut diffuser car il n'est pas soumis à l'article 227-23 qui se limite à la diffusion d'image ou de représentation.

Pas si simple de légiférer sur un tel sujet.
Les lois changent selon les pays à ce sujet, il me semble par exemple qu'aux states si c'est une œuvre dessin ou numérique et pas un vrai enfant ça n'est pas illégal (j'ai un vieux /board en tête). Je ne sais pas quelle est la mesure en France.

On avait eu une polémique avec Bastien Vives y a qques années en France avec sa BD d'un gamin avec une teub énorme.
Modifié le 18/10/2024 à 17h56

Historique des modifications :

Posté le 18/10/2024 à 17h55


Les lois changent selon les pays à ce sujet, il me semble par exemple qu'aux states si c'est une œuvre dessin ou numérique et pas un vrai enfant ça n'est pas illégal (j'ai un vieux /board en tête). Je ne sais pas quelle est la mesure en France.

Fermer