Un « point de bascule » concernant les images d’abus sexuels d’enfants générées par IA
Le 18 octobre à 16h03
2 min
IA et algorithmes
IA
L'Internet Watch Foundation, ONG qui gère la hotline des signalements de photos ou de vidéos d'abus sexuels sur enfants sur Internet, tire la sonnette d'alarme sur les contenus pédopornographiques générés par IA.
Elle explique rencontrer de plus en plus de contenus d'abus sexuels d'enfants créés en utilisant les technologies d'intelligence artificielle sur des sites aisément accessibles.
L'IWF ajoute avoir agi à propos de 74 signalements pour de tels contenus entre avril et fin septembre (une période de 6 mois donc). Elle avait agi sur 70 signalements sur la période des 12 mois précédents, entre avril 2023 et avril 2024.
Pour 99 % de ces contenus, aucun navigateur spécifique comme Tor Browser n'était nécessaire pour y accéder.
La plupart d'entre eux (78 %) lui ont d'abord été signalés par des internautes qui sont tombés sur un forum ou une galerie d'images générées par IA. Le reste a été détecté par les analystes de l'ONG en cherchant de manière proactive.
Mais, en plus du problème de la profusion d'images de ce type, l'Internet Watch Foundation explique que la détection de photos pédocriminelles réelles risque d'en pâtir.
Un de ses analystes témoigne : « Je trouve cela vraiment effrayant, car j'ai l'impression que nous sommes à un point de basculement et que des organisations comme nous et la police risquent d'être submergées par des centaines et des centaines de nouvelles images, sans que nous sachions toujours s'il s'agit d'un véritable enfant qui a besoin d'aide ».
L'ONG signale que plus de la moitié des serveurs qui hébergeaient ce type de contenus se trouvaient dans deux pays : 27 en Russie, 16 aux États-Unis. Le Japon et les Pays-Bas suivent avec respectivement 8 et 6 des serveurs. 3 de ces serveurs se trouvaient en France et un seul des serveurs listés par l'IWF n'était accessible que via une URL en .onion.
L'IWF rappelle que ses analystes continuent de repérer des images de victimes de pédocriminalité utilisées pour générer de nouvelles images et des deepfakes de violences sexuelles.
Le 18 octobre à 16h03
Commentaires (26)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 18/10/2024 à 16h40
Modifié le 18/10/2024 à 16h45
Modifié le 18/10/2024 à 17h17
Je pensais qu'un des trois serveurs en France était en .onion… (me manquait le "et" entre les deux 😅)
Le 18/10/2024 à 17h17
La loi devra choisir entre:
- étendre la criminalité aux contenus générés artificiellement.
- autoriser les contenus générés artificiellement, même s'ils sont photoréalistes .
Le 18/10/2024 à 17h35
L'intérêt de détecter les images réelles, c'est pour retrouver les enfants.
Le 18/10/2024 à 19h16
Cf. article 227-23 du Code pénal.
Le problème avec l'IA c'est que tu peux/pourras générer cette image sur ton PC "IA ready" à partir d'un prompt... un prompt qui n'est finalement que du texte. Du texte qu'on peut diffuser car il n'est pas soumis à l'article 227-23 qui se limite à la diffusion d'image ou de représentation.
Pas si simple de légiférer sur un tel sujet.
Le 18/10/2024 à 22h00
La question de légiférer peut se poser, et au delà celle du bien-être mental et d'une partie de la société assez malade pour se servir d'un outil aussi puissant et récent pour faire ce genre d'ignobles actes... Les gens (enfin certains et une minorité) n'ont donc aucune limite.
Le 18/10/2024 à 23h16
Le 19/10/2024 à 10h14
Le 19/10/2024 à 14h15
Modifié le 19/10/2024 à 01h10
Et sinon, pour le prompt au lieu de l'image, ça va être comme pour les url vers des torrents illégaux ou le code source de DeCSS : ça sera certainement assimilé au fichier en lui-même.
Le 19/10/2024 à 10h43
(au passage, corrigez-moi si je me trompe, mais le fichier torrent n'a rien d'illégal, ce qui est pénalisé, c'est le fait de partager des bouts du fichier qui se trouve derrière)
Le 19/10/2024 à 11h11
Dans le cas de l'article cité du code pénal, ici c'est le visuel qui est retenu (image ou représentation - je suppose que le second concerne les dessins par exemple) et l'application est stricte. Commencer à légiférer sur du texte risquerait d'avoir un effet de bord plutôt risqué dans le domaine de l'écriture (les histoires de romance entre majeur et mineur ne doivent pas être rares dans la littérature je pense). Si une évolution du code pénal devait avoir lieu pour intégrer l'IA générative, il devrait plutôt inclure le mot "générer" ou "produire" avec "fixer, enregistrer ou transmettre".
Le 19/10/2024 à 12h01
Le 19/10/2024 à 13h30
Actuellement au Père-Lachaise.
Le 20/10/2024 à 20h54
Le 19/10/2024 à 17h07
Le 19/10/2024 à 19h05
Comme ça non, mais sinon sur quelle base légale se feraient fermer les sites de partage de torrent ?
Un texte n'est pas une image ou une représentation, mais s'il permet d'y accéder alors, il est autant illégal que l'image.
Le 19/10/2024 à 19h56
Dans le cas de la contrefaçon, c'est l'atteinte au droit d'auteur qui est utilisée avec par exemple l'article L112-4 du code de propriété intellectuelle qui interdit la reproduction d'une oeuvre sans le consentement de l'auteur ou de ses ayants droits. Et concernant les plateformes de torrent, ce sont les articles L336 du même code qui servent de base (cas de Yggtorrent par exemple, décision de 2022, il y a encore eu le coup ce mois-ci mais je n'ai pas trouvé la décision).
Tu imagines qu'avec le raisonnement que tu proposes, tu rends illégal l'Internet tout entier puisqu'il permet d'y accéder ? Dans le cas de la pédopornographie, on est dans le pénal, et ce code ne s'interprète pas, il s'applique strictement. La formule retenue dans le code de la propriété intellectuelle est "mise à disposition". Il ne rend pas illégal le torrent, uniquement l'usage à des fins de piratage.
Le 19/10/2024 à 12h18
Pour ma part, j'assimile plutôt "prompt+IA" à "fichier modèle+imprimante 3D". Je ne sais pas trop quel est l'état du droit de ce coté. J'ai l'impression que les imprimantes 3D ne se sont pas démocratisées au point de faire évoluer le droit.
Le 19/10/2024 à 12h27
Le 20/10/2024 à 12h25
Il n'y avait pas trop de réflexion sur l'aspect moral ou criminel, a part la fabrication de pièces pour faire/modifier des armes. Mais ca n'a pas eu d'impact sur les textes de loi, il me semble.
Le 20/10/2024 à 12h55
Cependant, le cadre de la fabrication, détention et port d'arme est d'ores et déjà défini dans notre droit. Pas d'impact législatif à ma connaissance, car il n'y a pas de distinction entre une arme "traditionnelle" et une fabriquée par ce moyen.
Quant au second point, le cadre de la propriété intellectuelle ne semble pas avoir bougé non plus.
En fouillant un peu j'ai retrouvé une proposition de loi de 2016 (un peu farfelue dans son écriture d'ailleurs) qui n'a pas aboutie.
La différence avec le cas de l'IA ici est que, oui, la loi va peut-être devoir intégrer un critère supplémentaire pour indiquer que l'image est synthétisée par ordinateur sans réelle intervention humaine en dehors d'une requête. Le code pénal étant trop précis (ce qui est normal), il peut potentiellement ne pas considérer la génération d'images pédopornographies par IA comme illégales (vu qu'il considère "fixer" et "enregistrer"), par contre la détention ou la diffusion restent sanctionnées par le texte actuel dans la mesure où il ne fait plus de dinstinction du moyen de production à ce moment-là.
Modifié le 18/10/2024 à 17h56
On avait eu une polémique avec Bastien Vives y a qques années en France avec sa BD d'un gamin avec une teub énorme.
Le 19/10/2024 à 07h31
Le 19/10/2024 à 17h10
Hentai powa.