Le projet de charte sur la diffusion de l’image des mineurs sur les plateformes en ligne

Le projet de charte sur la diffusion de l’image des mineurs sur les plateformes en ligne

Charte de cathédrale

Avatar de l'auteur

Marc Rees

Publié dansDroit

06/05/2022
2
Le projet de charte sur la diffusion de l’image des mineurs sur les plateformes en ligne

Une charte est en chantier à l’Arcom afin de « promouvoir l’information et la protection des utilisateurs relative à la diffusion de l’image des mineurs sur les plateformes en ligne ». Le document pourrait être finalisé dans les deux ou trois mois selon nos informations. Next INpact dévoile la version de travail.

La loi du 19 octobre 2020 s’est fixée pour enjeu l’encadrement de « l'exploitation commerciale de l'image d'enfants de moins de seize ans sur les plateformes en ligne ». 

Cette loi sur les « enfants YouTubers » ou « influenceurs » rend nécessaire une autorisation administrative préalable « au tournage des vidéos lucratives même en famille, ainsi qu’un contrôle médical de l’enfant », outre « la consignation d’une partie conséquente des sommes perçues auprès de la Caisse des dépôts et consignations au titre de la rémunération du travail de l'enfant », dixit Bruno Studer, député LREM à l’origine du texte, lors du commentaire d’un tout récent décret d’application.  

Au-delà de cet encadrement formel, l’article 4 de cette loi réclame aussi une action des plateformes par l’adoption de chartes destinées à informer les utilisateurs des « risques, notamment psychologiques », associés à la diffusion de ces images comportant des mineurs.

Au menu ? Sensibilisation des jeunes de moins de seize ans sur les conséquences de ces diffusions sur leur vie privée « et sur les moyens dont ils disposent pour protéger leurs droits, leur dignité et leur intégrité morale et physique ». 

Avec ces instruments de droit souple, les plateformes doivent favoriser le signalement « de contenus audiovisuels mettant en scène des enfants de moins de seize ans » qui leur seraient préjudiciables. Les mêmes opérateurs doivent prendre « toute mesure utile pour empêcher le traitement à des fins commerciales, telles que le démarchage, le profilage et la publicité basée sur le ciblage comportemental, des données à caractère personnel de mineurs qui seraient collectées par leurs services à l'occasion de la mise en ligne par un utilisateur d'un contenu audiovisuel où figure un mineur ». 

Enfin, l’enjeu de ce levier est aussi d’améliorer le droit à l’oubli de ces mineurs tout comme « la détection des situations dans lesquelles la réalisation ou la diffusion de tels contenus porteraient atteinte à la dignité ou à l'intégrité morale ou physique des mineurs de moins de seize ans qu'ils font figurer ».

L’article 5 confie enfin le rôle de chef d’orchestre à l’Arcom. L’autorité est chargée à la fois de promouvoir leur adoption et de dresser un bilan périodique. 

Plusieurs risques identifiés 

Next INpact a pu consulter un document de travail, à savoir le projet de charte qui pourra être ouvert à la signature des plateformes en ligne comme YouTube ou Dailymotion.

Le document de 10 pages, annexes comprises, identifie ainsi plusieurs risques associés à la diffusion de l’image de mineurs en ligne, à savoir : 

  • cyberharcèlement, 
  • injures, moqueries, menaces de mort, 
  • haine en ligne, 
  • réutilisation non consentie d’images personnelles (notamment sexuellement explicites), 
  • l’exploitation sexuelle, 
  • la perturbation de la représentation de soi-même, de la confiance en soi et de la représentation en matière de vie amoureuse et sexuelle, ainsi que celle d’autres mineurs dont l’image est diffusée,
  • la mauvaise gestion d’une trop forte notoriété, 
  • la perturbation du rythme scolaire et de l’équilibre entre vie « hors ligne » et « en ligne »,  
  • l’épuisement découlant d’une participation consentie ou non à des vidéos diffusées par l’un des parents,
  • les éventuels préjudices des actions en ligne sur la future vie d’adulte, sur celle d’autres mineurs dont l’image est diffusée.

Outre des informations sur des textes juridiques, les plateformes signataires s’engagent ainsi à lancer des campagnes d’information, en collaboration avec les associations de protection de l’enfance, à destination des plus jeunes. Pour les parents, mêmes opérations mais axées sur les « conséquences sur la vie privée des mineurs » et « des risques psychologiques et juridiques potentiels associés » à ces diffusions. 

Un texte prescripteur d’engagements très précis 

Au-delà de ces considérations généralistes, le texte se veut aussi beaucoup plus prescripteur lorsqu’il réclame de faire figurer dans les CGU « l’interdiction des contenus audiovisuels qui porteraient atteinte à la dignité ou à l'intégrité morale ou physique des personnes, tout particulièrement des mineurs ».

Les signataires devront tout autant « mettre en place des outils permettant aux utilisateurs de renseigner la présence de mineurs dans un contenu audiovisuel avant le téléversement de celui-ci sur leur service comme, par exemple, un système de case à cocher par l’utilisateur ».

Ceci fait, les opérateurs « s’engagent à faciliter le signalement, par les utilisateurs, des contenus mettant en scène des mineurs qui porteraient atteinte à la dignité ou à l'intégrité morale ou physique de ces derniers ». 

Un bouton de signalement (« Mineur en danger » ou « Protection des mineurs ») devra être apposé à proximité du contenu en cause, du moins sur le volet français des plateformes d'hébergement. 

Collaboration avec le monde associatif

Les mêmes opérateurs devront par ailleurs prioriser les alertes, dans le flot des signalements reçus, dès lors qu’ils concernent des contenus mettant en scène des mineurs, lorsque là encore ils sont susceptibles de porter atteinte à leur dignité ou à leur intégrité morale ou physique.

En l’état de ce document de travail, ces mêmes signataires pourraient aussi s’engager « à mettre en place des canaux privilégiés et/ou des partenariats avec des "tiers de confiance" (dits aussi "trusted flaggers") pour identifier des contenus portant atteinte à la dignité ou à l’intégrité morale ou physique des mineurs ».  

Ils devront aussi « mesurer l’efficacité de leurs outils de détection ».

L’objectif sera ainsi de « protéger les mineurs en encourageant l’identification et le signalement de contenus audiovisuels dans lesquels des mineurs sont humiliés, manipulés ou en danger ». 

Au regard de ses largesses, le texte pourra-t-il permettre à des associations de signaler des contenus qu’elles estiment réservés aux adultes, mais accessibles aux mineurs ? Un front sur lequel se sont engagées deux associations, la COFRAD et OPEN.

Volet RGPD-DSA

Un dernier volet ressemble à une pré-transcription du DSA, dans le sillage du RGPD, puisque les signataires devront « limiter le traitement à des fins commerciales des données à caractère personnel des mineurs ». 

L’enjeu de ce projet Arcom devrait intéresser de près la CNIL à mesure qu’il s’agit d’ « empêcher une personnalisation excessive des contenus commerciaux présentés à des mineurs de sorte à ne pas les exposer à une trop forte sollicitation publicitaire qui aurait un impact sur la construction de leur identité ».

L’article 45 de la loi du 6 janvier 1978 modifiée après le RGPD fixe à 15 ans l’âge à partir duquel un mineur peut consentir à ce que ses données soient traitées. En dessous de ce seuil, il faut l’aval du titulaire de l'autorité parentale.

Dans la suite des engagements, les opérateurs promettent alors de prendre toute mesure utile visant à « empêcher le traitement à des fins commerciales des données à caractère personnel de mineurs qui seraient collectées par leurs services à l'occasion de la mise en ligne par un utilisateur d'un contenu audiovisuel où figure un mineur », tout en limitant « le traitement à des fins commerciales des données à caractère personnel des mineurs utilisateurs ». Rien n’est dit concrètement sur les modalités du contrôle de majorité ou de minorité des personnes concernées. 

Enfin, s’agissant du droit à l’effacement, « une interface sous la forme de tableau de bord devrait être privilégiée, en raison de sa simplicité d’utilisation pour les mineurs. Elle pourrait comprendre, par exemple, des informations sur les entités tierces qui utilisent les données à caractère personnel ou un canal dédié à l’exercice du droit à l’effacement. Des formulaires dédiés, clairs et précis au regard des capacités de compréhension d’un mineur, et simples à remplir permettent de faciliter l’exercice de ce droit ».

L’Arcom organisera chaque année une réunion avec tous les signataires pour jauger « les progrès réalisés », mais aussi « partager les bonnes pratiques, mais aussi les problématiques auxquelles ils font face s’agissant de la protection des mineurs sur les plateformes en ligne ». Elle dressera un bilan, et promet de consulter la CNIL sur le volet « données à caractère personnel » de la charte. 

2
Avatar de l'auteur

Écrit par Marc Rees

Tiens, en parlant de ça :

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

Toxique de répétition

17:15IA et algorithmesSciences et espace 0
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Ou comment briller en société (de service)

16:53Sécurité 0
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Dangereuse, mais spécifique ?

15:57Sécurité 7

Sommaire de l'article

Introduction

Plusieurs risques identifiés 

Un texte prescripteur d’engagements très précis 

Collaboration avec le monde associatif

Volet RGPD-DSA

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IA et algorithmesSciences et espace 0
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécurité 0
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécurité 7
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hardware 1
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécurité 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

0
Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardwareInternet 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IA et algorithmesSociété numérique 53

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA et algorithmes 27
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitInternet 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société numérique 4
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitInternet 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

0

Le poing Dev – round 6

Next 143

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 9
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA et algorithmes 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Sciences et espace 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hardware 7

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

0
Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

651e édition des LIDD : Liens Intelligents Du Dimanche

Internet 30
Bannière de Flock avec des bomes sur un fond rouge

#Flock, le grand remplacement par les intelligences artificielles

Flock 34
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #9 : LeBrief 2.0, ligne édito, dossiers de fond

Next 65
Pilule rouge et bleue avec des messages codés

Encapsulation de clés et chiffrement d’enveloppes

Sécurité 31
Empreinte digital sur une capteur

Empreintes digitales : les capteurs Windows Hello loin d’être exemplaires

Sécurité 20

#LeBrief : succès du test d’Ariane 6, réparer plutôt que remplacer, Broadcom finalise le rachat de VMware

0

Hébergeurs, éditeurs, espaces de conversation ? La difficile régulation des réseaux sociaux

Réseaux sociauxSociété numérique 23
Puces en silicium

Silicium : un matériau indispensable et omniprésent, mais critique

HardwareSciences et espace 25
Panneau solaire bi-face Sunology Play

Panneaux solaires en autoconsommation : on décortique le kit Play de Sunology

Hardware 29
The eyes and ears of the army, Fort Dix, N.J.

Un think tank propose d’autoriser les opérations de « hack back »

Sécurité 13

#LeBrief : Ariane 6 sur le banc de test, arrestation algorithmique, entraînement d’IA par des mineurs

0
Logo de Google sur un ordinateur portable

Chrome : Google corrige plusieurs failles sévères, dont une déjà exploitée

Logiciel 2

vieux téléphones portables

Des cadres supérieurs invités à n’utiliser que des téléphones jetables à Hong Kong

Sécurité 20

La Dreamcast de Sega fête ses 25 ans

Hardware 21

Pilule rouge et bleue avec des messages codés

Démantèlement d’un groupe ukrainien de rançongiciels

Sécurité 5

Commentaires (2)


allea Abonné
Il y a 2 ans

hmmm…
je suis enseignant, et on a une chaine youtube faites par les élèves (autant vous dire qu’on est LOIN de la monétisation ;D ). Jusque là, je me contentait d’une autorisation parentale, droit à l’image…
mais si ça devient une usine à gaz, je vais devoir arrêter cet atelier qui, pourtant, les motive…


RuMaRoCO Abonné
Il y a 2 ans

De ce que je retiens (malgré la qualité de l’article) beaucoup de blabla pour toujours la même chose :
Quid de la responsabilité du responsable légal (Parent ou autre) du mineur (moins de 18 ans)
Ce qui m’énèrve c’est ça : le “RGPD fixe à 15 ans” Pourquoi ?
Soit on estime que le mineur est apte dès 15 ans des conséquences de ces actes et à ce moments on descent la majorité à cette age ou bien on applique les lois qui existent déjà qui en substance indique le parent doit s’assurer du bien être de son enfant …



¨PS : J’adore aussi ce passage :
réutilisation non consentie d’images personnelles (notamment sexuellement explicites),
l’exploitation sexuelle”….
Ne parle pas de mineurs déjà….Donc la loi en vigueur existe déjà je crois non ?