Connexion
Abonnez-vous

L’article 17 sur le filtrage en procès devant la justice européenne

Validation, précisions ou invalidation ?

L’article 17 sur le filtrage en procès devant la justice européenne

Le 12 juillet 2021 à 15h08

Jeudi, la Cour de justice de l’Union européenne entendra en « grande chambre » les conclusions de l’affaire numérotée C-401/19. Derrière cette référence, l’action menée par la Pologne contre l’article 17 de la directive Droit d’auteur relatif au filtrage des contenus sur les plateformes comme YouTube.

La décision est surveillée comme le lait sur le feu par les industries culturelles. Elle vient en effet frapper le régime exceptionnel introduit par l’article 17 (ex-article 13) de la directive de 2019.

Cette disposition est censée améliorer le partage de valeur sur les plateformes mettant à disposition un grand nombre d’œuvres culturelles. Elle est avant tout une délicate machinerie juridique venant créer une parenthèse dans le régime de responsabilité propre aux hébergeurs.

Très schématiquement, depuis la directive de 2000 sur le commerce électronique, les services en ligne qui stockent des fichiers à la demande des internautes, avec pour finalité de partage ou non, ne sont pas responsables du caractère illicite des données copiées. Ils le deviennent lorsqu’alertés ou notifiés de la présence d’un tel contenu, ils décident de ne rien faire. L’article 17 de la directive change considérablement la donne.

Sous ce nouveau régime, les plateformes comme YouTube sont responsables dès le premier octet illicite. Cette épée sur leurs épaules est taillée pour les inciter à passer des accords de licence avec les sociétés de gestion collective, et ce afin de « liciter » ces contenus, si possible contre espèces sonnantes et trébuchantes.

Pour échapper à ce régime de responsabilité directe, les plateformes qui n’auraient pas obtenu d’accord de licence devront remplir une série de conditions draconiennes. Démontrer avoir fait leur meilleur effort pour signer une telle licence. C’est la première obligation de moyens.

Elles devront également avoir fait d’autres « meilleurs efforts » pour retirer les contenus notifiés par les ayants droit, filtrer les contenus à l’upload et empêcher les remises en ligne, à condition dans ces deux derniers cas que les ayants droit leur aient transmis les « informations pertinentes et nécessaires » (les empreintes des œuvres).

Un régime qui transpire le filtrage à tous les étages, et qui a été attaqué par la Pologne devant la Cour de justice de l’Union européenne. C’est ce jeudi que le rapporteur public Saugmandsgaard Øe rendra ses conclusions suite à une série de questions préjudicielles soulevées par l’État membre.

La Pologne demande ainsi l’annulation de « l’article 17, paragraphe 4, sous b) et [de] l’article 17, paragraphe 4, sous c), in fine (i.e. dans la partie contenant la formule «et ont fourni leurs meilleurs efforts pour empêcher qu’ils soient téléversés dans le futur, conformément au point b)») de la directive (UE) 2019/790 du Parlement européen et du Conseil du 17 avril 2019 sur le droit d’auteur et les droits voisins dans le marché unique numérique et modifiant les directives 96/9/CE et 2001/29/CE »

Ces deux dispositions (article 17, paragraphe 4, points b et c) concernent justement l’obligation pour les plateformes de fournir les meilleurs efforts pour retirer mais aussi garantir l'indisponibilité des œuvres sur ces services de partage.

À titre subsidiaire, la République de Pologne demande tout simplement l’annulation intégrale de l’article 17, si du moins les dispositions querellées ne peuvent être dissociées des autres alinéas du même texte. Elle invoque dans ses arguments « la violation du droit à la liberté d’expression et d’information garanti par l’article 11 de la charte des droits fondamentaux de l’Union européenne ».

Selon son scénario, « afin d’éviter la mise en cause de leur responsabilité », elle craint que les plateformes concernées procèdent « à une vérification automatique préalable (filtrage) des contenus partagés en ligne par les utilisateurs, ce qui implique par conséquent de mettre en place des mécanismes de contrôle préventif ».

Or, selon l’État membre, « de tels mécanismes mettent en cause l’essence même du droit à la liberté d’expression et à l’information et ne respectent pas l’exigence de proportionnalité et de nécessité de toute atteinte à ce droit ».

Pendant ce temps, en France...

Au CSPLA, antichambre névralgique du ministère de la Culture où siège la totalité des industries culturelles, le rapport sur les outils de reconnaissance des contenus sur les plateformes numériques de partage présenté fin 2020, estime au contraire que cet article 17 « est conforme aux droits fondamentaux, car il prévoit, dans sa mise en oeuvre, la définition d’un équilibre entre ces droits ». C’est ce que retracent les pages d’un rapport présenté voilà quelques jours.

« L’article 17 permet d’atteindre cet équilibre entre ces droits à travers la garantie des exceptions et le mécanisme de plainte ex post ». Plus exactement, « la combinaison des outils de reconnaissance en amont et d’un mécanisme de plaintes en aval permettrait une mise en oeuvre équilibrée » de cette même disposition, en ce sens que les internautes dont les contenus auront été bloqués pourront toujours faire appel auprès de la plateforme, sous l’œil du régulateur.

Cet article 17 est entré en vigueur le 7 juin dernier en Europe. En France, sa transposition a déjà été assurée par ordonnance quelques semaines plus tôt. Le texte français, publié au Journal officiel, « opère une transposition fidèle du texte européen » a applaudi la Hadopi dans son avis publié pour l’occasion, non sans regretter « que cette ordonnance ne confie pas expressément à l’autorité publique une mission d’évaluation de l’efficacité des mesures techniques d’identification mises en place par les plateformes numériques ». 

L'arrêt de la CJUE attendu plusieurs mois après les conclusions lues jeudi devrait s'inspirer des orientations publiées le 4 juin dernier par la Commission européenne. Une sorte de trousse à outils pour assurer la mise en œuvre de l’article 17.

Elle y apporte en effet plusieurs précisions. Ainsi, « lorsqu’un fournisseur de services prend contact avec un titulaire de droits, mais que ce dernier refuse d’engager des négociations en vue de l’octroi d’une autorisation pour ses contenus ou qu’il rejette les offres raisonnables faites de bonne foi, le prestataire de services devrait être considéré comme ayant respecté l’obligation de moyens »

Elle a rappelé que les conditions imposées aux plateformes sont soumises à un principe de proportionnalité, selon le type, la taille et l’audience du service, mais aussi la disponibilité des moyens et l’aiguillon des coûts. « Cela signifie en pratique que les fournisseurs de services de partage de contenus en ligne ne devraient pas être censés appliquer les solutions les plus coûteuses ou les plus sophistiquées si cela s’avère disproportionné dans leur cas particulier ».

L’instance bruxelloise rappelle que l’article 17 « prévoit également que les États membres doivent veiller à ce que les utilisateurs de chaque État membre puissent se prévaloir des exceptions ou limitations existantes pour la citation, la critique, la revue et l’utilisation à des fins de caricature, de parodie ou de pastiche lorsqu’ils téléversent et mettent à disposition des contenus générés par les utilisateurs sur les services de partage de contenus en ligne ».

Elle indique aussi que d’autres utilisations de contenus pourront échapper à ces fourches technologiques en particulier les œuvres élevées dans le domaine public « ou, par exemple, les contenus pour lesquels le seuil d’originalité ou toute autre exigence relative au seuil de protection n’est pas remplie ». Critère qui ne sera pas mince à injecter dans le cadre d’un traitement par filtrage automatisé, puisque la Commission estime que le blocage puis le rétablissement d’un contenu légitime a posteriori ne suffira pas à répondre au texte de la directive.

Elle reconnaît également qu’ « en l’état actuel de la technique, aucune technologie n’est en mesure d’évaluer, selon le niveau requis par la loi, si le contenu qu’un utilisateur souhaite téléverser porte atteinte au droit d’auteur ou relève d’une utilisation légitime ».

Faute de mieux, « lorsqu’un téléversement correspond à un fichier spécifique fourni par les titulaires de droits, le blocage automatisé, c’est-à-dire l’interdiction du téléversement à l’aide de technologies, devrait en principe se limiter aux téléversements qui portent manifestement atteinte au droit d’auteur ». Pour les autres, ceux non manifestement illicite, « devraient en principe être mis en ligne et [pourront] faire l’objet d’un contrôle par une personne physique a posteriori lorsque les titulaires de droits s’y opposent en envoyant une notification ».

Elle cite un exemple : « un téléversement qui ne correspond que partiellement aux informations fournies par les titulaires de droits parce que l’utilisateur a considérablement modifié l’œuvre de manière créative, par exemple en ajoutant des éléments à une image pour créer un "mème", ne porterait généralement pas manifestement atteinte au droit d’auteur (cet exemple peut relever de l’exception de parodie) ».

Autre cas : quand l’upload concerne un fichier comportant de courts extraits « qui représentent une petite proportion de l’œuvre entière identifiée par les titulaires de droits ». Une utilisation qui peut relever de l’exception de citation, et doit être maintenue en ligne.

Commentaires (0)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous

L’article 17 sur le filtrage en procès devant la justice européenne

  • Pendant ce temps, en France...

Fermer