Article 17 : la justice européenne valide le filtrage, s'il respecte les exceptions au droit d'auteur

Article 17 : la justice européenne valide le filtrage, s’il respecte les exceptions au droit d’auteur

#Boncourage

Avatar de l'auteur

Marc Rees

Publié dansDroit

26/04/2022
5
Article 17 : la justice européenne valide le filtrage, s'il respecte les exceptions au droit d'auteur

Au terme d’un arrêt de 31 pages, la Cour de justice de l’Union européenne rejette le recours de la Pologne contre l’article 17 de la directive droit d’auteur. L’article orchestre une obligation de filtrage sur l’ensemble des plateformes comme YouTube. Le juge européen a néanmoins multiplié les rappels aux garanties que devront respecter les États membres.

Varsovie avait vu d’un mauvais œil cette pierre angulaire de la directive de 2019. Ce nouveau régime de responsabilité oblige les grands hébergeurs comme YouTube ou Dailymotion à filtrer les contenus selon des modalités dépendant de leur âge ou de leur taille.

Une directive de 2000 sur le commerce électronique a rendu ces hébergeurs responsables des contenus illicites signalés qu’ils choisissent de conserver. L’article 17 de la directive sur le droit d’auteur a changé la donne s’agissant de l’immense océan des contenus protégés par le droit d’auteur.

Dans ce régime d’exception, les plateformes de partage sont désormais responsables immédiatement de tous les contenus illicites mis en ligne par les internautes. Pour « liciter » ces contenus, ces intermédiaires doivent alors passer des accords de licence avec les sociétés de gestion collective et les titulaires de droits pour chaque image, musique, dessin, vidéo, etc. mis en ligne à chaque instant. Une manière de rééquilibrer le « partage de valeur » et combler le « value gap » entre le monde de la tech et les industries culturelles.

À défaut de signer de tels accords de licence, les grands prestataires de services de partage peuvent malgré tout échapper à ce régime juridique s'ils s’efforcent de déployer différentes solutions en l’état de l’art, pour retirer promptement les contenus signalés (« notice and take down »), empêcher la mise en ligne des contenus pour lesquels les titulaires de droits ont fourni des empreintes et autres informations pertinentes (« notice and stay down »). Et en amont, ces intermédiaires doivent démontrer en plus avoir fourni les meilleurs efforts pour obtenir l’autorisation des titulaires de droits.

C’est ce régime qu’a épinglé la Pologne dans un recours visant plusieurs de ces étages qu’elle estime peu en phase avec les droits fondamentaux, liberté d’expression et d’information en tête. Et pour cause : afin d’exonérer la responsabilité des plateformes, cet échafaudage juridique soutenu par la France les oblige concrètement à surveiller les contenus mis en ligne. Et aux yeux de Varsovie, les garanties qui viennent compenser cette atteinte aux droits et libertés ne sont pas au rendez-vous.

L’article 17 organise bien une obligation de filtrage

D’entrée, la Cour de justice de l’UE a relevé que les dispositions ciblées par Varsovie (le point b et le point c de l’article 17, paragraphe 4) étaient indétachables du reste de l’article 17. Le procès chirurgical s’est donc transformé en une remise en cause intégrale de l’article en cause.

Elle n’a pas été bernée par les discours entendus durant les débats parlementaires venus des sociétés de gestion collective comme la SACEM. Avec de telles obligations, des acteurs comme YouTube, et autres fournisseurs de services de partage d’un grand nombre de contenus sont bien « contraints de recourir à des outils de reconnaissance et de filtrage automatiques ». D’ailleurs, « ni les institutions défenderesses ni les intervenants (dont la France, ndlr) n’étaient en mesure, lors de l’audience devant la Cour, de désigner des alternatives possibles à de tels outils ».

La Cour en déduit naturellement qu’ « un tel contrôle et un tel filtrage préalables sont de nature à apporter une restriction à un moyen important de diffusion de contenus en ligne et à constituer, ainsi, une limitation du droit garanti à l’article 11 de la Charte», qui protège la liberté d’expression.

Ceci posé, l’enjeu de l’arrêt de grande chambre a été de déterminer si cette atteinte à la liberté d’expression et d’information est bien proportionnée. Pour la Pologne, les garanties sont insuffisantes, ce que contestent le Parlement, le Conseil, l’Espagne, la Commission et la France en chœur.

Un article 17 apte et nécessaire, mais…

Dans ce traditionnel exercice de poids et mesures, la CJUE relève que les limitations à ces libertés sont bien « prévues par la loi », en l’occurrence une directive européenne, transposée par chaque État membre. Autre certitude : l’article 17 ne doit pas aboutir à ce que les opérateurs prennent des mesures qui affecteraient des contenus non attentatoires au droit d’auteur et aux droits voisins. En clair, les usages licites ne doivent donc pas être bloqués par les filtres, lesquels se doivent d’être « strictement ciblées pour permettre une protection effective du droit d’auteur ».

Partant, la décision considère que l’article 17 n’est pas seulement « apte » mais aussi « nécessaire » dans le cadre de la protection de la propriété intellectuelle. Et la juridiction considère que l’article n’entraîne pas de restriction disproportionnée aux droits fondamentaux. La Cour s’en explique par une série de rappels, qui sont autant de coups de semonce adressés à l’ensemble des États membres, dont la France.

directive droit d'auteur article 17 article 13

Notre schéma de l'article 13 (devenu article 17) Crédits : Next INpact

…un article qui doit respecter de multiples garanties

Par exemple, un « système de filtrage qui risquerait de ne pas suffisamment distinguer entre un contenu illicite et un contenu licite, de telle sorte que son déploiement pourrait avoir pour effet d’entraîner le blocage de communications à contenu licite, serait incompatible avec le droit à la liberté d’expression et d’information ».

Les juges européens rangent dans le tiroir des contenus « licites » qui doivent donc passer ces filtres ceux élevés dans le domaine public, ceux mis en ligne à titre gratuit par l’auteur, et ceux relevant des exceptions au droit d’auteur. Les plateformes doivent en conséquence laisser passer les contenus mis en ligne « aux fins spécifiques de la citation, de la critique, de la revue, de la caricature, de la parodie ou du pastiche ».

En outre, la mise en œuvre du filtrage est conditionnée à la transmission des informations techniques (en pratique des empreintes). Cette transmission de ces données est une « condition préalable » à la mise en responsabilité des fournisseurs de services. Sans ces empreintes, « ces derniers ne seront pas amenés (…) à rendre indisponibles les contenus visés ».

La directive interdit par ailleurs de soumettre ces acteurs à une obligation générale de surveillance. Les plateformes n’ont donc pas à prévenir l’upload et la mise à disposition « de contenus dont la constatation du caractère illicite nécessiterait, de leur part, une appréciation autonome du contenu au regard des informations fournies par les titulaires de droits ainsi que d’éventuelles exceptions et limitations au droit d’auteur ». En somme, les informations transmises par les titulaires de droit devront être détaillées, précises, épaisses.

Pour la Cour, cela implique que parfois des contenus illicites passeront entre les mailles, et que les titulaires de droit devront alors se retourner vers une solution plus traditionnelle : la notification (ou la dénonciation) des contenus en motivant là encore dûment leur demande.

Avant de rappeler que la protection du droit d’auteur ne doit pas être assurée de manière absolue, elle souligne que cette notification devra contenir « suffisamment d’éléments pour permettre au fournisseur de services de partage de contenus en ligne de s’assurer, sans examen juridique approfondi, du caractère illicite de la communication du contenu concerné et de la compatibilité d’un éventuel retrait de ce contenu avec la liberté d’expression et d’information ».

En outre, lorsqu’un internaute considèrera qu’un contenu a été injustement retiré, il pourra toujours introduire un recours extrajudiciaire, devant être examiné « sans retard indu et faire l’objet d’un contrôle exercé par une personne physique ». Et cet internaute devra toujours bénéficier d’un recours judiciaire pour faire valoir par exemple le bénéfice d’une exception qui n’aurait pas été reconnu.

Un juste équilibre

Dans ses conclusions, l’avocat général avait relevé que la France militait pour une vision très rude de l’article 17, avec un blocage préventif de tous les contenus et au besoin la possibilité pour les internautes de multiplier ces recours. Sa réponse fut plus explicite que l'arrêt rendu ce jour : « si ces utilisateurs devaient systématiquement faire valoir leurs droits dans le cadre du dispositif de traitement des plaintes, il est fort probable qu’une partie significative d’entre eux renoncerait à le faire, faute, notamment, de connaissances suffisantes pour évaluer si l’utilisation qu’ils font de ces objets est légitime ». 

Dans ses lignes directrices, la Commission européenne avait déjà donné aux États membres la voie à suivre : « lorsqu’un téléversement correspond à un fichier spécifique fourni par les titulaires de droits, le blocage automatisé, c’est-à-dire l’interdiction du téléversement à l’aide de technologies, devrait en principe se limiter aux téléversements qui portent manifestement atteinte au droit d’auteur ».

Pour les autres, ceux non manifestement illicites, « devraient en principe être mis en ligne et [pourront] faire l’objet d’un contrôle par une personne physique a posteriori lorsque les titulaires de droits s’y opposent en envoyant une notification ». 

Dans tous les cas, la grande chambre de la CJUE demande aux États membres d’opter lors de la transposition de ce texte, pour une interprétation de l’article 17 qui permette « d’assurer un juste équilibre entre les différents droits fondamentaux protégés par la Charte ». Et lors de sa mise en œuvre, ils devront toujours respecter le principe de proportionnalité et les droits fondamentaux. C’est après ces multiples nuances, réserves et précisions que la Cour de justice a finalement décidé de rejeter le recours de la Pologne.

Le clin d'oeil à la décision Hadopi

Cette procédure venue de Pologne était très ambitieuse, mais elle a eu l’avantage de pousser la CJUE à fixer des limites qui pourront être rappelées par les plateformes d’hébergement lors des premiers contentieux. Face à des ayants droit favorables à toujours plus de filtrage massif, peu importe les conséquences sur la liberté d’expression et d’information, ces intermédiaires pourront toujours opposer la nécessité de protéger les exceptions de citation, de critique, de revue, de caricature, de parodie ou de pastiche, tout en invitant les titulaires de droit à se contenter d’une notification dûment motivée.

Au final, relevons ce passage, qui vient comme en écho à la décision Hadopi de 2009 du Conseil constitutionnel : « Internet est aujourd’hui devenu l’un des principaux moyens d’exercice par les individus de leur droit à la liberté d’expression et d’information. Les sites Internet et notamment les plateformes de partage de contenus en ligne contribuent, grâce à leur accessibilité ainsi qu’à leur capacité à conserver et à diffuser de grandes quantités de données, grandement à améliorer l’accès du public à l’actualité et, de manière générale, à faciliter la communication de l’information, la possibilité pour les individus de s’exprimer sur Internet constituant un outil sans précédent d’exercice de la liberté d’expression. »

5
Avatar de l'auteur

Écrit par Marc Rees

Tiens, en parlant de ça :

Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Me voilà à poil sur Internet

17:18 Next 8
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Incitation à la LCEN

16:41 Droit 8
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

Site de Q

14:17 IA 10

Sommaire de l'article

Introduction

L’article 17 organise bien une obligation de filtrage

Un article 17 apte et nécessaire, mais…

…un article qui doit respecter de multiples garanties

Un juste équilibre

Le clin d'oeil à la décision Hadopi

Autoportrait Sébastien

[Autoportrait] Sébastien Gavois : tribulations d’un pigiste devenu rédac’ chef

Next 8
Logo de StreetPress

Pourquoi le site du média StreetPress a été momentanément inaccessible

Droit 8
Amazon re:Invent

re:Invent 2023 : Amazon lance son assistant Q et plusieurs services IA, dont la génération d’images

IA 10
Un œil symbolisant l'Union européenne, et les dissensions et problèmes afférents

Le Conseil de l’UE tire un bilan du RGPD, les États membres réclament des « outils pratiques »

Droit 3

19 associations européennes de consommateurs portent plainte contre Meta

DroitSocials 13

#LeBrief : Ariane 6 l’été prochain, Nextcloud rachète Roundcube, désinformation via la pub

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 6
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 31
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 47
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 10
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 7

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 12
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 38
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 7
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le poing Dev – round 6

Next 151

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 9
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Science 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hard 7

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

651e édition des LIDD : Liens Intelligents Du Dimanche

Web 30
next n'a pas de brief le week-end

Le Brief ne travaille pas le week-end.
C'est dur, mais c'est comme ça.
Allez donc dans une forêt lointaine,
Éloignez-vous de ce clavier pour une fois !

Commentaires (5)


Tirnon Abonné
Il y a 2 ans

Actuellement, et sauf erreur de part, les plateformes comme youtube filtrent sans discernement et sans prendre en compte l’exceptions de citation, de critique, de revue, de caricature, de parodie ou de pastiche. L’article 17 vas permettre plus de recourt contre ça ou au contraire empirer ce problème ?


fabcool
Il y a 2 ans

pareil même question,
le “s’il respecte les exceptions au droit d’auteur”



alors que par exemple poster une vidéo youtube en privé, non référencé, avec des destinataires explicitement invités via l’application



il y a quand même un blocage content-ID , alors que l’exception s’applique à l’usage privé et familial, là impossible de faire la réclamation de la réclamation, même le menu déroulant ne propose pas l’exception de l’usage familial & privé.



Il faut refaire tout le chemin judiciaire pour faire jurisprudence du coup ?


vizir67 Abonné
Il y a 2 ans

Pour « liciter » ces contenus, ces intermédiaires doivent alors
passer des accords de licence avec les sociétés de gestion collective et les titulaires de droits..



tout est dit dans cette phrase ! :fumer:


tpeg5stan Abonné
Il y a 2 ans

Conclusion nuancée de la CJUE, qui ressemble malheureusement un peu à un « l’intendance suivra » (ce qui est un peu normal quelque part…)



Évidemment la France s’est encore distinguée, et évidemment les ayant tous-les-droits avaient juré leurs grands dieux qu’il n’y aurait pas de filtrage


MarcRees Abonné
Il y a 2 ans

Tirnon a dit:


Actuellement, et sauf erreur de part, les plateformes comme youtube filtrent sans discernement et sans prendre en compte l’exceptions de citation, de critique, de revue, de caricature, de parodie ou de pastiche. L’article 17 vas permettre plus de recourt contre ça ou au contraire empirer ce problème ?





  • ContentID c’est la politique maison (le système de filtrage YT) (Un peu comme les filtres antitétons sur Facebook, qui ne répondent à aucune obligation)

  • L’article 17, c’est une norme, transposée en France, qui s’impose.



C’est deux niveaux différents. Les procédures et garanties ici décrites s’appliqueront à ContentID si ces deux volets sont unifiés sous l’égide de la directive droit d’auteur.