Une nouvelle fois la Cour de Justice de l’Union européenne va se pencher sur le délicat droit à l’effacement dans les moteurs de recherche. Google tente d’enrayer une mécanique qu'il craint sans contrainte, voire automatisée. Le service plaide au contraire pour la prise en compte d’un test d’équilibre. Explications.
Le droit à l’effacement dans les moteurs a été reconnu le 13 mai 2014 par la Cour de justice de l’Union européenne. Dans le célèbre arrêt « Costeja », les juges ont estimé qu’une filiale de Google, en l’occurrence Google Spain, pouvait être reconnue responsable des traitements de données réalisés en Europe. Mieux, les internautes peuvent depuis exiger l'effacement des données qui seraient non adéquates, non pertinentes ou excessives au regard des finalités pour lesquelles elles ont été collectées.
Depuis, cette brèche ouverte par la justice européenne s’est étendue à deux nouveaux fronts. Celui des données sensibles et celui de la portée géographique du droit à l’oubli.
L’affaire Costeja visait des données licitement mises en ligne, ici une ancienne publication légale qui témoignait des difficultés financières d’un individu souhaitant gommer un passé peu scintillant. Dans une série d’affaires examinées en février dernier par le Conseil d’État, se pose maintenant la question des données sensibles voire illicites : le référencement d’une vidéo hébergée sur YouTube, possiblement diffamatoire et épinglant une élue, l’indexation d’articles relatant la mise en examen d’un personnage politique alors que celui-ci a depuis bénéficié d’un non-lieu. D’autres articles sont encore concernés, tels ceux relatifs à la condamnation pour pédophilie d’un ex-animateur d’école, etc.
Une faille dangereuse selon Google
Face à ces informations sensibles, et non plus licites comme dans le cadre de l’affaire Costeja, le droit européen pose parfois un principe d’interdiction de collecte ou de traitement, sauf exceptions qui ne concernent pas les moteurs. En théorie, ceux-ci pourraient donc avoir à oublier sur-le-champ les données illicites, celles relatives à des mises en examen, etc. Les traitements relatifs aux infractions peuvent par exemple être mis en œuvre par les juridictions, les auxiliaires de justice, mais non Google.
Voilà pourquoi la juridiction administrative française a décidé de transmettre la patate chaude à la CJUE, accompagnant ses interrogations d’une série de questions préjudicielles.
Côté Google, Peter Fleischer vient de rappeler dans un billet de blog que la CNIL elle-même avait suivi son refus de désindexer ces contenus. La crainte du service en ligne est maintenant que la CJUE reconnaisse un droit à la désindexation automatique pour les personnes concernées, dès lors qu'on se retrouve en présence de ces données particulières.
La nécessaire mise en balance des intérêts en présence
« L'exigence d’une radiation automatique des moteurs de recherche, sans aucun test d’équilibre, risquerait de créer une faille dangereuse, anticipe celui qui a en charge de la vie privée chez Google. Une telle échappatoire permettrait à quiconque d'exiger la suppression de liens qui devraient pourtant rester [indexés] dans l'intérêt public, ces personnes n’auraient qu’à prétendre qu'ils contiennent un élément relatif à des données personnelles sensibles. »
Google plaide pour une mise en balance des intérêts, ce fameux test d’équilibre ou de proportionnalité qui seul éviterait des coups de faucille automatisés : d’un côté, la protection des données personnelles et celle de la vie privée, de l’autre la liberté d’expression et la liberté d’information. Et au milieu, un moteur d'indexation devenu juge de la possible désindexation, par l'effet de la jurisprudence européenne.
Le périmètre géographique du droit à la désindexation
Un autre problème surgit dans le périmètre du droit à la désindexation. C’est celui de sa portée géographique. Là encore, une autre affaire est sur le grill en France. Cette fois, il s’agit de savoir si la désindexation doit être cantonnée aux versants européens de Google, solution défendue par le géant américain, ou bien s’il doit être mondialisé, avec un coup de gomme étendu au .com.
La CNIL est partisane de cette voie radicale, histoire de maximiser la protection des données personnelles de chaque internaute. « L'application du droit à l’oubli au-delà de l'Europe constituerait un précédent grave » rétorque Peter Fleischer. « Il y aurait un nivellement par le bas sachant que d'autres pays, peut-être moins ouverts et démocratiques que la France, ont déjà ordonné à Google de supprimer des liens de recherche pour tous les citoyens de tous les autres pays du monde. »
Selon nos informations, cette question devait être entendue en décembre dernier par le Conseil d’État, mais celui-ci l’a reportée sans fixer de date précise. Google table sur une nouvelle transmission à la CJUE, en aiguisant une nouvelle fois ses arguments. « Partout où cette affaire est entendue, notre assertion-clé reste la même: aucun pays ne devrait pouvoir imposer ses règles aux citoyens d’autres pays, surtout s’agissant de contenus légaux » conclut Fleischer.
Commentaires (20)
#1
Je m’appelle Google
Et j’ai une grande gueule
j’veux la mise en balance
des intérêts en présence
Wesh, Yo !
#2
Quand on réfléchi bien, cette question est vraiment hyper complexe et Google l’exprime bien :
« L’exigence d’une radiation automatique des moteurs de recherche, sans aucun test d’équilibre, risquerait de créer une faille dangereuse, anticipe celui qui a en charge de la vie privée chez Google. Une telle échappatoire permettrait à quiconque d’exiger la suppression de liens qui devraient pourtant rester [indexés] dans l’intérêt public, ces personnes n’auraient qu’à prétendre qu’ils contiennent un élément relatif à des données personnelles sensibles. »
Mais la vraie question dans cette affaire, c’est pas de savoir si le droit à l’oubli est souhaitable ou non. La question est : qui doit juger ce qui doit être oublié ?
Et je ne suis vraiment pas certain que laisser cela dans les mains d’une société privée (US ou non, on s’en fout) soit la meilleure des réponses.
Et la 2e question est : quel doit être le comportement par défaut ?
Autrement dit : comment arbitrer entre la vie privée de la majorité vs ce qui doit rester publique pour l’interêt de tous ? ou on place le curseur ? Et surtout, pendant combien de temps ???
Ca me parait tellement compliqué et j’ai vraiment l’impression qu’on veut traiter cette problématique d’un point de vue purement technologique avant tout…
#3
à noter que google avait déjà tenté une réponse pour ce qui est de la territorialité des données, en désactivant l’option /ncr (no country redirect) à la fin de l’URL, et en ne servant pas les données concernées depuis le pays en question. Il faut quand même, par exemple, passer par un VPN, pour avoir des informations sur une personne désindexée de Google dans un certain pays.
Donc à voir le résultat sur ces deux questions, qui sont quand même assez fondamentales derrière…
#4
Sauf erreur, dan l’arrêt Costeja Gonzales, la CJUE est assez claire: Il faut balancer l’intérêt personnel du requérant à l’intérêt économique du moteur de recherche et celui du public d’accéder à l’information. La Cour rappelle cependant qu’à priori l’intérêt économique simple n’est pas suffisant.
ps. sauf erreur à nouveau, Google spain est considéré par la Cour comme un établissement de Google Inc. C’est bien google Inc. qui est considéré comme le responsable du traitement, le fait d’avoir un établissement (google spain) situé dans un état membre permettant de lui appliquer la législation transposée de l’état membre.
#5
#6
Alors, j’ai du mal à décider si c’est utile ou pas.
Cependant, j’ai noté une chose étrange quand j’ai cherché l’origine d’une transaction que je n’ai pas faite sur ma carte bleue, en cherchant le nom indiqué sur mon relevé bancaire, il me dit que des résultats ont été supprimés à cause du droit à l’oubli… La société porte le nom du type, je trouve que ça sent l’arnaque et l’abus de droit à l’oubli.
Il y a moyen d’outrepasser le zonage de google pour faire la requête depuis ailleurs qu’en Europe ? Ça devrait donner les résultats sans ce filtrage, non ?
#7
#8
#9
On en sortira jamais de ce truc la.
😕
#10
Une autorité administrative quelconque ( Au hasard la CNIL) pourrait s’occuper de gérer le droit à l’oubli avec possibilité de porter l’affaire au tribunal administratif. .
Les citoyens ferait leur requête auprès de la CNIL qui déciderait de la suite à donner et alimenterait les moteurs de recherche.
Le problème c’est de donner les moyens à l’AA de faire son job.
#11
ça me fait penser à l’industrie alimentaire : la loi impose des étiquetages sur les produits (ingrédients, consignes de tri, indication d’ingrédients allergènes, etc), des normes d’hygiènes, des normes de traçabilité des ingrédients, etc. Et ce sont les industriels qui font tout ça, conformément à la loi, et qui subissent les contrôles d’hygiènes et de douanes.
#12
#13
le problème dans cette histoire de droit à l’oubli c’est que google est en même temps chargé de juger s’il doit appliquer le droit à l’oubli , et appliquer la sentence, et après tu dois aller voir directement la justice sans recours.
En agro alimentaire tu as des règles claires (j’espère en tout cas…), pour le droit à l’oubli c’est le flou intégral, étant donnée la quasi absence de jurisprudence.
Mais étant donné le nombre de dossiers droit à l’oubli traités, pour le coup google n’y met pas de la mauvaise volonté.
Donc à mon sens, ce n’est clairement pas simple
#14
Actuellement, ça se passe de la manière suivante:
2. Le sujet remplit le formulaire que google (ou un autre) pour que les données ne soient plus référencées. C’est google qui décide au cas par cas de le faire ou pas.
en 1 et 2, c’est une masse absolument énorme à gérer de gré à gré, et ça permet de régler presque tous les problèmes. Il faut dire que bien souvent, les données ne sont plus utiles aux sites, ni pertinentes à indexer, il n’y a pas de conflit. En plus, Google (c’est le seul moteur qu’il m’est arrivé de contacter) est relativement bienveillant (rapidité, efficacité et tendance à ne pas dire immédiatement non avec des exigences de preuve relativement faibles)
en 3, on a un contrôle de la légalité du retrait ou du maintient, mais ça coûte cher, ça demande beaucoup d’énergie, y compris pour la CNIL qui a d’autres chats à fouetter. En plus, dès qu’on a une décision, les points 1 et 2 s’y adaptent par peur de l’amende.
La litigation de masse, c’est un problème récurent, pas vraiment ciblé aux questions de droit à l’oubli. Le problème le plus important est de trouver l’équilibre juridique entre droit à être laissé tranquille et droit de la population à accéder à l’information. (avant, on avant déjà des débats de ce type par exemple lorsqu’une émission de TV faisait un reportage pour les 20 ou 30 ans d’une affaire sordide pas vraiment élucidée, ce qui remettait une étiquette sur les participants).
#15
À mon avis, il n’est pas question de demander à Google de remplacer la justice au quotidien, seulement de faire au mieux selon des règles les plus précises possibles avec une transparence totale de ses processus techniques vis-à-vis des autorités publiques (d’où ma référence à l’industrie alimentaire qui doit laisser entrer des inspecteurs sanitaires, du travail et autres dans leurs usines).
Tout le monde est responsable de ce qu’il publie, Google y compris. Quand Next inpact ou Mediapart publie un contenu qui ne plait pas à une personnalité politique ou à un lobby quelconque, ils ne vont pas nécessairement devant le juge pour décider si il faut retirer un contenu. Il y a un arbitrage de gré à gré qui s’opère. Le principal étant de permettre à chaque partie de faire valoir ses droits.
En tout cas, je suis d’accord avec toi, ce n’est pas simple à équilibrer pour contenter plus moins tout le monde et pas simple à contrôler.
#16
#17
L’arrêt de la CJUE
La cour a décidé que le fait, pour google d’utiliser ses algorithmes afin de présenter une série de résultats lorsqu’on fait une recherche sur une personne consiste déjà en un traitement de données personnelles.
En d’autres termes, publier un article sur untel (qu’il soit faux ou plus pertinent ou autre peu importe) sur un site est un traitement soumis à la protection des données.
Faire remonter cet article du site en question en réponse à un requête consiste aussi en un traitement de données personnelles (différent du traitement précédent).
C’est pour cette raison, peu importe l’implication de google dans la création de l’article original, qu’on peut exiger google de déréférencer le contenu.
L’autre raison est que c’est bien souvent moins en déséquilibre vis à vis du droit à l’information de déréférencer plutôt que de supprimer l’article.
Pour en revenir à ton analogie, on n’attend pas de google qu’il contrôle à priori les liens qu’il fournit, mais que si on lui en fait la requête, de bonne foi. Alors, comme un modérateur il étudie la situation et prend une décision.
la pesée des intérêts que fait google permet de résoudre de nombreux cas. Pour le reste, google ou l’individu saisissent la justice afin qu’elle fasse elle même la pesée des intérêts, avec à chaque décision une précision sur le traitement qui est attendu.
En pratique leur formulaire marche relativement bien. Ils jouent le jeu (en tout cas pour l’instant) et acceptent relativement facilement les demandes lorsqu’elles sont étayées.
#18
#19
alors les sujets doivent saisir la justice, qui décidera et punira google s’ils sont de mauvaise foi.
Au final comme pour ceux qui ont un différend avec leur employeur, l’autre partie d’un contrat, ou autre.
#20
Google les mêmes qui n’éprouve aucun scrupule à vouloir dereferencé les contenus subversif (alt right, nationaliste et autre…)