Purge de Google Suggest : retour sur une première avec Christophe Roquilly
Interview du professeur de droit
Le 10 mars 2014 à 13h10
7 min
Droit
Droit
Alors que l’on ne sait toujours pas si Google fera appel de la décision du tribunal de commerce de Paris, qui l’a condamné en janvier dernier à purger plusieurs associations effectuées au travers de ses fonctionnalités « Google Suggest » et « Recherches associées » sur le fondement de la loi Informatique et Libertés, PC INpact revient aujourd’hui sur ce jugement en compagnie du professeur de droit Christophe Roquilly.
Pour la première fois en France, Google a été condamné le 28 janvier dernier à effectuer une purge de sa fonctionnalité « Google Suggest » sur le fondement de la loi Informatique et Libertés (voir notre article, et la décision). Le tribunal de commerce de Paris a en effet estimé que le géant de l’internet mettait en oeuvre un traitement de données personnelles lorsqu’il associait les nom et prénom d’une personne avec d'autres termes connotés négativement. En refusant de supprimer les associations litigieuses, comme le demandait le plaignant, l’entreprise américaine a de ce fait violé le droit d’opposition auquel pouvait prétendre l'intéressé.
Christophe Roquilly, professeur de droit à l’EDHEC et directeur du Centre de recherche LegalEdhec a accepté de répondre à nos questions.
La condamnation de la fonction « Google Suggest » sur le fondement de la loi Informatique et Libertés vous a-t-elle surpris ?
Oui et non ! Non, parce que je pense que ça devait arriver un jour : on a eu des décisions dans le même sens dans d'autres pays en Europe, par exemple au Royaume-Uni, en Espagne ou en Italie. Il y a également eu des actions aux États-Unis, mais elles n'ont rien donné jusqu'à présent.
Après, sur la décision en elle-même, c'est très discutable et critiquable sans pour autant je pense pouvoir être rejeté comme ça d'un revers de main.
Le tribunal de commerce de Paris n’a-t-il pas pris le contrepied de l’arrêt de principe rendu l’année dernière par la Cour de cassation ?
Non, justement, parce que le fondement juridique n'est pas le même. La Cour de cassation a cassé un arrêt rendu par la cour d'appel de Paris, sachant que le demandeur au pourvoi avait fondé sa demande sur la violation par le juge du fond de la loi sur la presse. C'est donc à cette question de droit qu'est venue répondre la Cour de cassation, certes en développant une argumentation sur le fait qu'on a un algorithme, que c'est un robot finalement qui tourne et qui analyse les données. Mais en aucun cas la Cour de cassation n'a pris position sur l'applicabilité ou non au cas d'espèce de la législation relative aux traitements de données personnelles. Pour moi, ce n'est donc pas un jugement qui va à l'encontre de l'arrêt rendu par la Cour de cassation.
N’est-il pas surprenant que cette première condamnation émane d’un tribunal de commerce ?
Non, le tribunal de commerce était tout à fait compétent. À partir du moment où vous assignez en justice une personne morale qui est commerçante, avec une demande de cessation d'un comportement et éventuellement des dommages et intérêts, vous pouvez parfaitement assigner devant un tribunal de commerce.
Quelles sont les implications concrètes de cette décision ?
Déjà, ça n'est qu'un jugement de première instance ! On a cette décision du tribunal de commerce de Paris, mais il est tout à fait envisageable que demain l'on ait une décision d'un autre tribunal de commerce ou d'un juge d'instance venant dire le contraire ! Et puis tout ça, comme d'habitude sur ces questions là, va se finir au niveau de la Cour de justice de l'Union européenne, à qui un juge national va à un moment demander une position de principe sur l'interprétation du droit, sachant qu'il y a une directive européenne derrière.
En fait, ce qui est très clair c'est que Google n'a aucune obligation de contrôler « ex ante » ce que pourrait suggérer le mécanisme de suggestion, c'est-à-dire avant toute demande d'opposition de la part d'un demandeur (citoyen, entreprise,...). Ceci étant dit, Google a tout de même créé dans le passé certains filtres pour éviter l'apparition de suggestions de certaines associations, notamment pour éviter les messages de haine [mais également pour lutter contre le piratage ou la pédopornographie, ndlr]. Par contre, la question qui se posait était de savoir si Google a une obligation ou pas de répondre favorablement à une demande qui serait formulée par une personne, physique ou morale, à partir du moment où cette personne considère que la suggestion de termes associés est négative, lui est néfaste, lui cause préjudice.
Le juge a répondu ici à l'affirmative, en disant qu'à partir du moment où il y un motif légitime de la part du demandeur, il est en droit d'agir en justice sur le fondement de la loi Informatique et Libertés. Il appartient donc à Google de répondre favorablement à cette demande à partir du moment où le motif est légitime et qu'il y a réellement un préjudice qui est causé, sauf à considérer qu'il n'y a pas de traitement de données personnelles. Dans cette affaire, ce n'était pas un problème de traitement interdit, la question étant vraiment de savoir si c'est un traitement de données personnelles ou pas. Le juge dit que oui, mais on n'est pas obligé de considérer que le juge a forcément raison, parce qu'on pourrait aussi estimer qu'il s'agit d'une réponse automatisée à une requête faite par l'utilisateur.
Le tribunal affirme néanmoins qu’il y a bien traitement de données personnelles puisqu’il y avait « diffusion » et « communication par transmission » des données concernant le plaignant...
Oui, il y a un traitement de données, sauf que ce sont des données qui sont dynamiques. Elles ne sont pas fixes, comme lorsqu’il s’agit d’associer un nom et une adresse ou un nom et un numéro de téléphone. Ce données sont dynamiques parce que liées principalement aux requêtes des utilisateurs, le robot ayant une certaine intelligence par rapport au "traitement" des données en question. Ceci étant dit, il me semble difficile de réfuter le fait qu'il n'y ait pas de traitement automatisé. C'est vrai que la loi française peut s'appliquer en dehors même de la constitution d'un fichier... En revanche, ces données-là sont des données dynamiques, donc il n'y pas de fichier.
Après, pour revenir sur ce qui pourrait se passer... C'est assez typique de certaines actions en justice que Google doit subir. C'est-à-dire que concrètement, il y a un point de droit nouveau qui est posé par rapport à un service nouveau ou une fonctionnalité nouvelle que propose Google, et toute la jurisprudence est à construire. Parce que comme le comportement est nouveau, le cadre juridique n’est pas forcément clair ou adapté.
Pour voir les choses par le prisme de Google, l'entreprise pourrait se dire qu'à partir du moment où elle reçoit une demande comme celle-là, il conviendrait de la traiter systématiquement et d’effectuer la modification sollicitée. Sauf que c'est la porte ouverte à quelque chose qui peut être difficilement gérable, même a posteriori. N'importe qui peut dire qu'il considère qu'il a un motif légitime. Par exemple, qu'est-ce que ça pourrait donner si l'on disait que l'on va considérer qu'est un motif légitime le fait de voir son nom associé au mot « escroc ». Peut-être qu'en l'occurrence ça correspond à une vraie condamnation pénale ou à un dossier qui est en cours ? En quoi est-ce qu'on devrait considérer qu'il est légitime pour quelqu'un d'empêcher la visibilité d'une information ? C'est là tout le débat entre liberté d'information et protection de la vie privée ou des données personnelles.
Merci Christophe Roquilly.
Purge de Google Suggest : retour sur une première avec Christophe Roquilly
-
La condamnation de la fonction « Google Suggest » sur le fondement de la loi Informatique et Libertés vous a-t-elle surpris ?
-
Le tribunal de commerce de Paris n’a-t-il pas pris le contrepied de l’arrêt de principe rendu l’année dernière par la Cour de cassation ?
-
N’est-il pas surprenant que cette première condamnation émane d’un tribunal de commerce ?
-
Quelles sont les implications concrètes de cette décision ?
-
Le tribunal affirme néanmoins qu’il y a bien traitement de données personnelles puisqu’il y avait « diffusion » et « communication par transmission » des données concernant le plaignant...
Commentaires (8)
Vous devez être abonné pour pouvoir commenter.
Déjà abonné ? Se connecter
Abonnez-vousLe 10/03/2014 à 13h35
Pas de fichier… Ben voyons, et l’ensemble des suggestions est monté en mémoire vive ?
Même si l’association ne se fait pas au sein d’un même fichier, c’est tout de même stocké et une base de données relationnelle ou pas (NoSQL dans le cas présent je pense) permet de traiter l’information.
Il conviendrait de savoir quelle est la définition du terme fichier dans le droit…
Le 10/03/2014 à 13h39
En quoi est-ce qu’on devrait considérer qu’il est légitime pour quelqu’un d’empêcher la visibilité d’une information ? C’est là tout le débat entre liberté d’information et protection de la vie privée ou des données personnelles.
Effectivement.
Si le système de Google était exempt d’erreurs ce serait tout à fait légitime d’afficher des suggestions, même négatives, puisqu’elles ne seraient qu’un reflet de ce que tapent les gens en réalité.
(On pourrait à la limite reprocher à Google de faire ressortir tout haut ce que tout le monde tape tout bas, mais l’automatisation du truc rendrait la plainte caduque)
Hélas, il me semble qu’on peut biaiser les sorties de l’outil en bombardant le service de recherche avec des requêtes “maison” pour le forcer à mémoriser un pattern. Je sais que ca se fait pour améliorer le ranking d’un site, donc ca doit être faisable pour influencer les suggestions (à confirmer).
Le 10/03/2014 à 14h16
Le 10/03/2014 à 14h46
Le 10/03/2014 à 15h11
Le 10/03/2014 à 15h13
Le 10/03/2014 à 17h17
Constitue un fichier de données à caractère personnel tout ensemble structuré et stable de données à caractère personnel accessibles selon des critères déterminés.
Source
Ici, ce qui est contesté, c’est le mot « stable ».
Le 11/03/2014 à 10h25