Connexion
Abonnez-vous

Lutte contre les abus sexuels sur des enfants : le futur règlement CSAM ligne par ligne (2de partie)

Les moyens, mais quelles fins ?

Lutte contre les abus sexuels sur des enfants : le futur règlement CSAM ligne par ligne (2de partie)

À la première section, l’article 25 décrit la question des autorités compétentes. Ainsi, chaque État membre devra désigner une série d’autorités en charge d’appliquer et contrôler le règlement. L’une d’elles sera désignée « autorité de coordination ».

Le 22 août 2022 à 07h30

« Responding to incidents of child sexual abuse material », le projet de règlement CSAM (pour « Child sexual abuse material ») est enfin disponible dans sa version officielle en français. Next INpact vous propose une explication ligne par ligne du texte, qui suscite de nombreuses réactions. Second volet de notre long format. 

Nous poursuivons notre présentation ligne par ligne du projet de règlement établissant des règles en vue de prévenir et de combattre les abus sexuels sur enfants, des articles 25 à 89, dernier du texte.

Le chapitre 3 du projet de règlement traite de volets beaucoup plus formels, avec en premier lieu celui relatif aux autorités de coordination.

Cette autorité sera, en principe, « responsable de toutes les questions en lien avec l’application et le contrôle de l'application du présent règlement dans l’État membre concerné ». Elle en sera une sorte de chef d’orchestre dans l’État concerné.

Au sein de cette autorité de coordination, un point de contact traitera des demandes d’éclaircissements émises par les fournisseurs visés par une injonction qu'ils jugent peu claire.

Selon l’article 26, ces autorités de coordination devront s’acquitter de leurs missions « de manière objective, impartiale, transparente et en temps opportun ». Cela suppose qu’elles disposent des ressources suffisantes, notamment humaines et financières. De même, elles seront « juridiquement et fonctionnellement indépendantes de toute autre autorité publique », prévient encore le futur texte européen.

Les pouvoirs des autorités de coordination

L’article 27 dresse l’inventaire de leurs pouvoirs : droit d’information auprès des fournisseurs, droit de procéder à des inspections chez les fournisseurs et d’y réaliser des copies, droit de réclamer des explications de tout membre de leur personnel, droit de réclamer d’autres informations notamment pour « évaluer si les mesures prises pour exécuter une injonction de détection, une injonction de retrait ou une injonction de blocage sont conformes ».

La liste n’est pas fermée. Les États membres pourront, s’ils le souhaitent, « accorder des pouvoirs d’enquête supplémentaires aux autorités de coordination », indique le dernier alinéa de l’article 27.

L’article 28 les arme de pouvoirs de coercition. Par exemple, chaque autorité pourra rendre contraignants les engagements pris par chaque fournisseur. De même, elle pourra ordonner la cessation d’infraction, infliger des amendes, avec au besoin une astreinte…

D’autres mesures sont prévues à l’article 29, comme le pouvoir d’exiger de la direction d’un fournisseur qu’il adopte un plan d’action, le pouvoir de demander à l’autorité judiciaire ou une autorité administrative indépendante « d’ordonner la restriction temporaire de l’accès des utilisateurs au service concerné par l’infraction ». De telles restrictions seront temporaires, d’une durée en principe de quatre semaines. Elles seront décidées lorsqu’ « une infraction persiste et cause un préjudice grave ».

Tout ne pourra être décidé. L’article 30 demande que les décisions prises par l’autorité de contrôle soient proportionnées, efficaces et dissuasives, au regard de la gravité, de la répétition ou la durée de l’infraction. 

À l’article 31, ces autorités de coordination sont encore autorisées par le législateur européen « à effectuer des recherches concernant du matériel accessible au public sur les services d’hébergement afin de détecter la diffusion de matériel connu ou nouveau relatif à des abus sexuels sur enfants ».

Les autorités pourront, à cette fin, utiliser les indicateurs figurant dans les bases de données prévues à l’article 44. Nous y reviendrons dans quelques lignes. En attendant, s’ils y trouvent des contenus relatifs à des abus sexuels sur enfants, elles pourront le signaler aux fournisseurs concernés, comme le prévoit l’article 32, afin de « leur demander de retirer ces éléments ou de les rendre inaccessibles, sur la base d’un examen réalisé par les fournisseurs de manière volontaire ».

Les fournisseurs hors UE, les plaintes des utilisateurs

La section 3 traite d’autres dispositions relatives au contrôle de l’application du règlement. Par exemple, indique l’article 33, l’État compétent sera celui où se situe l’établissement principal du fournisseur de service, ou si celui-ci est installé hors UE, là où il désigne son représentant légal.

Un fournisseur n’a pas procédé à cette désignation ? Pas de problème : le règlement en gestation accorde compétence à l’ensemble des États membres. 

Les utilisateurs, mêmes enfants, pourront déposer une plainte. Cela a été dit plus haut, mais l’article 34 prévient que cette plainte pourra être portée devant l’autorité de coordination de leur lieu de résidence. « L’autorité de coordination qui reçoit la plainte évalue celle-ci et, le cas échéant, la transmet à l’autorité de coordination du lieu d’établissement ».

Des sanctions jusqu’à 6 % du chiffre d’affaires mondial

Sur le volet des sanctions, le règlement laisse aux États membres le soin de déterminer le régime applicable, sachant que là encore, ces mesures devront être « effectives, proportionnées et dissuasives ».

Plus exactement, l'article 35 fixe des montants maximums, qui ne pourront dépasser 6 % du chiffre d’affaires mondial de l’exercice précédent. Des seuils moindres sont prévus dans certains cas particuliers : fourniture d’informations incomplètes ou inexactes et restrictions aux contrôles sur place (1 %) ou pour l’astreinte (5 % du CA mondial quotidien).

Dans une logique de proportionnalité, l’État doit prendre en compte plusieurs critères avant d’appuyer sur le bouton sanction : nature, gravité, durée de l’infraction, son caractère intentionnel ou non, les précédents, la solidité financière du fournisseur, sa coopération, etc. On retrouve déjà cette logique dans le RGPD notamment.

Identification des contenus pédos et des sollicitations d’enfants, partage d’informations

L’article 36, premier de la section 4 relative à la « coopération », traite de l’identification et de la communication « de matériel relatif à des abus sexuels sur enfants en ligne ».

Le règlement met en place un système de partage d’informations pour faciliter « les communications entre les autorités de coordination, la Commission, le Centre de l’UE, les autres agences de l’Union concernées et les fournisseurs de services de la société de l’information pertinents ». Il est institué à l’article 39.

Comment sera alimentée cette base de données ? L’article 36 demande aux autorités de coordination de communiquer tous les contenus et les « transcriptions de conversation » identifiés comme pédopornographiques ou de sollicitations de mineurs. Ce sont les autorités de coordination, les autorités judiciaires ou d’autres autorités administratives indépendantes qui qualifieront ces contenus.

Dans ces traitements, seront également transmises les adresses (URL), lorsque des données sont hébergées chez des fournisseurs qui prestent en dehors de l’UE, mais rechignent à les retirer. Même situation pour les fournisseurs installés dans des pays tiers où les autorités sont peu coopératives. Le Centre de l’UE établira la liste noire de ces adresses, comme prévu à l’article 44.  Plusieurs processus sont prévus pour assurer des vérifications et tenir la liste à jour.

L’article 37 gère la coopération transfrontière entre les autorités de coordination (AC). Quand l’AC d’un État membre ou la Commission européenne soupçonne un fournisseur de violer le règlement, elle réclame de l’AC du lieu d’établissement « d’examiner la situation et de prendre les mesures d’enquête et de coercition nécessaires ». Cette dernière a alors deux mois pour fournir une évaluation de l’infraction présumée et expliquer les mesures prises.

Des enquêtes conjointes à plusieurs AC pourront être mises en œuvre, relate l’article 38, sous le haut patronage du Centre de l’UE.

L’article 39 revient sur le système de coopération et de partage d’information précité. Autorités de coordination, Centre de l’UE, Europol, etc. seront appelés à travailler de concert. Et la Commission européenne prendra des actes d’exécution pour détailler la partition.

Le Centre de l’UE

Le chapitre IV concerne l'incontournable Centre de l’UE, plusieurs fois cités dans les articles précédents. Selon l'article 40, il sera désigné agence de l’UE « pour la prévention des abus sexuels sur enfants et la lutte contre ceux-ci ». Il aura la personnalité juridique (article 41).

Son rôle est pivot : faciliter la mise en œuvre des mécanismes de détection, signalement, retrait, blocage, partage d’information, expertise, coopération… Autant de missions précisées par l’article 43.

Le Centre mettra à disposition « des technologies à la disposition des fournisseurs pour l’exécution des injonctions de détection qui leur sont adressées ». Il assurera la maintenance de la base de données des signalements et recevra les injonctions de retraits, de blocage. C’est lui qui sera chargé de créer le système de partage d’informations ou encore la liste noire des URL qui serviront aux opérations de blocage.  

Son siège ? À la Haye, aux Pays-Bas, près d’Europol (article 42). Selon le 72e considérant, en effet, « le fait que le Centre de l’UE et Europol soient situés au même endroit sera bénéfique, compte tenu du caractère hautement sensible des signalements communiqués à Europol par le Centre de l’UE et des exigences techniques de ces deux agences, telles que celles relatives aux connexions de données sécurisées ».

Des bases, des « indicateurs » et des balises

Des bases de données d’indicateurs sont instituées par l’article 44.  Ils aideront à « détecter la diffusion de matériel relatif à des abus sexuels sur enfants », que le contenu soit connu ou non, quand d’autres permettront de détecter des sollicitations d’enfants.

Que seront précisément ces indicateurs ? Le projet de règlement est un peu prude. Il décrit des « identifiants numériques » générés à partir notamment des contenus et transcriptions communiqués par les autorités de coordination « de manière proactive » (considérant 56).

Ils seront en tout cas censés permettre « aux technologies de détecter la diffusion du même matériel (matériel connu) ou de matériel relatif à des abus sexuels sur enfants différent (matériel nouveau), ou les cas de sollicitation d’enfants, le cas échéant » (considérant 61). Ces indicateurs (ou empreintes numériques ?) accompagnés de « balises » pourront indiquer qu’une image signalée « fait partie d’une série d’images et de vidéos représentant la ou les mêmes victimes » (considérant 63).

Base de données des signalements

L’article 45 se penche sur la base de données de signalements. Ce stock sera nourri des alertes adressées par les hébergeurs et les éditeurs de solution de messagerie interpersonnelle. On y trouvera aussi des « indicateurs pertinents et les balises » associées aux contenus.

Ces bases de données seront sécurisées (article 46). Y auront seulement accès les autorités de coordination, ou encore Europol, l’agence européenne spécialisée dans la répression de la criminalité.

La Commission européenne prendra plusieurs actes délégués, destinés à compléter cette législation, afin de préciser les règles relatives aux bases de données d’indicateurs, leur production, la liste des URL, la base de données des signalements, les règles d’accès, les processus de vérifications et d’audits… Autant dire le cœur du cœur de ce futur régime (article 47).   

Les signalements adressés au Centre de l’UE

Les signalements, proprement dits, sont l’objet de l’article 48. Comme précisé à l’article 12, quand un hébergeur ou un éditeur d’une solution de messagerie a connaissance, autrement que par une injonction, d’un abus sexuel potentiel sur mineur, il doit le signaler au Centre de l’UE.

Ce dernier l’analysera et dira si l’alerte est fondée. Le cas échéant, elle sera adressée à Europol et aux autorités répressives. Le fournisseur pourra être tenu de ne pas signaler la transmission de ce signalement à l’utilisateur concerné et même s’abstenir de retirer ces images ou vidéos durant un laps de temps fixé par les forces de l’ordre.

Le Centre de l’UE pourra effectuer des opérations de recherche chez les hébergeurs en utilisant les indicateurs, prévient l’article 49. Cela sera possible pour aider une victime afin de savoir si l’intermédiaire a bien supprimé le contenu signalé, ou bien pour épauler une autorité de coordination afin de jauger la nécessité d’émettre une injonction de détection ou de retrait ou pour vérifier l’efficacité des mesures mises en œuvre. De même, il pourra informer l’hébergeur de la présence d’un contenu prohibé, afin qu’il le retire après examen.  

Pour mener à bien ses missions, l’article 50 demande au Centre de mettre à disposition des intermédiaires des « technologies » qu’ils pourront « acquérir, installer et faire fonctionner, gratuitement » afin d’exécuter des injonctions de détection.

Le Centre dressera la liste de ces outils, qui passeront d’abord sous les yeux d’un comité technique et du comité européen de la protection des données (CEPD).

À la section 3, qui vise les « traitements d’informations », le centre est autorisé à traiter une série de données à caractère personnel au fil de ses différentes missions (article 51).

La section 4 orchestre différentes collaborations, avec un rôle clef pour les agents référents désignés au sein de chaque autorité de coordination (article 52). Le Centre de l’UE devra coopérer pour sa part avec Europol (article 53), l’un et l’autre devant ouvrir le plus largement possible l’accès à leurs systèmes d’information pour les finalités du texte. Enfin, l’article 54 autorise la coopération avec des « organisations partenaires », celles qui, dans la société civile, œuvrent pour la prévention des abus sexuels sur enfants en ligne.

La section 5, qui débute à l’article 55, concerne l’organisation du Centre de l’UE. Son conseil d’administration sera par exemple « composé d’un représentant de chaque État membre et de deux représentants de la Commission », et d’un expert indépendant désigné par le Parlement européen, qui ne disposera toutefois pas du droit de vote. Europol pourra y envoyer un observateur, sur demande.

Les articles suivants concernent ses fonctions (article 57), la présidence (article 58), la tenue des réunions (article 59), les règles de vote (article 60), le conseil exécutif (articles 61 à 63), la direction (articles 64 à 65), le comité des aspects technologiques (article 66). L’article 67 et suivants les questions budgétaires, quand les articles 71 à 75 traitent du personnel.

Enfin, dans la section 8 titrée « dispositions générales », sont envisagés le régime linguistique (article 76), les règles de transparence (article 77) et les mesures de lutte contre la fraude (article 78) ainsi que de responsabilité (article 70) et d’autres points plus périmétriques (jusqu’à l’article 83).

Collecte de données et transparence

La collecte des données et les rapports de transparence exigés par le règlement font l’objet du chapitre V. FAI, hébergeurs et fournisseurs de solutions de messagerie interpersonnelle seront tenus de collecter des données, qui seront ensuite mises à disposition du Centre de l’UE.

Quelles données ? Il s’agira par exemple des technologies utilisées pour répondre à une injonction de détection, du taux d’erreur pour identifier des abus sur enfants et les mesures prises pour les corriger ou les prévenir. Ces intermédiaires devront quantifier les injonctions de retrait et de blocage, outre le temps moyen pour retirer les contenus.

Les autorités de coordination seront également appelées à fournir des données, en particulier sur les suites pénales données « aux signalements d’abus sexuels potentiels sur enfants en ligne que le Centre de l’UE a transférés ». Ils devront identifier les « risques les plus importants et récurrents d’abus sexuels sur enfants en ligne » et établir la liste des intermédiaires visés par une injonction de détection, de retrait ou de blocage.

Le Centre de l’UE établira un bilan du nombre d’indicateurs figurant dans ses bases de données, le nombre de signalements communiqués par les hébergeurs, le nombre de victimes d’abus sexuels, etc.

Des rapports de transparence sont aussi attendus des fournisseurs, explique l’article 84. Ils seront érigés à partir des données fournies aux autorités. Ces rapports annuels seront mis à disposition du public. Évidemment, ils ne devront contenir « aucune information susceptible de porter atteinte aux activités en cours en matière d’assistance aux victimes ou de prévention ou de détection des infractions sexuelles contre des enfants, d’enquêtes ou de poursuites en la matière ».

Enfin, le chapitre VI sur les dispositions finales demande à la Commission européenne de produire tous les cinq ans un rapport d’évaluation. À cette fin, elle aura accès aux informations détenues par les autorités de coordinations présentes dans chaque État membre.

L’article 86 concerne les pouvoirs de la Commission s’agissant des actes délégués, l’article 87 lui offre l’assistance d’un comité spécifique. L’avant-dernier article abroge le règlement 2021/1232 du 14 juillet 2021 qui concernait déjà la lutte contre les abus sexuels commis contre des enfants en ligne. L’ultime article 89 orchestre l’entrée en vigueur du règlement fixée à 20 jours après sa publication au Journal officiel de l’UE. Six mois plus tard, il entrera en application. Le texte débutant sa procédure parlementaire européenne, nous reviendrons sur sa version finale.

Plébiscites... et critiques

L’arrivée d’un tel texte dans le ciel européen a été critiquée par plusieurs acteurs, et accueillie par 41 contributions extérieures. Tutanota, une solution « open-source » de sécurisation des courriers, y voit « l'un des appareils de surveillance de masse les plus sophistiqués jamais déployés en dehors de la Chine : le balayage CSAM sur les appareils de tout le monde ».

Pour l’éditeur, « même si une IA scanne vos messages privés, cela reste une surveillance de masse sans mandat ».

« Personne ne nie que les abus sexuels sur les enfants soient un problème important qui doit être traité », relève-t-il. Toutefois, « lorsqu'on propose des mesures aussi radicales que l'analyse par le CSAM de chaque message de discussion privé, les arguments doivent être solides. Sinon, la Commission européenne n'aide personne, ni les enfants, ni nos sociétés libres et démocratiques ».

Dans un second billet, l’éditeur anticipe déjà une extension de ces mesures de surveillance, d’abord justifiée par la lutte contre la pédocriminalité. « Ensuite, on cherche des terroristes, des trafiquants d'êtres humains, des trafiquants de drogue, et ainsi de suite ».

Du côté du Chaos Computer Club (CCC), on estime qu’il n’y a pas de « communication fiable sans appareils fiables », ce qui implique l’intégrité des échanges, chiffrement et absence de transmission des contenus à des tiers. Pour le CCC, même avec un faible taux d’erreur, les solutions de détection automatisée pourraient frapper injustement, rien qu’en Allemagne, plusieurs milliers de messages chaque jour. 

Dans une note adressée à la Commission européenne, Google partage évidemment l’objectif de lutter contre ces infractions à l’encontre des enfants – personne ne le conteste. Cependant, craint le G de GAFAM, l’obligation d'appliquer de tels outils « risque d'inciter les entreprises à prioriser la suppression au détriment de l'exactitude, et pourrait effectivement équivaloir à une obligation de filtrer tout le contenu ». 

EuropISA, l’association européenne des FAI, rappelle à ce titre l’importance de la préservation du chiffrement de bout en bout, quand l’UNICEF applaudit l’initiative. L’ONG Missing Children Europe considère, elle aussi, que la lutte contre les abus sexuels visant les enfants « doit couvrir tous les domaines », même ceux en ligne, et réclame l’implication des intermédiaires, dont les FAI. CloudFlare est pour sa part plus dubitative sur le volet technique.

Les craintes des gardiens du RGPD ? Un scan généralisé

Surtout, dans une opinion commune, rendue publique le 29 juillet, le Comité européen de la protection des données et le Contrôleur européen de la protection des données ont exprimé leurs inquiétudes.

Malgré les multiples garanties affichées, ils estiment que le texte en l’état pourrait générer plus de risques pour la société dans son ensemble que pour les criminels visés par le CSAM. Ils dénoncent des formulations peu claires dans les conditions permettant d’émettre une injonction de détection pour abus sexuel sur mineur (voir l’article 7, ci-dessus).

Par conséquent, « il existe un risque que la proposition ne serve de base à un scan généralisé et indiscriminé du contenu de pratiquement tous les types de communications électroniques », même si le futur règlement réclame des injonctions « ciblées ».

Les deux autorités, nées du RGPD, considèrent que l'utilisation de technologies, comme l'intelligence artificielle épaulée par des indicateurs, « est susceptible de générer des erreurs et représente un niveau élevé d'intrusion dans la vie privée des individus ».

Et celles-ci de rappeler l’importance du chiffrement pour le respect de la vie privée, la confidentialité des communications et la liberté d’expression.

Commentaires (16)

Vous devez être abonné pour pouvoir commenter.

Abonnez-vous
votre avatar

J’ai pas (encore) lu l’article … mais cette image en tête de page : la gamine semble choquée alors que le garçon semble apprécié le contenu. Magnifique :D

votre avatar

On a la réaction de la cnil et de ses consœurs européennes ?

votre avatar

(reply:2089573:Baldurien)PErso, j’y vois 2 petites filles ;) c’est l’image employée par NI depuis un sacré bout de temps sur le sujet de la protection de l’enfance.


votre avatar

perso,, j’y vois 2 petites filles



moi aussi, mais bon….. :fumer:

votre avatar

Il manque les réactions des organisations de défense des droits humains, genre edri.



Décidément ce sont les grands oubliées du débat: snobés par la commissaire Yvla Johansson (qui a préféré discuter de ses plans avec les entreprises tech américaines plutôt que les ONG européennes de défense des droits humains), et maintenant on ne parle même pas d’eux dans l’article…



Le fond du dossier n’est pas juste le chiffrement bout en bout, le fond du dossier est une attaque extrêmement violente sur un droit fondamental et les répercussions que cela aura sur les droits fondamentaux dans le futur.



Si ça passe le cap de la cour européenne de justice, presque tous les droits fondamentaux seront en danger. Imaginez une U.E. où la lutte contre le crime justifierait de s’affranchir du principe de proportionnalité concernant les atteintes aux droits humains perpétrées par les autorités?

votre avatar

personnelement j’ai un gros problème avec ce type d’action.
Je m’explque : La pedo pornographie est devenu avec le terrorisme (la lutte dans les deux cas) le blanc seing pour toute les actions.
En avant propos, pour ne pas laissé de doute sur le sujet :
TOUTE VIOLENCE FAITE A L’ENCONTRE DUNE PERSONNE INNONCENTE DOIT ETRE COMBATTU.
Ce qui n’est pas restrictif aux enfants, au femmes, à une ethnie, etc.
De part mon coté naïf, je dirai il y a déja ce qu’on appelle la justice, et toute action qui ne passe pas par un juge est pour moi la privatitation de celle-ci.
Dans notre cas, Le crime premier est bien l’abus, le second la production du contenu, le trosieme l’emmission, et le dernier la diffusion. C’est pt être sur le 1er qu’il faudrait avoir une volonté et des moyens mi ?
Autrement de part mon coté cinique : Au niveau europeen cela correspond à quelle proportion de crime/délis par rapport au autre ? 1% 5% 25%
Sans en savoir plus, ni a -t-il pas disproportion entre les le nombre de personnes surveillés (tout le monde) avec le nombre réel de criminelle ?
A partir de quelle proportion cette surveillance de masse serait-elle acceptable ?

votre avatar

RuMaRoCO a dit:


De part mon coté naïf, je dirai il y a déja ce qu’on appelle la justice, et toute action qui ne passe pas par un juge est pour moi la privatitation de celle-ci.


La justice intervient à postériori.
Là le texte de loi vise justement à mettre en place des moyens “à priori”.




Dans notre cas, Le crime premier est bien l’abus, le second la production du contenu, le trosieme l’emission, et le dernier la diffusion. C’est pt être sur le 1er qu’il faudrait avoir une volonté et des moyens mis ?


Je suis d’accord avec ton anayse (Tu a oublié la monétisation : Ce qui est rare & interdit est profitable quand il y a de la demande capable de payer)
Simplement, là, le texte travaille sur le volet 4.
Ca ne veux pas dire que le 1 est ignoré, par contre évidamment c’est beaucoup plus compliqué à réussir à l’étranger - en France elle est fortement réprimée (sauf quand on est curé).




Autrement de part mon coté cinique : Au niveau europeen cela correspond à quelle proportion de
crime/délis par rapport au autre ? 1% 5% 25% Sans en savoir plus, ni a -t-il pas disproportion entre les le nombre de personnes surveillés (tout le monde) avec le nombre réel de criminelle ? A partir de quelle proportion cette surveillance de masse serait-elle acceptable ?


C’est pour ça que tout le monde sais , même probablement ceux qui poussent cette loi, que le but final n’est aucunement le bien-être des enfants.



A titre personnel (mode complotiste ON), je suis convaincu que l’objectif final est davantage la détection rapide des foyers de contestation sociale (par l’analyse automatique et la remonté d’échanges entre personnes) lorsque les conditions de vie de la population vont se durcir dans les années à venir, et que les écards de richesse vont encore s’accentuer.
Ca comprends les gilets jaunes, les ZAD, les autonomistes, les écologistes un peu “exaltés” , … bref tous ceux qui refusent la logique productiviste.

votre avatar

“A partir de quelle proportion cette surveillance de masse serait-elle acceptable ?”


Quelques soient les raisons, aucune ne le justifie, c’est bien là qu’est l’os …



Systématiquement, les mesures de surveillances invasives sont d’abord le fait de régimes autocratiques (plutôt d’extrêmes droite) voir états “voyoux” et/ou de pays anciennement “socialistes” ou communistes tombés au mains de partis ultra capitalistes. Comme par hasard c’est aussi ces pays qui causent le plus de problèmes géopolitiques…



Ca empêche pas la France d’être bien bas dans le classement des démocraties qui tiennent compte de toutes ces variables !



Après ça il faut bien se mettre en tête que les producteurs de contenus de notre sujet sont des spécialistes de la sécurité informatique et qu’ils se moquent plus ou moins de ce genre de dossier. Les seuls qui sont tombés, p.e. sur le darknet, l’ont été que par des erreur de débutants ! à méditer

votre avatar

OB a dit:


A titre personnel (mode complotiste ON), je suis convaincu que l’objectif final est davantage la détection rapide des foyers de contestation sociale (par l’analyse automatique et la remonté d’échanges entre personnes) lorsque les conditions de vie de la population vont se durcir dans les années à venir, et que les écards de richesse vont encore s’accentuer. Ca comprends les gilets jaunes, les ZAD, les autonomistes, les écologistes un peu “exaltés” , … bref tous ceux qui refusent la logique productiviste.


C’est aussi mes craintes. L’autre crainte est que l’UE n’a pas les moyens de traiter autant de données et que ce traitement se fera chez Google, Apple et consort. Sauf que là, ça autorise le tracking marketing à fond, en plus de fournir légalement des renseignements aux services US et à leurs amies (et non alliés). En somme, l’UE va sous-traiter sa possible surveillance de masse aux US et devenir la pute des US.



Par contre, les curés vont devoir apprendre le chiffrement selon Saint Rijndael :troll:

votre avatar

(reply:2089619:OB) “Ca comprends les gilets jaunes, les ZAD, les autonomistes, les écologistes un peu “exaltés” , … bref tous ceux qui refusent la logique productiviste.”



N’oublions pas la plus belle affaire de ces dernières année : “Tarnac” !!! :reflechis:



:mdr:

votre avatar

L’article du NYTimes ne pouvait pas tomber mieux sur les dangers de la surveillance à tout va :



A Dad Took Photos of His Naked Toddler for the Doctor. Google Flagged Him as a Criminal. Google has an automated tool to detect abusive images of children. But the system can get it wrong, and the consequences are serious.



https://www.nytimes.com/2022/08/21/technology/google-surveillance-toddler-photo.html

votre avatar

Je partage clairement les inquiétudes exprimées par les différents acteurs économiques du secteur. Automatiser et systématiser est un danger réel et concret avec bon nombre d’informations sorties de leur contexte qui se retrouvent détournées (ces “IA” magiques qu’on aime nous vendre ont-elles la capacité à appréhender ça ? Déjà qu’un humain moyen en est incapable, cf le scandale d’Etat du moment…) et peuvent créer des faux positifs mettant en insécurité juridique et sociale des personnes.



A cela s’ajoute le fait que ces outils et moyens techniques vont devoir bouffer des tonnes et des tonnes de données pour pouvoir atteindre l’objectif de fiabilité exigé par la législation. Vouloir garantir la protection de la vie privée avec un tel dispositif est un non sens.



Globalement, le dispositif en lui-même est similaire à celui sur le retrait des contenus terroristes qui lui est basé sur des signalements sans volonté de l’automatiser à outrance. Ce texte n’aurait pas eu cette notion de violation du secret de la correspondance automatisée, il m’aurait paru plus mesuré vis à vis de l’objectif. Là clairement, le législateur sort le bazooka pour tirer sur les moineaux, et c’est clairement ce qu’un Etat de droits ne doit pas faire.

votre avatar

” le retrait des contenus terroristes”
En 1 heure !!! :mdr2:

votre avatar

C’est toujours autant la fête du slip dans les commentaires sous ce genre de news.



Je vous laisse entre vous et vos délires.

votre avatar

tant mieux ça t’évitera d’annoncer des inepties du genre :




carbier a dit:


“La pedopornographie est donc un prétexte et non un fléau.” :ouioui:


votre avatar

SebGF a dit:


A cela s’ajoute le fait que ces outils et moyens techniques vont devoir bouffer des tonnes et des tonnes de données pour pouvoir atteindre l’objectif de fiabilité exigé par la législation. Vouloir garantir la protection de la vie privée avec un tel dispositif est un non sens.


L’important, c’est que l’on y croie suffisamment longtemps pour voter le texte… c’est comme pour les “upload filters”… un bon coup de bullshit, de désinformation, faire passer l’opposition pour des clowns dans la presse sur base de cette désinformation “mais non le texte ne dit pas ça”, même si c’est marqué noir sur blanc.. et voilà le texte voté.



Le côté flippant, c’est de se dire que de deux choses l’une:




  • soit ils ont blindé le texte pour ouvrir une brèche dans le principe de proportionnalité qui ne sera pas bloquée par la CEUJ, et là on se retrouve avec une boîte de Pandore bien puante ouverte., genre dans 5 ans, plus besoin de mandat de perquisition pour la lutte contre le trafique de stupéfiants.



  • soit ils vont se fracasser sur la CEUJ et le texte sera grandement censuré.




Dans les deux cas, on peut sérieusement douter de leur compétence à gérer l’U.E.

Lutte contre les abus sexuels sur des enfants : le futur règlement CSAM ligne par ligne (2de partie)

  • Les pouvoirs des autorités de coordination

  • Les fournisseurs hors UE, les plaintes des utilisateurs

  • Des sanctions jusqu’à 6 % du chiffre d’affaires mondial

  • Identification des contenus pédos et des sollicitations d’enfants, partage d’informations

  • Le Centre de l’UE

  • Des bases, des « indicateurs » et des balises

  • Base de données des signalements

  • Les signalements adressés au Centre de l’UE

  • Collecte de données et transparence

  • Plébiscites... et critiques

  • Les craintes des gardiens du RGPD ? Un scan généralisé

Fermer