votre avatar Abonné

SebGF

est avec nous depuis le 16 septembre 2009 ❤️

Bio

Blogger, writer, amateur photograph, tinkerer, solutions architect, problem solver, coffee addict.

Site personnel

https://zedas.fr

14060 commentaires

Le 19/08/2024 à 13h 36

L'amende pour violation du DSA peut atteindre 6 % du CA mondial. Je doute qu'ils n'en aient rien à carrer.

Ça ferait 8 milliards de $ pour le CA de 2023.

Et même s'ils en avaient rien à carrer, ça fait une rentrée d'argent pour l'UE du moment qu'ils payent.

8 milliards ça permet de financer pas mal de trucs (sur les 239 183.2 millions de dépense de l'UE en 2018 ça se prend).

Le 19/08/2024 à 11h 28

Meta ferme CrowdTangle, l’Europe demande des explications
"C'est la faute à CrowdStrike."

Le 19/08/2024 à 10h 38

Quand on voit l'état de ta voiture dans ton avatar, on ne peut pas imputer la faute à Orange ! :langue:

Bah si, faute de GPS connecté fonctionnel, le véhicule s'est basé sur les données cartographiques embarquées qui n'ont pas prévu que, depuis, la rue a changé. Et le temps de comprendre que le roaming ne fonctionnait pas, crash.

Avec un bon avocat, une bouteille de whisky et une défense ChatGPT-powered, moi j'dis ça se tente.

Le 19/08/2024 à 10h 07

L'IT Garcimore !

Des fois cha march', des fois cha march' pas !

Le 18/08/2024 à 17h 20

Fake reaction !

J'ai compris ce que le texan voulait dire.

En réalité le message serait plutôt : WawouwawouuyeahJESUSwawouyewaeyJESUSwawouwawouwowow.

Le 17/08/2024 à 17h 50

Soit il manque une information dans ton message, soit la plateforme en question est potentiellement en infraction au regard de l'article L111-7-2 du code de la consommation.
Elle indique aux consommateurs dont l'avis en ligne n'a pas été publié les raisons qui justifient son rejet.

Le 16/08/2024 à 17h 38

Un rappel des règles à ce sujet en France me semblerait utile. Il me semble qu'il y a déjà des choses inscrites dans la loi en ce sens, cela permettrait de comparer pour voir si vos textes ont déjà prévu le cas des avis générés par IA, par exemple.

Le 18/08/2024 à 10h 44

Merci Boeing et la NASA pour avoir redirigé le crachoir de Ariane vers Starliner.

Le 17/08/2024 à 10h 55

Les bras m'en tombent.

Le petit disclaimer en dessous de chaque prompt n'avait donc pas été placé pour rien depuis un an.
Le troisième rajout a trait aux « Identifiants de contenu » et indique que « Microsoft stocke des informations sur sa création et associe ces informations et le contenu à un identifiant de contenu », laissant entendre que les contenus générés par ses IA seront tatoués de sorte de pouvoir être identifiables comme tels.
Un élément qui serait intéressant de vérifier : dans Azure OpenAI Service, le client pouvait demander, moyennant justification et sûrement négociation avec l'éditeur, de sortir du dispositif de modération intégré. En effet, cela obligeait à ce que les données traitées par le modèle à cet instant soient analysées par Microsoft pour ne pas produire de contenus interdits par le service. Cette possibilité était proposée dans le cas où le client justifiait d'une confidentialité absolue des données (oui, je sais, confidentialité et Cloud sont antinomiques, mais là n'est pas la question) et donc qu'elles ne devaient pas faire l'objet de traitement intermédiaire.

La question est donc : Microsoft permettrait-il de débrayer ce qui est une obligation légale en rognant sur la confidentialité du traitement ? Car même si c'est juste une empreinte, des metadata ou que sais-je derrière et non la donnée exacte générée, il y a toujours un risque de fuite côté éditeur (vu que c'est lui qui va la conserver et pas le client) et de possibilité de la reconstituer ou de l'extrapoler.

Le 12/08/2024 à 20h 38

Saleté de matière première qui se rebiffe.

Le 12/08/2024 à 08h 27

"Et ce d'autant plus qu'une empreinte digitale, n'est pas un moyen fiable d'authentification contrairement à ce qu'ils disent. Donc, faire payer une fonction qui affaiblit la sécurité pour la facilité d'utilisation, c'est très moyen pour une société qui vit en vendant de sécurité."

Ça aussi c'est faux : une auth par empreinte n’affaiblit pas la sécurité, la sécurité est celle d'un certificat, largement supérieur au mot de passe.

"Dès que tu prends quelque chose avec tes doigts, tu y mets tes empreintes digitales. Il n'y a plus qu'à les relever pour avoir ton secret."

Encore raté le secret n'est pas les empreintes, mais le certificat dans l'enclave de ton téléphone.

Ce n'est pas la mécanique de certification derrière qui est contestée, mais le fait que sa clé de déverrouillage (l'empreinte digitale) est aisément reproductible.

(et, accessoirement, très difficile à changer)

Tu peux mettre tous les certificats du monde, si la passphrase c'est 1234, la sécu est foirée.

Le 10/08/2024 à 14h 35

Outre la stratégie du retournement de sous vêtement, on peut dire que l'équipage s'est bien occupé malgré cette durée de mission imprévue.

Ils sont même intervenus sur la plomberie des toilettes de l'ISS.

Cela dit, couvrir le sujet sur l'angle de l'adaptation à l'imprévu en montrant comment l'équipage s'occupe et travaille sur des missions de recherche serait une vision intéressante.

Le 10/08/2024 à 13h 59

Encore un qui commente sans lire l'article :

Alors non, ce n’est pas Free qui a pris le relai pour le peering
:langue: Tu me diras que si les rédacteurs eux-même trollent avant nous, c'est de la triche. :D

J'avais pas vu, lu en diagonale :p

Le 10/08/2024 à 09h 05

Ils passent par les backbones de Free ?

Le 10/08/2024 à 10h 26

On l'oublie souvent, mais la démocratie est un des seuls régimes capable de s'autodétruire de manière parfaitement légale vis à vis de ses institutions.

Quand on en prend conscience, ça fait comprendre à quel point elle est fragile.

Le 09/08/2024 à 16h 20

Perso suis full AMD Ryzen 7 depuis quelques années, y compris PC de jeux, et la config est loin d'être bruyante en pleine charge.

Le seul 5 que j'ai est sur mon HTPC, un micro boitier basé Asus assemblé par Tuxedo Computers, et il ne fait pas un bruit malgré sa ventilation.

Le 08/08/2024 à 16h 17

Clairement ça doit être chaud, même si t'as les ravitaillements etc. Ils sont partit en de mode "courte durée", alors que pour un truc de 8 mois tu te prépare autrement pdv obligation a terre, objets pour t'occuper, fêtes (repas d'annif etc)

J'espère quand même que la NASA trouve des trucs a leur faire faire

Je ne pense pas que sur l'ISS tu puisses t'ennuyer, vu qu'il faut la maintenir.
Il me semble que les astronautes concernés participent aux expériences menées à bord.

Le 08/08/2024 à 14h 01

Stocker les textes générés ne me semble pas viable. À un moment donné, GPT va écrire du texte qui sera à l'identique de celui d'un humain. À partir de là, qui a raison ?

Si j'écris "Aujourd'hui, il fait beau" et que GPT génère la phrase "Aujourd'hui, il fait beau". Cela rend-t-il de fait ma phrase comme étant générée par IA ?

En fait, j'ai du mal à voir comment le texte peut avoir un watermark. Les éléments cités dans l'article me semblent un peu bizarre... Les emoji ça se supprime. Le texte traduit et retraduit par Google Translate, c'est un risque à ce qu'il réécrive le contenu.
Pour les images, un filigrane invisible c'est déjà utilisé de longue date dans d'autres domaines. Pour du texte, je suis preneur d'explications (compréhensibles, pas 3 tonnes d'équation de préférences) sur le procédé.

Le 07/08/2024 à 21h 13

Ici les gens le savent, mais l'IA n'a rien de I : elle ne "comprend" pas ce qu'elle dit.
Il faut le crier haut et fort, à temps et à contre-temps !

Bah, l'IA a une intelligence à la hauteur de l'espèce qui l'a conçue.

Le 07/08/2024 à 20h 02

C’est franchement la même avec les autres GAFAM, c’est juste le puritanisme américain

Plus que du puritanisme très commun chez ces entreprises, c'est surtout du politiquement correct exacerbé qui rend les interactions sociales fades à en crever.

Monde de merde !

Le 07/08/2024 à 18h 01

Bienvenue dans le monde moderne.

Le 06/08/2024 à 16h 04

Ah, ils vont donc arrêter de sortir des produits sur Azure disant dans le doc que ça marche si tu mets tous les droits et tout en public ?

Le 06/08/2024 à 15h 23

La question est compliquée parce que justement, on n'entraîne pas un humain mais une IA.

Quand ils disent : « N’importe qui est libre d’apprendre des faits, des idées », une IA n'est justement pas un "qui" mais un "quoi", donc est-ce que ce droit s'applique ?

Dans l'autre sens, une œuvre générée par un ordinateur, une IA (ou un animal) n'est pas protégée par le droit d'auteur.

Donc, utiliser la notion de fair use en parlant de transformation alors que ce n'est pas un humain qui transforme l'œuvre d'origine, n'a rien d'évident.

Il y a des procès en cours, il faut attendre les jugements définitifs avant d'avoir une idée claire sur le sujet. En plus, ces jugements pourront être différents en fonction des pays, certaines lois sur la propriété intellectuelle étant plus protectrices que d'autres.

Quand ils disent : « N’importe qui est libre d’apprendre des faits, des idées », une IA n'est justement pas un "qui" mais un "quoi", donc est-ce que ce droit s'applique ?
La science fiction devient bientôt réalité avec les grandes IA qui sont considérées comme personnes physiques :D

(exemple dans L'Odyssée du temps de Arthur C. Clarke et Stephen Baxter)

Le 06/08/2024 à 11h 11

"en même temps, réfléchir avant de poster des bêtises, c'est pas trop un réflexe de gauche" :francais:

(simple réponse du niveau de la remarque, sans préjuger de mon placement idéologique)

Broarf, la connerie est universelle. Elle n'a pas de couleur de peau, de genre ou de placement idéologique !

Le 05/08/2024 à 15h 47

En tout cas, il n'y a rien de tel sur sa fiche Wikipédia. :fumer:
C'est pour cela que j'ai demandé pourquoi il fallait le mettre en prison. Mais je pense que je n'aurai pas de réponse : l'avantage du tribunal populaire sur Internet, c'est qu'il n'a pas à justifier sa décision.

La présomption d'innocence c'est has been.

La bonne vieille vindicte populaire où on cramait les gens qui n'avaient pas la bonne couleur de cheveux, ça c'était le bon temps. En tous cas, c'est celui auquel le tribunal populaire veut nous faire revenir.

J'ai hâte que ça se retourne contre ces personnes.

Le 05/08/2024 à 13h 46

C'est bien connu que tous les coupables sont condamnés.
Il a quand même avoué lui même avoir couché avec une fille mineure.

Un coupable est condamné.

Un accusé ne l'est pas forcément.

Le 05/08/2024 à 13h 23

Il a tout pour (dé)plaire en somme.

Je savais pour sa misogynie, pas pour la pédocriminalité (encore que cela ne me surprenne pas, venant de ce personnage).

Ce mec devrait déjà être en prison.

Il y a eu une condamnation ?

Je ne connais pas le personnage, mais au vu du portrait et du caractère affirmé des propos, j'imagine qu'il a fait l'objet d'une procédure et a été condamné pour ces chefs d'accusation.

Le 06/08/2024 à 07h 41

Sauf si on considère qu'on pousse en prod le code du stagiaire sans le relire. Perso j'appelle ça de l'incompétence crasse.
Ou quelqu'un qui travaille chez Crowdstrike...

Ok je sors :D

🫵 👉 🚪

Le 05/08/2024 à 15h 45

Sauf que pour déterminer quels code est bon et quels codes ne l'ai pas, il faut bien relire l'ensemble du code. Donc le gain de temps est pas vraiment la.

Le potentiel gain de temps est sur la réécriture, la relecture reste indispensable.

Sauf si on considère qu'on pousse en prod le code du stagiaire sans le relire. Perso j'appelle ça de l'incompétence crasse.

Le 05/08/2024 à 13h 31

C'est quelque chose que j'avais déjà noté dans les communications autour de Rust. Personnellement, je n'ai pas le bagage pour m'en assurer ou comprendre derrière comment ça marche.

Mais ce qui m'inquiète, c'est qu'avec une comm' basée autour de "c'est un langage sécurisé", ça provoque l'effet inverse par aubaine et un nivellement par le bas de la vigilance. La technique ne se suffit pas à elle-même, il ne faut jamais l'oublier.

Le 05/08/2024 à 13h 28

C'est bien ce qui est évoqué avec la partie traitant du risque du LLM.

Mais si le modèle peut produire 80% de bon et faire que 20% nécessite une correction, c'est déjà un gain de temps considérable. Après, à voir la qualité de l'entraînement du LLM sur ce langage précis.

Le 05/08/2024 à 18h 10

Bon anniversaire SebGF ! :tchintchin:

Pour ne pas mentir, c'est pas encore passé, fin du mois (ce qui reste donc l'événement majeur de l'été, en toute modestie), mais merci par avance également :)

Le 04/08/2024 à 11h 28

c'est pas un événement intergalactique ça ? :D

Bon anniversaire :)

Absolument ! (merci :) )

Le 03/08/2024 à 20h 06

Je pensais qu'on parlait de mon anniversaire :craint:

Le 03/08/2024 à 15h 18

Quel événement mondial ?

Le 02/08/2024 à 14h 01

AAFAM ça sonnait trop "affamé" surement.

Le 01/08/2024 à 07h 35

:phibee:

Le 31/07/2024 à 13h 42

Perso j'ai appris avec cette news que Skype existait encore :transpi:

Le 30/07/2024 à 17h 30

"Les temps changent et quelques personnes dont on devine de quel côté elles seraient allées dans les années 40 se réjouissent ici"

Sérieux? C'est comme ça que tu souhaites laver ta conscience de faire des excès de vitesse? En traitant les autres de facho?

On peut aussi dire que les énervés de la gâchette, les désaxés violents, les potentiels meurtriers étaient heureux d'être dans le maquis pour se défouler sans conséquence légale et même être peut-être décoré.

Alors moralement c'est qui le mieux?

Rien de surprenant. Dans mon ancienne copropriété, les panneaux de stationnement interdit dans les allées (car c'était visiblement pas assez évident) ont été taggés "fachos".

J'en ai déduis que la définition moderne de "facho" c'est "m'empêcher d'être un connard individualiste en société".

Le 30/07/2024 à 07h 32

Dis toi que le code de la route est indicatif, ça aide à relativiser.

Le 29/07/2024 à 20h 44

Parce que d'un point de vue moral, tu trouves cela normal ? Que va-t-on commémorer l'année prochaine ? :roll:

À quel moment ai-je exprimé une posture morale ?

Le 29/07/2024 à 16h 55

Outre l'aspect technique et homologation, dans tous les cas, il faudrait une délégation autorisant à le faire. Comme cas des entreprises privées faisant radar mobile sous contrat avec l'Etat (ou les collectivités, sais pu, sais pu si ça existe encore d'ailleurs, je crois que c'était une expérimentation).

Et accessoirement, la capacité de contester et de réclamer la preuve comme tu l'indiques.

Preuve qui, au passage, pose une question de données personnelles : la plaque d'immatriculation en est une.

Bref, sans cadre légal l'autorisant, je ne vois pas ça arriver en France.

Le 29/07/2024 à 16h 51

C'est un véhicule autonome. Si tu lui demandes de rouler au dessus de la limite, il ne le fera pas. Il verrouillera les portes avant de t'emmener au poste.

Ça parle bien de véhicules connectés, pas forcément autonomes :)

(ils les évoquent pour les plans futurs)

Le 29/07/2024 à 16h 30

V2 : un drone est appelé et abat le véhicule contrevenant.

Sinon, question subsidiaire : le véhicule s'auto dénonce dans le cas où c'est lui qui est en excès ? :D
Avec en prime la bagnole qui s'arrête au poste de police pour faire embarquer le conducteur ?

Le 29/07/2024 à 14h 13

Une petite remarque sur les catégories de Next. J'ai été assez surpris de voir cet article classé dans "IA" sur la landing page jusqu'à voir "IA & aglorithmes" en complet.

Seulement, je trouve que le lien est très vague entre ce service et ces notions (même si les cryptomonnaies sont basées sur des algo, mais dans ce cas à peu près tout rentre dedans). Ici, c'est plus un service Cloud de stockage de données qu'autre chose de ma compréhension (et les cryptomonnaies ont aussi un pied dans l'économie). Une catégorie "Cloud" ne serait-elle pas appropriée ? Plus précise que "Internet".

Le 27/07/2024 à 17h 53

Ton commentaire m'a poussé à aller voir leur papier. Je n'ai pas tout lu mais j'ai recherché 1000 dedans pour comprendre à quoi correspondait le nombre cité ici.

L'idée est donc bien d'avoir des phrases longues d'au moins 100 mots répétées 1000 fois dans un document (un livre par exemple qui est ce qu'ils veulent protéger).

C'est donc complètement irréaliste en vrai et c'est effectivement probablement facile à détecter grâce à cette répétition. Un vrai livre n'a pas 1000 fois la même phrase de 100 mots répétée. Et il semble qu'il faut bien ces longueurs et nombre de répétition pour que la détection soit significative. On peut donc détecter l'empoisonnement avec des seuils plus faibles mais qui restent significatifs. Une répétition de 50 ou 100 fois suffit largement à filtrer l'empoisonnement.

C'est donc uniquement un travail de chercheur assez bourrin qui est très loin de la réalité et de l'applicabilité.

Ils rejettent à mon avis trop facilement l'idée que cela peut être détectée avant l'entraînement :
1) parce que la déduplication se fait aujourd'hui au niveau document et qu'ils répètent au sein d'un document. S'ils pensent que suite à leur publication, ceux qui construisent des systèmes d'IA vont continuer comme avant, ils sont bien naïfs.
2) parce que ça douterait trop cher à repérer. Ils citent une étude mais j'ai l'impression qu'elle ne dit pas cela. Ils expliquent au contraire comment faire pour que ça ne soit pas trop coûteux à faire avec un accroissement linéaire à la quantité de texte à analyser (suffix arrays).

Donc, la réponse à la question du titre de l'article est probablement : non.

Pour ceux qui pensent que cette insertion de texte va nuire aux lecteurs, leur idée est de rendre invisible aux lecteurs de textes en ligne les textes injectés. À mon avis, c'est peut-être encore plus simple de détecter ces parties de texte invisibles et ensuite de vérifier si elles sont répétées.

Pour ceux qui pensent que cette insertion de texte va nuire aux lecteurs, leur idée est de rendre invisible aux lecteurs de textes en ligne les textes injectés. À mon avis, c'est peut-être encore plus simple de détecter ces parties de texte invisibles et ensuite de vérifier si elles sont répétées.
Et bonjour la foire aux emmerdes pour gérer l'édition papier et numérique !

Là où aujourd'hui on peut gérer le contenu du livre à l'identique, la seule différence résidant dans les mentions légales plus complètes dans le cas de l'imprimé. En dehors de ça, un livre numérique n'a besoin que de très peu de mentions obligatoires et la seule différence serait peu ou prou l'ISBN dans le cas de publication EPUB + PDF.

Le 27/07/2024 à 08h 03

Perso la question que je me pose, surtout, c'est à quel moment ils comptent injecter ça dans l'entraînement de GPT-5 (par exemple).

En dehors de polluer CommonCrawls et d'intervenir dans le traitement des dataset, je vois pas trop.

Sachant que les dataset sont de plus en plus eux-même traités par IA.

Le 27/07/2024 à 17h 50

Non reconnu comme preuve de majorité, un mineur peut en détenir une.
Certes. Mais ce mécanisme a finalement été autorisé pour les sites pornographiques ;)
Ah, ça fallait peut-être pas le dire :devil:
Ouais ben chéri, rend moi ma carte bleue :non:

Certes. Mais ce mécanisme a finalement été autorisé pour les sites pornographiques ;)
Ah ? J'en étais resté à l'épisode où l'Arcom avait dit "Nope".

Après avoir cherché viteuf, effectivement une expérimentation lancée en avril de cette année.

Débile, un mineur peut en détenir une...

Le 27/07/2024 à 10h 42

Bah en l'absence de détails, on ne peut que supposer. Et compte tenu de l'historique de ces entreprises, ma supposition par défaut est qu'ils prennent tout et disent aux personnes de se justifier pourquoi elles ne devraient pas se faire violer leur vie privée.
Pour une entreprise qui ferait des bénéfices colossaux comme Meta ou Alphabet, j'approuverai à 100% (surtout que le bénéfice engrengeable peut être supérieur au montant de l'amende, surtout si on prend en compte le temps de l'enquête, etc.

Pour X, qui est déficitaire depuis le rachat par Musk, il faudrait être complètement idiot pour se tirer une telle balle dans le pied (mais bon, presque plus rien ne m'étonne aujourd'hui).
Quand le bâton de la sanction est une matraque en mousse, ça fini forcément en fête du slip
C'est vrai. Sauf que justement le DPC (la CNIL Irlandaise) s'est faite remontée le slip aussi bien en interne (par des institutions irlandaises donc), par ses consoeurs que par l'Europe. la DPC devait embaucher (je ne sais pas où cela en est), mais elle est sous étroite surveillance et ne peut plus êtes aussi laxiste qu'auparavant.

Et après vérification, le siège social de X en Europe semble être à Dublin (donc en Irlande, effectivement).
Plutôt la reconnaissance d'image pour le coup, même si ua début c'était beaucoup du texte.
Au début, et pour le captcha de Google (je passe l'époque du captcha pur et dur qui ne servait que de captcha), on avait des images qui correspondaient notamment à des numéros de rue. En interne, c'était en réalité des images prises de Street View pour pouvoir reconnaitre localiser précisément les numéro dans les rues.

Ensuite, effectivement, on a eu les images (cliquez sur les girafes, ou sélectionnez les images où il y a un feu tricolore). Là encore, en vue d'entrainer des IA à faible coût.
tout le monde est un robot par défaut, tout le monde doit être considéré comme mineur par défaut vu que législation l'impose,
D'ailleurs, rien me prouve que je discute avec un être humain adulte et pas un robot mineur :p Donc en captcha, je t'invite à aller faire un tape m-en 5 avec Ness et à me dire le résultat, ainsi qu'à me donner ton numéro de carte bancaire pour m'assurer que tu es majeur :mrgreen: (qui ne tente rien n'a rien :francais:)

[edit]
Plus sérieuement, sur la dernière partie, je suis entièrement d'accord avec toi. De mon constat, ce qui détruit vraiment le web, ce sont les réseaux sociaux (enfin surtout l'usage qu'on en fait). Il semble bien loin le web du début des années 2000... :craint: Le web, c'est comme les moulins : c'était mieux à vent !

, ainsi qu'à me donner ton numéro de carte bancaire pour m'assurer que tu es majeur
Échec :p

Non reconnu comme preuve de majorité, un mineur peut en détenir une.

De toute façon tu le connais mon numéro de CB, y'a ton nom marqué sur la mienne.

Ah, ça fallait peut-être pas le dire :devil:

Le 27/07/2024 à 07h 59

Je n'ai pas compris "interactions utilisateurs" comme le fait de mentionner un utilisateur, mais comme le fait de lire les tweets d'un utilisateur. Mais peut être que je me trompe.

Après, retirer la mention de l'utilisateur (en gros, "anonymiser") d'un tweet est facile. Il s'agit ici d'entrainer et d'ajuster leur IA. Ce qui importe alors est le contenu, pas les métadonnées.

Encore une fois, cela n'enlève rien au fait que je trouve cette manière de procéder pitoyable. Et je ne cherche pas à les défendre. J'essaie juste de comprendre comment une entité de cette taille et qui est sous surveillance peut se lancer dans ce genre d'initiative alors que le RGPD est entrée en application en Europe depuis 6 ans maintenant et que le moindre écart va être vite sanctionné.

C'est la seule explication "valable" que je vois. On peut voir cela comme une "évolution" des captchas qui ont largement servi à entrainer des modèles d'IA de reconnaissance de texte.

Bah en l'absence de détails, on ne peut que supposer. Et compte tenu de l'historique de ces entreprises, ma supposition par défaut est qu'ils prennent tout et disent aux personnes de se justifier pourquoi elles ne devraient pas se faire violer leur vie privée.

La routine habituelle.

De l'arbitraire pur, encore et toujours.
J'essaie juste de comprendre comment une entité de cette taille et qui est sous surveillance peut se lancer dans ce genre d'initiative alors que le RGPD est entrée en application en Europe depuis 6 ans maintenant et que le moindre écart va être vite sanctionné.
Bof. Ils sont installés dans le pays de l'APD qui a les couilles dans un étau (puisque l'économie de son pays dépend des multinationales étrangères) et donc un pouvoir presque nul. Je n'ai pas vérifié, mais je suppose que X est aussi installé en Irlande.

Quand le bâton de la sanction est une matraque en mousse, ça fini forcément en fête du slip.
On peut voir cela comme une "évolution" des captchas qui ont largement servi à entrainer des modèles d'IA de reconnaissance de texte.
Plutôt la reconnaissance d'image pour le coup, même si ua début c'était beaucoup du texte.

Encore une belle idée de merde, n'empêche...

J'adore la société vue par le Web n'empêche : tout le monde est un robot par défaut, tout le monde doit être considéré comme mineur par défaut vu que législation l'impose, et tout le monde doit servir de matière première à entraîner des modèles de machine learning. Manque plus que tout le monde qui doit servir à nourrir la population à la fin et on aura terminé la boucle.