OpenAI peut tatouer les textes générés par ChatGPT, mais hésite à s’en servir
CopyrAIght
La technologie serait « efficace à 99,9 % », mais aussi relativement facile à effacer. Ce pourquoi l'entreprise ne l'a toujours pas rendue publique, quand bien même cela pourrait contribuer à la reconnaissance des textes générés par des intelligences artificielles génératives.
Le 08 août 2024 à 10h52
7 min
IA et algorithmes
IA
Le Wall Street Journal a appris de plusieurs sources qu'OpenAI avait bien mis au point un outil susceptible de tatouer une signature en filigrane (watermarking en anglais) permettant d'identifier les contenus générés par ChatGPT. Le projet serait disponible depuis un an, mais serait « embourbé dans des débats internes à OpenAI depuis environ deux ans ».
Les employés d'OpenAI hésiteraient encore entre le fait de respecter l'engagement déclaré de la startup à la transparence et leur désir d'attirer et de retenir ses utilisateurs. Une enquête menée par l'entreprise auprès d'utilisateurs fidèles de ChatGPT aurait en effet révélé que « près d'un tiers d'entre eux seraient rebutés par la technologie anti-triche », précise le WSJ.
D'après une porte-parole d'OpenAI, l'entreprise craint en outre que l'outil n'affecte de manière disproportionnée des groupes tels que les personnes dont l'anglais n'est pas la langue maternelle : « La méthode de filigrane que nous développons est techniquement prometteuse, mais elle comporte des risques importants que nous évaluons pendant que nous recherchons des alternatives ».
- Comment tenter d’identifier les textes émanant d’intelligences artificielles génératives ?
- Copyright traps : un outil pour détecter si un texte est utilisé pour entrainer des IA ?
Efficace à 99,9 %, mais... facile à effacer
Des employés soutenant la diffusion de l'outil ou ayant participé à son développement estiment, a contrario, que ces arguments « étaient dérisoires par rapport aux bienfaits que cette technologie pourrait apporter », tempère le WSJ.
Il reste 76% de l'article à découvrir.
Déjà abonné ? Se connecter
Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.
Accédez en illimité aux articles
Profitez d'un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
OpenAI peut tatouer les textes générés par ChatGPT, mais hésite à s’en servir
-
Efficace à 99,9 %, mais... facile à effacer
-
Influencer l'opinion publique en tant qu'acteurs responsables
-
L'AI Act européen exige le marquage des contenus GenAI
-
À la recherche d'alternatives
Commentaires (12)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 08/08/2024 à 11h41
Du genre: "j'ai un doute sur ce machin, c'est toi qui a fait ça?"
Le recours au watermarking sera forcément contournable par ceux qui justement souhaite le contourner. Sans consensus fédérateur sur la façon d'encadrer les usages de l'IA, il n'y aura de toute façon pas de salut.
Apres vient la question de responsabilisé les usagers...
Le 08/08/2024 à 14h01
Si j'écris "Aujourd'hui, il fait beau" et que GPT génère la phrase "Aujourd'hui, il fait beau". Cela rend-t-il de fait ma phrase comme étant générée par IA ?
En fait, j'ai du mal à voir comment le texte peut avoir un watermark. Les éléments cités dans l'article me semblent un peu bizarre... Les emoji ça se supprime. Le texte traduit et retraduit par Google Translate, c'est un risque à ce qu'il réécrive le contenu.
Pour les images, un filigrane invisible c'est déjà utilisé de longue date dans d'autres domaines. Pour du texte, je suis preneur d'explications (compréhensibles, pas 3 tonnes d'équation de préférences) sur le procédé.
Le 08/08/2024 à 14h40
Le 08/08/2024 à 14h59
J'ai lu une proposition sur Reddit qui ne me semblait pas si farfelues. La personne imaginait un système de quantification des phrases qui permettrait de savoir si la valeur quantifiée est fréquente ou non. Du style que chaque phrase aurait un "poids" identique en fonction d'une formule particulière et que l'IA génèrerait des phrases avec un "poids" particulier pour chaque demande. Ainsi si les phrases d'un texte, ou une grande partie d'entre-elles, ont le même "poids", il est fort probable qu'on ait affaire à un texte généré par IA.
Le 08/08/2024 à 15h59
Imagine que ChatGPT s'impose de mettre X% de la lettre E entre deux consonnes, Y% de la lettre P n'importe où dans le texte, et Z% des mots qui ont la lettre S parmi les deux premières lettres du mot, sur un texte suffisamment long les chances de respecter exactement ces pourcentages "par hasard" seront hyper faibles et donc ça sera un genre de "signature" de l'IA. Et si tu modifies juste un peu le texte tu ne changes les pourcentage qu'à la marge et le détecteur pourra toujours dire "ça, il y a toujours 90% de chance que ce soit du ChatGPT parce que les pourcentages sont très proches des règles que s'impose ChatGPT".
Le 08/08/2024 à 17h30
Un même caractère unicode peut avoir plusieurs représentation distinctes et toutes valides.
Par exemple, en Unicode le caractère "è" est le caractère numéro 0x00E8. Mais il peut aussi être représenté comme un "e" avec suivi du signe diacritique "`" (et donc encodé 0x0065 0x0300).
Un même caractère, plusieurs codes unicode.
Au début de l'UTF-8 et de l'UTF-16, un même caractère Unicode pouvait être encodé de plusieurs manières différentes : rien n'obligeait à utiliser le nombre minimum d'octets pour encoder un caractère, et un caractère encodable sur 2 octets pouvait l'être sur 2, 3 ou 4 en UTF-8 par exemple. Un phénomène connu sous le nom d' overlong. Mais depuis cette pratique a été interdite par des RFC. Dans la mesure où cette pratique est maintenant interdite, je ne pense pas que cela soit ça (mais ça a existé).
Il serait aussi intéressant de savoir si c'est le copier/coller depuis ChatGPT qui est détecté ou le texte en lui-même. Si c'est juste le copier/coller, cela pourrait donc bien signifier que le watermark est dans l'encodage des caractères. Si c'est le texte lui-même (par exemple, en le recopiant à la main), alors c'est le texte lui-même qui porterait une information (reste à savoir laquelle...)
Le 08/08/2024 à 20h11
Bref, à mon avis, un watermark ne sera fiable que pour la génération de texte de quelques milliers de caractères (c'est là que ça importe, une IA qui écrit simplement "il fait beau" OSEF) . Ce nombre varie en fonction des langues, selon le nombre de mots et de tournures disponibles. Par exemple en français, le nombre de mot est relativement faible par rapport à l'anglais ou l'allemand, mais le nombre de tournures possibles, voire même de figures de styles dont les francophones raffolent, est supérieur. Bref, comme d'habitude pour l'IA, c'est un boulot pour très gros matheux !
Le 08/08/2024 à 20h23
Il faut donc que le modèle ait été entrainé ou fine-tuné pour l'inclure. Est-ce possible, je ne sais pas. C'est en dehors de mes compétences !
Le 08/08/2024 à 20h22
Le 09/08/2024 à 01h23
Et, visiblement, l'IA act en août 2026. Donc ça sera transposé dans le droit français.
Le 09/08/2024 à 11h56
Le 09/08/2024 à 13h35
Les cas d'usages que tu décris peuvent engager la responsabilité de l'entreprise qui a choisi d'utiliser (ou non) une IA.
C'est à elle d'assumer les conneries "des choses que l'on a sous sa garde" (les guillemets, c'est parce que je cite la définition de la responsabilité civile - donc c'est déjà dans la loi).
Au contraire, mentionner l'IA pourrait presque décharger l'entreprise de certaines responsabilités... bah non, ce serait contre productif !
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?