Comment tenter d’identifier les textes émanant d’intelligences artificielles génératives ?

Bullshit 2.0

Comment tenter d'identifier les textes émanant d'intelligences artificielles génératives ?

Le 31 mai 2023 à 14h29

Commentaires (10)

votre avatar

Vous avez identifié d’autres tactiques, techniques et procédures (TTPs) ou outils permettant d’identifier ce type de contenus émanant d’IA génératives ? N’hésitez pas à les partager en commentaires…


Ce faisant, est-ce qu’on ne participe pas à améliorer la dissimulation des futurs contenus générés par IA ?



C’est le problème de rendre public les méthodes de détection. Ca permet aux autres d’améliorer leur méthode de dissimulation.

votre avatar

Open Source VS boîte noire : ça fait une 20aine d’années que je fais de l’OSINT et que je raconte comment telles ou telles erreurs m’ont permis de faire telles ou telles découvertes ; et s’il m’est arrivé de voir certaines sources se tarir (la DGSE a cessé de partager son catalogue de stages, par ex.), c’est l’exception qui confirme la règle, qui est que le principal problème est entre la chaise et le clavier (PEBCAK), et que la majeure partie de ceux qui font des erreurs ne prennent pas le temps d’apprendre à ne pas en faire…

votre avatar

manhack a dit:


c’est l’exception qui confirme la règle, qui est que le principal problème est entre la chaise et le clavier (PEBCAK), et que la majeure partie de ceux qui font des erreurs ne prennent pas le temps d’apprendre à ne pas en faire…


Le problème que je vois pointer, c’est que les IA sont des outils qui peuvent palier à cette nonchalance humaine.



En 2023, des humains très compétents vont mettre beaucoup d’effort pour alimenter le web avec des articles/commentaires sur les techniques de détection d’IA.



Et en 2024, un pebcak nonchalant va simplement demander au dernier chatgpt sorti: “comment détecter un texte généré par une IA ?”. Et il obtiendra un assez bon condensé des trucs à faire pour améliorer la dissimulation de ses faux avis amazon.



il y aura p-e meme un post sur reedit avec le prompt qui permet de générer un avis dissimulé: “ecrit un avis sur le produit XYZ sans utiliser les tournures suivantes <>”

votre avatar

Je ne suis pas sûr que ça soit un problème. Je pense que, au-delà de l’aspect intéressant de l’exercice, identifier qu’un texte provient d’une IA ne sert à rien. Et idem pour les montages photos / vidéos.



Tout ça était déjà possible auparavant. Il suffit de se souvenir de https://fakirpresse.info/moi-journaliste-fantome-au-service-des-lobbies pour voir que la production par un humain n’est pas un critère de qualité. La seule chose qu’on change, c’est le prix : ça devient encore moins cher de générer du pipeau et des images bidonnées. Mais que ça soit bidonné par une IA ou un humain, ça reste juste des articles ou images bidons. Ça fait effectivement une différence pour la vidéo, mais pour le texte ou les photos ce n’était déjà pas très cher.



La période va être un peu compliquée dans les prochains temps, le temps que les gens comprennent qu’une photo ou une vidéo n’a plus aucune valeur de preuve – je pense d’ailleurs que les vendeurs de solutions vidéo de « sécurité » devraient travailler sur des signatures cryptographiques pour authentifier leurs vidéos). Mais après ça, on s’adaptera. Il y aura même peut-être des effets positifs (le chantage à la sextape dans un monde de deepfakes, ça doit marcher beaucoup moins bien…)

votre avatar

Point de vue à contre courant. Intéressant et plutôt positif.

votre avatar

Excellent contre-point. Merci pour l’article ! Quand à Olivia Grégoire, c’est étonnant qu’elle ne se soit pas fait allumé par la vraie presse (ou alors j’ai loupé un épisode).

votre avatar

Pour la partie image, FranceInfo avait aussi fait un guide assez simple et accessible.



Sinon une autre méthode très simple pour le texte : cherchez “Regenerate response”. Certains sont tellement abrutis qu’au lieu d’utiliser le bouton de copie, ils copient/collent le retour incluant le bouton pour obtenir une autre version.



Egalement, l’autre chose qui me le fait repérer rapidement : la tonatlité pompeuse et monotone du texte du fait des bridages “politiquement correct” du modèle.

votre avatar

Tout les détails sur “en tant que”, ça n’a pas d’intérêt, juste après le texte dit qu’il est une IA… autant chercher ça!

votre avatar

Sinon ça voudrait dire que les “users stories” dans l’agile sont toutes rédigées par des IA :D



(la formulation “En tant que Machin, je voudrais gnagnagna” que je trouve horriblement lourde et pas naturelle en français, inspirée du “As a Machin, I would like…” anglais)

votre avatar

“En tant que” français (qui n’est donc pas une IA ^^), je ne vois aucune problématique “avec les mots donnés”.



serais-tu en train de dire que ce “n’est pas un terme ou un mot couramment utilisé” ? :francais:



Dans ce cas, “Je suis désolé, mais je ne peux pas répondre” :fou:

Comment tenter d’identifier les textes émanant d’intelligences artificielles génératives ?

  • Quels sont les principaux messages d'erreurs de ChatGPT ?

  • Les IA ne peuvent pas fournir de contenu offensant ou inapproprié

  • La traque aux contenus artificiels

  • Des limites des outils de détection

Fermer