illustration d'une personne manipulée comme une marionnette par une IA

AIformé

Désinformation politique : Open AI publie son plan d’action

illustration d'une personne manipulée comme une marionnette par une IA

Abonnez-vous pour tout dévorer et ne rien manquer.

Déjà abonné ? Se connecter

Abonnez-vous

Au début d’une année 2024 riche en échéances politiques, OpenAI explique les mesures qu’elle prévoit pour éviter l’usage de ses technologies à des fins de désinformation. Un enjeu urgent, alors que des deepfakes sont déjà utilisés un peu partout sur le globe pour tromper les électeurs.

L’année 2024 sera politiquement intense. De la Russie à l’Inde en passant par Taiwan, les États-Unis ou l’Afrique du Sud, les habitants d'au moins 64 pays, dans lesquels vit la moitié de la population planétaire, seront invités à aller voter au fil de l’année dans des élections à forts enjeux.

À ce décompte s’ajoutent les 27 États européens, dont les populations devront se rendre aux urnes en juin pour l’élection de leurs représentants parlementaires au sein de l’Union. Dans un tel contexte, l’enjeu que l’explosion des outils d’intelligence artificielle générative pose en matière de désinformation est réel – et la plupart des experts du sujet, franchement inquiets.

Open AI a donc publié le 15 janvier un article dans lequel son approche du phénomène est détaillée, tandis qu’au Forum économique mondial en cours à Davos, son patron Sam Altman a fait partie des multiples dirigeants de la tech à évoquer le sujet.

L’entreprise met l’accent sur l’offre d’informations vérifiées sur les élections, l’ « application de politiques mesurées » et l’amélioration de la transparence – objectif qui ne vise pas à remettre en cause le contrôle qu’OpenAI maintient sur ses technologies, mais plutôt à rendre évident qu’une image a été générée par DALL-E.

Interdiction de créer des applications de ChatGPT pour les campagnes politiques

La société déclare avoir mis en place une équipe transversale dédiée au travail sur ces questions politiques. Pour la faire fonctionner, OpenAI déclare se reposer sur l'expertise de ses équipes chargées de la sécurité des systèmes, du renseignement sur les menaces (threat intelligence), de ses équipes juridiques, d'ingénieurs et de ses équipes politiques.

En termes de prévention des abus (et notamment de la création de deepfakes), OpenAI déclare utiliser les mêmes pratiques que dans des contextes non politiques (du red teaming, la sollicitation des retours d’usagers et d’auditeurs externes et l’usage de techniques de modération des risques) avant de les rendre accessibles au public.

En pratique, elle indique que Dall-E a des règles claires qui l’empêchent de re-créer des visages réels – affirmation que des utilisateurs de Reddit s’emploient régulièrement à contredire dans le domaine cinématographique.

Open AI explique par ailleurs adapter ses conditions d’utilisations au fil de l'eau. Parmi ces règles, elle empêche d'ailleurs d’utiliser ChatGPT et son API pour créer des chatbots se faisant passer pour des personnes réelles.

Tirant leçon des multiples scandales de désinformation qui ont émaillé les dernières années, l’entreprise interdit de manière préventive la construction d’application dédiées au lobbying et aux campagnes politiques « en attendant d’en savoir plus » sur l’efficacité « de nos outils en matière de persuasion personnalisée ». Elle ne permet pas non plus la création d’applications visant à détourner des personnes du processus démocratiques.

OpenAI ne précise pas les outils qui lui permettent de repérer et modérer les éventuels contournements de ses décisions. Elle indique en revanche que dans « ses nouveaux GPT, les utilisateurs peuvent nous signaler de potentielles violations ».

Transparence sur les générations d’image et informations qualifiées sur les élections

Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».

L’entreprise indique par ailleurs avoir travaillé à une plus grande intégration des sources d’information dans les réponses de ChatGPT. Les utilisateurs devraient donc avoir bientôt accès à des liens renvoyant vers les informations fournies – un progrès pour vérifier les informations produites, mais aussi un pas de plus vers la transformation du chatbot en équivalent de moteur de recherche.

Enfin, aux États-Unis, l’entreprise indique travailler avec l’Association nationale des Secrétaires d’État (NASS) pour fournir une information non partisane sur les élections. ChatGPT devrait donc rediriger les internautes vers le site CanIVote.org pour que ceux-ci trouvent toutes les informations nécessaires à leur processus électoral. Et de déclarer que « les leçons tirées de ce travail alimenteront notre travail dans d’autres pays et régions ».

Au Bangladesh et au Royaume-Uni, l’IA sert déjà la désinformation politique

À la mi-décembre 2023, le Financial Times rapportait comment, au Bangladesh, des services de deepfakes accessibles pour 24$ par mois étaient déjà utilisés pour créer des divisions ou soumettre des informations trompeuses aux électeurs.

Les partis et groupes en faveur du gouvernement ont largement utilisé ces outils pour créer des contenus télévisés, ou des imitations des membres de l’opposition dans lesquels ceux-ci semblaient hésitants à soutenir les gazaouis, une position inflammable dans un pays majoritairement musulman où l’opinion public soutient largement les Palestiniens (la vidéo a ensuite été supprimée).

Le 7 janvier, la Première ministre Sheikh Hasina a remporté un cinquième mandat, après un scrutin boycotté par le principal parti d’opposition, qui évoque un « simulacre d’élection ».

Au Royaume-Uni, un travail mené par l’entreprise de communications Fenimore Harper a relevé l’existence de plus d’une centaine de deepfakes du premier ministre Rishi Sunak diffusés sous forme de publicités sur Facebook. Ces publications auraient atteint quelque 400 000 personnes avant que Meta ne les fasse supprimer.

Commentaires (4)


Pour faciliter le traçage et « améliorer la transparence sur la provenance des images », OpenAI indique s’apprêter à déployer le système de certificats numériques de la Coalition pour la preuve et l’authenticité des contenus. Celui-ci permet d’encoder des détails sur l’origine des images grâce à la cryptographie, donc de les estampiller « image générée par DALL-E ».


J'ai eu la flemme de lire leurs specs, mais de ce que je comprends, c'est un ajout de certificat pour assurer d'une provenance. Ils parlent aussi d'appareils photo qui généreraient de tels certificats.
Mais à partir du moment où :
1) cette information doit être lisible en clair pour être affichée,
2) la signature doit être aussi lisible pour vérifier que l'information sur cette provenance n'a pas été altérée et enfin,
3) l'image doit être lisible pour être affichée

comment pourraient-ils empêcher de produire une image ne contenant pas ces informations et ce certificat ? Cette image ne dirait donc plus qu"elle a été générée par DALL-E.
Justement, le document lié dans l'article explique comment ça marche. L'idée, grosso modo, c'est d'avoir un système aussi simple à utiliser (tant côté création que visionnage) que https. Tu auras une pastille CR qui te donne les informations utiles. Tous les détails sont expliqués, et ça ne semble pas déconnant.
Si pas la pastille CR, alors tu n'as aucune info, et donc possibilité (et donc suspicion) de falsification.
Le standard sera efficace si les grands éditeurs sont sérieux (là, ils misent sur l'enjeu de réputation - pas con), et s'il est largement adopté. Wait & see. Au moins ils proposent quelque chose.
Modifié le 17/01/2024 à 18h37

grsbdl

Justement, le document lié dans l'article explique comment ça marche. L'idée, grosso modo, c'est d'avoir un système aussi simple à utiliser (tant côté création que visionnage) que https. Tu auras une pastille CR qui te donne les informations utiles. Tous les détails sont expliqués, et ça ne semble pas déconnant.
Si pas la pastille CR, alors tu n'as aucune info, et donc possibilité (et donc suspicion) de falsification.
Le standard sera efficace si les grands éditeurs sont sérieux (là, ils misent sur l'enjeu de réputation - pas con), et s'il est largement adopté. Wait & see. Au moins ils proposent quelque chose.
Ça, j'avais compris. Mais c'est un vœux pieu des concepteurs du système qu'il soit adopté majoritairement. Aujourd'hui et pendant pas mal de temps à mon avis, ce système sera très minoritaire.
Je ne vois pas vraiment ce qui peut entraîner la bascule dans un système aussi contraignant en terme de logistique : il va falloir gérer des certificats.
L'affirmation d'OpenAI disant qu'ils vont déployer ce système de certificats est aujourd'hui une fumisterie. On pourra toujours fabriquer une image sans certificat et tant que ce système n'est pas adopté sur une très grande majorité de site, ça ne sert à rien.
Par exemple, je vois très mal l'intérêt qu'aurait X (anciennement Twitter) à adopter un tel système: ça ferait baisser beaucoup leur trafic et donc leurs recettes. Je vois bien Musk dire qu'au nom de la liberté d'expression, il ne faut pas adopter une mesure technique de ce type qui contraindrait ses utilisateurs.
En tout cas, moi, un tel système, ça me fout la trouille.
"Désinformation politique" : elle vient souvent de ceux qui en vivent :mad:
Fermer