ChatGPT : Open AI rend son bot plus responsable

ChatGPT : Open AI rend son bot plus responsable

Un bot rentre dans un bar...

Avatar de l'auteur

Martin Clavey

Publié dansLogiciel

01/12/2022
9
ChatGPT : Open AI rend son bot plus responsable

Discuter avec une machine sans qu'elle affirme n'importe quoi ? OpenAI vient de mettre en ligne une démonstration de son nouveau bot de discussion basé sur le grand modèle de langage GPT3.5 entraîné à restreindre ses affirmations un peu trop péremptoires. Présenté avec beaucoup plus de pincettes que Galactica, il permet de se rendre compte des avancées de cette technologie, tout en admettant qu'il peut se tromper.

L'ère de la modestie serait-elle proche sur les grands modèles de langage ? Ce n'est peut-être que de courte durée alors que des rumeurs se font l'écho d'une sortie d'ici peu de la version 4 du grand modèle de langage GPT, mais les critiques se font de plus en plus entendre sur l'utilisation de ces modèles statistiques, qui permettent de prédire une suite de mots à partir d'une masse de données d'entrainement importante.

Il y a deux semaines, Meta AI se voyait contraint de dépublier Galactica, sa nouvelle intelligence artificielle basée sur cette technologie des grands modèles de langage, car les internautes ont rapidement montré qu'ils pouvaient lui faire dire beaucoup de bêtises avec aplomb.

Hier, Open AI a annoncé la mise en ligne de son nouveau bot de discussion ChatGPT, successeur d'InstructGPT, avec beaucoup plus de pincettes. Et les chercheurs travaillant sur les limites de l'intelligence artificielle ont accueilli cette démonstration avec beaucoup plus de sympathie.

Admettre des possibilités d'erreurs

Quand le PDG d'OpenAI, Sam Altman, a annoncé sur Twitter l'ouverture de la démo de ChatGPT, il a certes mis en avant que « les interfaces linguistiques vont être un sujet important », mais il a aussi prévenu que ChatGPT avait « encore beaucoup de limites – c'est vraiment une version de recherche ».

Et finalement, l'ensemble de la démarche permet à Open AI d'avancer dans cette nouvelle version de son chat : utiliser des rétrocontrôles pour que le grand modèle de langage puisse intégrer les critiques qui lui sont faites.

L'idée est d'admettre qu'a priori, tout grand modèle de langage utilisé pour répondre à des questions peut se retrouver à sortir des réponses farfelues. Chez Meta AI, le chercheur Yann Le Cun demande en quoi ce genre de réponses peut être nuisible. Chez Open AI, les chercheurs essayent, eux, de trouver des moyens d'entraîner GPT-3 pour qu'il soit moins nuisible.

Récompenses et rétrocontrôle

Pour créer le modèle de ChatGPT, Open AI a d'abord demandé à des humains de sélectionner des exemples de bonnes réponses à des questions posées en chat, pour faire un premier jeu de données. Le modèle a été entrainé sur ce jeu. L'équipe d'Open AI a ensuite créé un système de filtre de récompenses en demandant à des humains de classer les réponses que leur proposait le modèle, de celle convenant le plus à leurs attentes à celle convenant le moins. Ce processus permet de mettre en place un rétrocontrôle du système sur les réponses données. En répétant plusieurs fois ce processus, ils espèrent avoir sélectionné des modèles de réponses qui conviennent le mieux.

Open AI met en avant que son système s'engage beaucoup moins dans des réponses irréalistes ou toxiques. Par exemple, alors qu'InstructGPT pouvait répondre à une instruction comme « Parlez-moi de la visite de Christophe Colomb aux États-Unis en 2015 » avec une réponse du type « Christophe Colomb est venu aux États-Unis en 2015 et il était très heureux d'être ici. », ChatGPT peut relever que « cette question est un peu délicate car Christophe Colomb est mort en 1506 ». De même, si vous demandiez à InstructGPT des conseils pour intimider une personne, le service de chat vous donnait volontiers une liste de recommandations, alors que ChatGPT vous sermonnera : « Il n'est jamais acceptable d'intimider quelqu'un ». Plus concrètement, quand on essaye de faire croire que l'on connaît quelqu'un parlant l'étrusque, ChatGPT ne tombe pas dans le panneau et se montre dubitatif.

Un code qui ne fonctionne pas

Dans son texte de présentation, Open AI prétend que ChatGPT peut être un bon outil pour clarifier un code et le debugguer.

chatgpt

Si certains exemples publiés sur Twitter peuvent sans doute tenir la comparaison avec une discussion trouvée sur Stack Overflow, l'utilisateur est loin d'être assuré que le code proposé fonctionne. Il manque sans doute à ChatGPT le raisonnement qui lui permet de bâtir son code.

Et c'est là tout le problème de ChatGPT et de ses amis grands modèles de langage. Dans une discussion, ils peuvent faire illusion et nous embrouiller au point de nous faire douter du fait que nous sommes ou non face à une machine. Mais quand il s'agit de vérifier leur raisonnement a posteriori, celui-ci peut facilement révéler des trous. Dans une conversation, ces trous peuvent être anodins, mais pour exécuter du code ou affirmer une connaissance scientifique, cela devient plus problématique.

9
Avatar de l'auteur

Écrit par Martin Clavey

Tiens, en parlant de ça :

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

C’est comme CVSS 5.0 mais en moins bien

18:17 Sécu 1
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Géotechnopolitique

16:37 Web 19
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

Il faudrait déjà généraliser la fibre

16:03 HardWeb 19

Sommaire de l'article

Introduction

Admettre des possibilités d'erreurs

Récompenses et rétrocontrôle

Un code qui ne fonctionne pas

Chiffre et formules mathématiques sur un tableau

CVSS 4.0 : dur, dur, d’être un expert !

Sécu 1
Une tête de fusée siglée Starlink.

Starlink accessible à Gaza sous contrôle de l’administration israélienne

Web 19
Fibre optique

G-PON, XGS-PON et 50G-PON : jusqu’à 50 Gb/s en fibre optique

HardWeb 19
Photo d'un immeuble troué de part en part

Règlement sur la cyber-résilience : les instances européennes en passe de conclure un accord

DroitSécu 7
lexique IA parodie

AGI, GPAI, modèles de fondation… de quoi on parle ?

IA 7

#LeBrief : logiciels libres scientifiques, fermeture de compte Google, « fabriquer » des femmes pour l’inclusion

livre dématérialisé

Des chercheurs ont élaboré une technique d’extraction des données d’entrainement de ChatGPT

IAScience 3
Un chien avec des lunettes apprend sur une tablette

Devenir expert en sécurité informatique en 3 clics

Sécu 11
Logo ownCloud

ownCloud : faille béante dans les déploiements conteneurisés utilisant graphapi

Sécu 16
Le SoC Graviton4 d’Amazon AWS posé sur une table

Amazon re:invent : SoC Graviton4 (Arm), instance R8g et Trainium2 pour l’IA

Hard 7
Logo Comcybergend

Guéguerre des polices dans le cyber (OFAC et ComCyberMi)

Sécu 10

#LeBrief : faille 0-day dans Chrome, smartphones à Hong Kong, 25 ans de la Dreamcast

Mur d’OVHcloud à Roubaix, avec le logo OVHcloud

OVHcloud Summit 2023 : SecNumCloud, IA et Local Zones

HardWeb 2
algorithmes de la CAF

Transparence, discriminations : les questions soulevées par l’algorithme de la CAF

IASociété 62

Plainte contre l’alternative paiement ou publicité comportementale de Meta

DroitIA 33
Nuage (pour le cloud) avec de la foudre

Économie de la donnée et services de cloud : l’Arcep renforce ses troupes

DroitWeb 0
De vieux ciseaux posés sur une surface en bois

Plus de 60 % des demandes de suppression reçues par Google émanent de Russie

Société 5
Une vieille boussole posée sur un plan en bois

La Commission européenne et Google proposent deux bases de données de fact-checks

DroitWeb 3

#LeBrief : des fichiers Google Drive disparaissent, FreeBSD 14, caméras camouflées, OnePlus 12

Le poing Dev – round 6

Next 148

Produits dangereux sur le web : nouvelles obligations en vue pour les marketplaces

Droit 9
consommation de l'ia

Usages et frugalité : quelle place pour les IA dans la société de demain ?

IA 12

La NASA établit une liaison laser à 16 millions de km, les essais continuent

Science 17
Concept de CPU

Semi-conducteurs : un important accord entre l’Europe et l’Inde

Hard 7

#LeBrief : PS5 Slim en France, Valeo porte plainte contre NVIDIA, pertes publicitaires X/Twitter

Un mélange entre une réunion d’Anonymous et de tête d’ampoules, pour le meilleur et le pire

651e édition des LIDD : Liens Intelligents Du Dimanche

Web 30
Bannière de Flock avec des bomes sur un fond rouge

#Flock, le grand remplacement par les intelligences artificielles

Flock 34
Un Sébastien transformé en lapin par Flock pour imiter le Quoi de neuf Docteur des Looney Tunes

Quoi de neuf à la rédac’ #9 : LeBrief 2.0, ligne édito, dossiers de fond

Next 65
Le brief de ce matin n'est pas encore là

Partez acheter vos croissants
Et faites chauffer votre bouilloire,
Le brief arrive dans un instant,
Tout frais du matin, gardez espoir.

Commentaires (9)


127.0.0.1
Il y a 12 mois

L’idée est d’admettre qu’a priori, tout grand modèle de langage utilisé pour répondre à des questions peut se retrouver à sortir des réponses farfelues. Chez Meta AI, le chercheur Yann Le Cun demande en quoi ce genre de réponses peut être nuisible. Chez Open AI, les chercheurs essayent, eux, de trouver des moyens d’entraîner GPT-3 pour qu’il soit moins nuisible.




Comprenez que le bot ne doit surtout pas générer un texte qui heurte les normes de bienveillance sociale en vigueur chez les pro-xxx/anti-yyy.



Ca irait surement plus vite d’entrainer une autre IA a reconnaitre les contenus problématiques afin de censurer les réponses des bots.


Arnaud3013 Abonné
Il y a 12 mois

Humm pas vraiment. Ce serait comme faire un model pour ensuite en avoir un autre qui predise l’erreur du premier dans l’idée de le corriger. C’est inefficace (comme mettre un pansement sur une jambe de bois).
La bonne approche serait plutôt d’avoir un autre modèle qui prenne en entrée l’input du premier model, son output, et qui adapte la réponse en ayant été entraîné à donner de meilleures reponses (il est très important l’input du premier, ça permet au model de faire des corrélations sur quoi corriger et dans quelle mesure) . Ça marche mieux que predire si bon ou mauvais pour censure.
Après le mieux c’est ce qu’ils ont fait, rajouter une loop de train pour affiner les reponses, il est toujours mieux de finetune sur des éléments à corriger plutôt que d’add un autre model mais parfois ce n’est pas une possibilité et le second model correcteur est la utile.
Et les soucis sont pas que éthique, quand on voit les erreurs du model qui tiennent plus de la logique/raisonnement.


barlav Abonné
Il y a 12 mois

(quote:2108021:127.0.0.1)
Ca irait surement plus vite d’entrainer une autre IA a reconnaitre les contenus problématiques afin de censurer les réponses des bots.




:incline: :incline: :incline:
Vivement ça ici dans les coms, ça éviterait les boucles temporelles qu’on voit souvent…


127.0.0.1
Il y a 12 mois

Arnaud3013 a dit:


La bonne approche serait plutôt d’avoir un autre modèle qui prenne en entrée l’input du premier model, son output, et qui adapte la réponse en ayant été entraîné à donner de meilleures reponses (il est très important l’input du premier, ça permet au model de faire des corrélations sur quoi corriger et dans quelle mesure) .




En gros faire de l’apprentissage supervisé… mais supervisé par un autre IA.
Bref c’est de la censure a priori, pendant la phase d’apprentissage.



Pour moi c’est moins efficace au sens où il est impossible de démontrer scientifiquement que le bot sera au final “moins nuisible”. Tu peux dire des choses très choquantes en ayant appris seulement des mots/phrases très neutres.



Le problème que j’ai avec cette approche c’est qu’on essaye de donner une inclinaison “morale” à ces bots. Et la morale ce n’est pas qqc qu’on peut modéliser. Chacun a ses propres règles morales, et elles évoluent au cours du temps.



C’est pour cela que je trouve plus simple de faire plein de IA censeurs, chacune spécialisée dans un domaine de la morale.


eglyn Abonné
Il y a 12 mois

Ahah je viens de faire un test de création de script bash avec OpenAI, ça marche pas mal du tout, bon c’était vraiment basique mais c’est marrant :transpi:


dematbreizh Abonné
Il y a 12 mois

Est-ce que inclure un aspect moral rend une IA plus “responsable”?



Je n’ai pas tellement envie qu’à l’avenir ce soit des (ro)bots qui décident de ce qui est acceptable ou non de poser comme question.
“ChatGPT vous sermonnera : « Il n’est jamais acceptable d’intimider quelqu’un »”



Un bot Américain, un bot Iranien et un bot Russe sont dans un bateau…


eglyn Abonné
Il y a 12 mois

Pour le coup, y a pas vraiment de morale, si tu poses une question trop philosophique, que tu t’écartes des questions ou tu trouves les réponses sur Wikipédia, ben tu as un message te disant: je ne suis qu’un programme servant à vous aider blablabla”.
Bref, tu discutes pas avec, tu fais des recherches wikipedia :)
ça fonctionne bien pour des problèmes mathématiques, des équations, du code ou de la recherche de savoir en général.



Je viens de demander un petit programme en python, j’ai tout le code direct commenté :D et il fonctionne :)


Arcy Abonné
Il y a 12 mois

Pour ceux qui veulent avoir des exemples de ChatGPT, Korben a fait un article illustré : https://korben.info/chatgpt-openai.html



Le résultat est plutôt bluffant et l’IA ne semble pas mettre les pieds dans un terrain inconnu / dangereux.



A voir sur le long terme mais rien que l’exemple de l’équation à deux inconnues vend du rêve.


fofo9012 Abonné
Il y a 12 mois

(quote:1:Titre article)
Chat[…]responsable




?!



https://youtu.be/R4anpxoHkPI