Connexion Premium

Version « adulte » de ChatGPT  : des experts internes d’OpenAI unanimement opposés

La « règle 34 » est-elle malsaine ?

Version « adulte » de ChatGPT  : des experts internes d’OpenAI unanimement opposés

L’entreprise de Sam Altman est bien embêtée entre la volonté du CEO de lancer une version de son chatbot réservée aux adultes qui pourrait générer des discussions érotiques et l’avis d’un comité d’experts sur le bien-être et l’IA, créé en interne, qui s’est prononcé unanimement contre.

Le 17 mars à 14h26

En octobre dernier, Sam Altman annonçait que son entreprise allait rendre ChatGPT bientôt plus amical et ouvert aux conversations érotiques. Mais en janvier, un comité d’experts, que l’entreprise a créé en parallèle pour « éclairer [ses] efforts » concernant le bien-être et l’IA, s’est prononcé clairement contre ce projet.

Sam Altman affirmait vouloir « traiter les utilisateurs adultes comme des adultes » en leur créant un mode particulier une fois que leur âge était vérifié. En janvier dernier, OpenAI annonçait la mise en place de plusieurs barrières pour les mineurs : soit un système interne de « prédiction d’âge » soit une vérification d’âge avec la solution de Persona (selfies ou scan de pièce d’identité). Le système était donc en place pour lâcher la bride sur des sujets sensibles selon l’âge de l’utilisateur.

Mais, même en interne, ce nouveau mode permettant des conversations à caractère sexuel était critiqué. Une des cadres de l’entreprise, Ryan Beiermeister a, par exemple, exprimé publiquement son opposition à cette fonctionnalité. Elle a été ensuite licenciée au motif qu’elle aurait commis une discrimination de genre à l’encontre de l’un de ses collègues masculins. Et l’entreprise continue officiellement d’avancer sur le projet, même si elle a encore reporté son lancement «  afin de pouvoir [se] concentrer sur des tâches qui sont actuellement plus prioritaires pour un plus grand nombre d’utilisateurs ».

Un comité d’experts furieux

Son comité d’experts sur le bien-être et l’IA s’est réuni en janvier après que les responsables de l’entreprise l’eurent informé de l’avancement du projet. Ce comité, créé mi octobre, rassemble des chercheurs comme David Bickham, Tracy Dennis-Tiwary ou Andrew K. Przybylski. Il a été mis en place notamment suite à la plainte contre OpenAI des parents d’Adam Raine, 16 ans, qui s’est suicidé. L’annonce de sa création a été étonnamment faite le jour où Sam Altman a annoncé son intention de mettre en place le mode adulte sur ChatGPT.

Selon le Wall Street Journal, les membres de ce comité étaient furieux et se sont unanimement opposés au projet. Ils ont averti que « l’érotisme généré par IA pouvait favoriser une dépendance affective malsaine pour les utilisateurs vis-à-vis de ChatGPT et que des mineurs pourraient trouver un moyen d’accéder à ces discussions sexuelles », expliquent les sources du journal. L’un des experts se serait appuyé sur plusieurs cas de suicides impliquant des chatbots IA pour affirmer qu’OpenAI prenait le risque de créer un « coach au suicide séduisant ».

Ainsi, en octobre 2024, l’adolescent Sewell Setzer III s’est suicidé alors qu’il avait développé une relation intime et problématique avec les chatbots de Character.AI. Sa mère a récemment conclu un accord avec l’entreprise, qu’elle accusait de ne pas avoir déployé les garde-fous nécessaires.

12 % des mineurs détectés comme des adultes

Si OpenAI a reporté le projet, le Wall Street Journal explique que l’entreprise veut toujours le mettre en place à terme. Mais selon le journal, le système de prédiction d’âge développé par OpenAI classait encore récemment à tort 12 % des mineurs comme des adultes, ce qui permettrait à des millions d’utilisateurs de moins de 18 ans à accéder à ses services censés être réservés aux adultes.

L’entreprise aurait aussi du mal à permettre aux adultes d’utiliser son chatbot pour des conversations érotiques tout en bloquant les contenus pédopornographiques. Son concurrent, xAI, est actuellement sous le coup de plusieurs enquêtes à travers le monde après la génération de deepfakes par son IA Grok visant à dénuder des femmes et des mineurs sur X.

Certaines personnes chez OpenAI ont souligné aussi le risque d’utilisations compulsives, de dépendances émotionnelles par rapport au chatbot, de tomber dans une spirale de recherche de contenus de plus en plus extrêmes, explique le Wall Street Journal.

Une porte-parole d’OpenAI a affirmé au journal que l’entreprise veut générer des discussions avec des « thèmes adultes » en les décrivant plutôt comme « sales » (« smut » en anglais) plus que « pornographiques ». Selon elle, les algorithmes de prédiction d’âge de l’entreprise affichent des résultats similaires à la concurrence mais ne seront jamais infaillibles. L’entreprise affirme qu’elle a mis en place des gardes-fous dans ses modèles pour ne pas encourager les relations exclusives avec les utilisateurs, et leur rappeler qu’ils ont besoin d’entretenir des relations dans la vie réelle.

Commentaires (12)

votre avatar
L’entreprise affirme qu’elle a mis en place des gardes-fous dans ses modèles pour ne pas encourager les relations exclusives avec les utilisateurs, et leur rappeler qu’ils ont besoin d’entretenir des relations dans la vie réelle.
C'est vrai que c'est vachement efficace : next.ink Next

... :frown:
votre avatar
Pour le coup, je ne suis pas sûr que ça soit pire que OnlyFan ou le p0rn de manière générale.
Et puis il y a beaucoup d'argent à se faire là dessus évidemment...
S'ils ne le font pas une autre société le fera.
votre avatar
"S'ils ne le font pas une autre société le fera"

J'en peux plus de cet argument qui permet absolument tout. C'est la même chose que l'argument du terrorisme ou de la sécurité nationale.

Sous prétexte d'anticiper le malheur, on le crée par nous même. Mais comment mieux faire pour se tirer une balle dans le pied?
votre avatar
C'est triste pour toi si tu penses que ces sociétés doivent être philanthropiques. Leur but c'est de gagner de l'argent. Et OpenAI est TRES endetté.
Libre à toi de ne pas écouter l'argument. Mais il existe et s'ils ne sont pas dans ce service ils ne profiteront pas de cette manne financière. C'est aussi simple que ça.

Et je n'ai pas compris le rapport avec le terrorisme et la sécurité nationale. :fou:
votre avatar
Du coup, l'esclavage ou le travail des enfants, bien ou pas bien ?
Vu que les conditions de travail Chinoises sont déplorables, pour que nous puissions produire nous devons les appliquer ici ?
votre avatar
Je ne vois pas le rapport non plus. Comparer des choses illégales avec des choses légales... L'industrie du sexe est légale et génère beaucoup d'argent.
votre avatar
La question n'est pas légale ou pas légale. C'est une question de principe et d'éthique.
Pour le coup, si tu n'aimes pas le principe de l'analogie avec le travail des enfants (légal dans certains pays). Peut-être celle du détournement de l'usage d'un médicament te parlera mieux.
Doit-on promouvoir un médicament qui sert à traiter telle pathologie en prétendant (à tort ou à raison) qu'il peut servir à perdre du poids ou autre (bref, un truc qui n'est pas l'objectif initial). Tu répondras que le labo n'en fait pas la promotion sous cette forme - et même qu'il n'a pas le droit le faire, certes. N'empêche qu'il profite de la manne financière de cette vente au risque des problèmes de santé publique que ça peut engendrer. Dans un monde dominé par l'information via réseau sociaux, il faut juste laisser le "bouche à oreille" faire le boulot.
Sam Altam ne fait pas autre chose "laissons les adultes être des adultes" ; la publicité il n'aura pas à la payer. Et les conséquences il ne s'en reconnaîtra pas la responsabilité.
Et en tant que citoyen.ne.s, je ne vois pas pourquoi on aurait pas notre mot à dire sur ces puissants qui décident pour tou.te.s en usant de nos faiblesses, nos manques et douleurs psycho-affectives ou sexuels (j'en fais partie...), à offrir à peu de frais une drogue à un dépendant... À défaut d'un contrôle publique et démocratique, ce comité est une bonne chose.
votre avatar
Ca existe déjà, Venice.ai par exemple
votre avatar
Merci !
votre avatar
Je ne vois pas le problème.
Depuis quand (question rhétorique) Sexe = mal ?

Eventuellement, la difficulté est, pour la France, la diffusion de contenue pornographique aux mineurs.
votre avatar
Non, le problème c'est pas sexe= mal, c'est "dépendance émotionnelle forte de personnes fragiles psychologiquement à un outil uniquement conçu pour maximiser l'engagement" = mal
votre avatar
Donc la problématique est dans : "personnes fragiles psychologiquement" et non dans l'outil.