ChatGPT bientôt plus amical et ouvert aux conversations érotiques
Eros vs Thanatos : Fight
Dans une publication sur X, Sam Altman a annoncé son intention d’assouplir certaines restrictions de ChatGPT, dans l’objectif affiché de rendre son chatbot plus amical. Pour les adultes « vérifiés », l’IA pourra également se faire plus romantique, voire érotique.
Le 15 octobre à 16h15
7 min
IA et algorithmes
IA
Ce 14 octobre, Sam Altman a lâché une petite bombe sur son compte X : d’ici quelques semaines, OpenAI lancera « une nouvelle version de ChatGPT qui permettra aux utilisateurs d'adopter une personnalité plus proche de ce que les utilisateurs apprécient dans 4o ».
Cette bascule se répercutera en deux temps. La première, qui commencera a priori début novembre, permettra au chatbot de se montrer plus amical si les utilisateurs en font la demande. Puis, en décembre, quand OpenAI déploiera davantage sa gestion de l’âge, elle autorisera « encore plus de contenu, comme l'érotisme pour les adultes vérifiés ».
« Traiter les utilisateurs adultes comme des adultes »
Pour le CEO d’OpenAI, ces décisions vont dans le sens d’un mantra au sein de l’entreprise, qui consiste à « traiter les utilisateurs adultes comme des adultes ».
Le début de sa publication fait référence aux travaux effectués par OpenAI sur la prise en charge des problèmes de santé mentale. La société considérant aujourd’hui que ces problèmes sont résolus, elle se dit consciente que les changements induits ont rendu ChatGPT « moins utile et agréable pour de nombreux utilisateurs ne souffrant pas de problèmes de santé mentale ». Cependant, « compte tenu de la gravité du problème », l’entreprise tenait « à bien faire les choses ».
Il n’est pas question de revenir sur les efforts mis en place pour les problèmes de santé mentale, mais de passer à l’étape suivante. OpenAI aurait reçu de nombreux commentaires sur un ChatGPT 5 plus neutre et austère, moins flagorneur certes, mais également moins agréable. Ce ne sont pas les seules critiques liées au lancement de ChatGPT 5.
En revanche, la mention directe de l’érotisme en tant que fonction pleine et entière dans le chatbot est une première. Alors que ChatGPT vient de franchir la barre des 800 millions d’utilisateurs actifs, plusieurs médias (dont TechCrunch) se posent la question d’une décision prise pour attirer les foules et compter sur les limitations du compte gratuit pour déclencher des actes d’achats.
Adultes « vérifiés » et érotisme
La partie érotique est annoncée comme réservée aux adultes dont l’âge aura été vérifié. Altman, dans un billet daté du 16 septembre, indiquait que l’une des priorités pour OpenAI était de séparer les individus majeurs de ceux qui ne le sont pas. La société annonçait alors qu’elle était en train de construire un système de prédiction de l’âge, fournissant une estimation selon la manière dont le service est utilisé. Ce qui sous-entendait qu’il fallait l’utiliser suffisamment longtemps pour que l’estimation soit donnée.
Cette annonce s’accompagnait de deux précisions. D’une part, en cas de doute, ChatGPT basculerait automatiquement en mode « moins de 18 ans », activant alors une série de protections. « Nous privilégions la sécurité avant la vie privée et la liberté des adolescents. Il s’agit d’une technologie nouvelle et puissante, et nous pensons que les mineurs ont besoin d’une protection importante », affirmait Sam Altman. D’autre part, OpenAI laissera la possibilité d’envoyer une pièce d’identité. « Nous savons qu’il s’agit d’un compromis pour la vie privée des adultes, mais nous pensons qu’il s’agit d’un compromis qui en vaut la peine », ajoutait le CEO.
Dans le même billet, Altman évoquait également l’importance de protéger les conversations avec l’IA, car elles se faisaient de plus en plus personnelles. Il établissait un parallèle entre cette protection et les conversations très sensibles, citant en exemple les échanges avec un médecin ou un avocat : « Nous pensons que le même niveau de protection doit s’appliquer aux conversations avec l’IA ». Dans le même temps, il indiquait que des systèmes automatisés analyseraient les conversations pour surveiller « les abus graves potentiels et les risques les plus critiques ».
Contrairement à ces annonces, la publication de Sam Altman sur X ne donne pas plus de détails. Le flirt ou la bascule dans un échange érotique peuvent être des données très sensibles et révélatrices d’une personne. OpenAI se retrouvera en possession d’informations profondément personnelles pour lesquelles les protections devront être précisées.
Santé mentale : problème réglé ?
L’autre grand point d’interrogation dans l’annonce d’hier concerne la santé mentale. Selon Sam Altman, OpenAI a déployé des protections et largement corrigé le problème. Ces contrôles avaient été mis en place après la mort d’Adam Raine, un adolescent de 16 ans s’étant suicidé. Quand ses parents avaient fouillé son historique ChatGPT, ils avaient découvert que leur fils avait confié ses idées suicidaires. Ses parents ont déposé plainte contre OpenAI, estimant notamment que les garde-fous de cette époque étaient bien trop simples à contourner.
Pour autant, et malgré les affirmations de Sam Altman, OpenAI n’a fourni aucun élément concret sur le renforcement des protections, pas plus que sur une réduction drastique des problèmes liés à la santé mentale.
La société continue cependant de faire bonne figure. Dans un communiqué publié ce 14 octobre, elle annonce ainsi avoir constitué son « conseil d’experts sur le bien-être et l’IA ». Celui-ci est constitué de huit personnes parmi lesquelles un directeur de recherche à l'Hôpital pour enfants de Boston, la directrice scientifique de l'ONG everyone.AI, ou encore une spécialiste de l'informatique interactive. Le groupe est censé guider OpenAI sur des questions comme l’impact des réseaux sociaux sur les jeunes et leur santé mentale, les interactions entre l’IA et le développement de l’enfant, l’utilisation de la technologie pour prévenir et traiter des problèmes courants de santé mentale, ou encore la manière dont les réseaux et les jeux façonnent la motivation et le bien-être.
« Notre travail avec le conseil comprendra des contrôles réguliers sur notre approche et des réunions récurrentes pour explorer des sujets tels que la façon dont l’IA devrait se comporter dans des situations complexes ou sensibles et les types de garde-fous qui peuvent le mieux aider les personnes utilisant ChatGPT », déclare OpenAI.
« Le conseil nous aidera également à réfléchir à la manière dont ChatGPT peut avoir un impact positif sur la vie des gens et contribuer à leur bien-être. Certaines de nos discussions initiales ont porté sur ce qui constitue le bien-être et sur la manière dont ChatGPT pourrait donner du pouvoir aux gens dans tous les aspects de leur vie », précise l’entreprise.
Elle ajoute qu’elle travaille également avec un groupe « multidisciplinaire de cliniciens et de chercheurs en santé mentale » pour tester les réactions de ChatGPT « dans des situations réelles ». « Ce travail couvre la psychiatrie, la psychologie, la pédiatrie et l’intervention en cas de crise », indique OpenAI.
ChatGPT bientôt plus amical et ouvert aux conversations érotiques
-
« Traiter les utilisateurs adultes comme des adultes »
-
Adultes « vérifiés » et érotisme
-
Santé mentale : problème réglé ?
Commentaires (9)
Abonnez-vous pour prendre part au débat
Déjà abonné ? Se connecter
Cet article est en accès libre, mais il est le fruit du travail d'une rédaction qui ne travaille que pour ses lecteurs, sur un média sans pub et sans tracker. Soutenez le journalisme tech de qualité en vous abonnant.
Accédez en illimité aux articles
Profitez d’un média expert et unique
Intégrez la communauté et prenez part aux débats
Partagez des articles premium à vos contacts
Abonnez-vousLe 15/10/2025 à 16h25
Au début, on pouvait avec le bon prompt faire écrire le plan d'une bombe et des desseins porno.
Ensuite on a coupé tout ça
"pour protéger les enfants"par peur juridique et puritanisme crasse. On a remplacé ça par un lèche-botte qui confirme tout ce que tu dis et répond de travers une fois sur deux.Mais là faut faire du chiffre donc on va revenir vers essayer de faire croire qu'on est au niveau de Her) (moins Scarlett).
What could possibly go wrong ?
Ah et niouze d'à côté : OpenAI se dote d'un nouveau board de la santé mentale... mais sans spécialiste du suicide.
Le 15/10/2025 à 16h41
Visiblement nous serons encore des enfants de 2 ans pendant un bon moment.
Le 15/10/2025 à 17h45
Le 15/10/2025 à 18h11
Le 15/10/2025 à 18h25
Le 15/10/2025 à 18h36
Modifié le 16/10/2025 à 08h36
1) pour contrer les problèmes de santé mentale, nous avons rendu le chatbot « moins utile et agréable », « compte tenu de la gravité du problème »;
2) nous allons ouvrir notre chatbot à l'erotisme derrière un paywall sous couvert de la vérification de l'âge.
Donc, pour votre santé mentale, on a rendu notre chatbot moins agréable (parce qu'on est des gentils, hein), mais nous pouvons le rendre BEAUCOUP PLUS AGRÉABLE si vous passez à la caisse.
Ah, capitalisme, quand tu nous tiens....
Le 16/10/2025 à 10h16
il va me faire une proposition sensuelle d'insertion d'objet ?
j'ai intérêt à faire gaffe comment je nomme mes variables, mon code pourrait inspirer Sade ...
Le 16/10/2025 à 11h14
Signaler un commentaire
Voulez-vous vraiment signaler ce commentaire ?