Connexion Premium

Ce que GPT-4o dit de l’attachement émotionnel à l’IA

Le 09 mars à 11h55

S’il a été controversé, le modèle GPT-4o de l’application ChatGPT a aussi ses fervents défenseurs. Lancé en mai 2024, ce modèle était aussi apprécié que critiqué pour ses capacités de simulation de l’empathie.

Si GPT-4o a valu à OpenAI des poursuites en justice au motif que la machine aurait encouragé des usagers au suicide, elle a aussi été si plébiscitée que, lorsqu’OpenAI a fait le choix de débrancher le modèle, à l’été 2025 d’abord, puis définitivement le 13 février 2026, l’entreprise s’est retrouvée confrontée à une levée de boucliers.

Pour la chercheuse Mai Huiqian Lai, interrogée par Libération, on peut même parler « d’un mouvement de résistance », incarné par exemple dans des pétitions ou d’intenses échanges sur le subreddit r/MyBoyfriendIsAI.

En février 2026, 0,1 % des utilisateurs recouraient à l’option payante de GPT-4o, indique OpenAI. Pour une société en recherche de modèle économique, c’est loin d’être suffisant, mais rapporté aux 900 millions d’utilisateurs de ChatGPT, cela revient tout de même à quelques centaines de milliers d’internautes.

Pour ressusciter GPT-4o – et quelquefois, pour protester contre les récents contrats d’OpenAI avec l’armée américaine, par exemple dans le cadre d’appels au boycott comme QuitGPT –, certains clonent les conversations et la relation entretenue avec la machine sur des services payants, nommés 4o-Revival ou just4o.chat.

OpenAI, de son côté, a promis de lancer un ChatGPT « adulte », mais la réponse ne satisfait pas Mai Huiquian Lai. Autrice d’un article intitulé « « S’il vous plaît, ne tuez pas le seul modèle qui donne une impression d’humanité » : Comprendre le backlash #Keep4o », la chercheuse regrette auprès de Libération que là où des internautes demandent « la reconnaissance de leurs besoins de connexion existentielle », OpenAI ne réponde que par de la pornographie.

Et d’appeler à obliger les constructeurs de robots conversationnels à respecter les usagers et l’intimité que ces derniers créent avec des machines. Après tout, celle-ci découle directement de la manière dont les robots conversationnels sont conçus.

Mai Huiquian Lai estime donc qu’il faudrait créer des régulations qui prennent en compte les préjudices « relationnels et émotionnels » créés par la suppression brutale de machines qui avaient initialement été fabriquées pour susciter l’attachement.

Le 09 mars à 11h55

Commentaires (9)

votre avatar
Ce que GPT-4o dit de l’attachement émotionnel à l’IA
Et il dit quoi en fait ?
votre avatar
Que l'humain est si facilement manipulable qu'une simulation non dissimulée d'empathie suffit à lui faire apprécier (en avoir confiance en) son interlocuteur ?
Que l'humain cherche davantage à discuter avec autrui (même si autrui = une machine) qu'à avoir réponse à des questions complexes ?
votre avatar
Qu'on a tous besoin de conversation et d'attachement, et que si l'on est trop isolé, une IA est une alternative plus crédible et moins encombrante qu'un chat... La question étant : comment en arrive-t-on à une société ultra connectée dont les individus se sentent si seuls ? J'ai comme dans l'idée que ceux qui fournissent la solution (IA conversationnelle) sont ceux qui ont (en grève partie) créé le problème 🙃
votre avatar
Proton a résolu le problème : son IA est un chat (Lumo) :D
votre avatar
Une autre brève d'aujourd'hui montre que non : next.ink Next

On n'a pas tous besoin de conversation et que l'on peut être isolé sans s'attacher à une IA.
votre avatar
En février 2026, 0,1 % des utilisateurs recouraient à l’option payante de GPT-4o, indique OpenAI. Pour une société en recherche de modèle économique, c’est loin d’être suffisant, mais rapporté aux 900 millions d’utilisateurs de ChatGPT, cela revient tout de même à quelques centaines de milliers d’internautes.
Business pro tip : ne pas laisser mourir ses clients permet de sécuriser ses financements :D
Mai Huiquian Lai estime donc qu’il faudrait créer des régulations qui prennent en compte les préjudices « relationnels et émotionnels » créés par la suppression brutale de machines qui avaient initialement été fabriquées pour susciter l’attachement.
Doudou 2.0 ?
votre avatar
Mai Huiquian Lai estime donc qu’il faudrait créer des régulations qui prennent en compte les préjudices « relationnels et émotionnels » créés par la suppression brutale de machines qui avaient initialement été fabriquées pour susciter l’attachement.
Du coup il faut aussi une régulation pour obliger les réseaux sociaux à conserver les algos qui rendent les gens dépendants. Ou alors donner une compensation pour le préjudice émotionnel en cas de changement.

On peut aussi imaginer une régulation pour interdire aux casinos de fermer leurs portes, même en cas de faillite. Une assurance obligatoire pourrait s'activer dans ce cas et permettre aux joueurs ayant développé une dépendance de continuer à venir y jouer, ou de compenser ces personnes pour le préjudice émotionnel.
votre avatar
Arte avait diffusé il y a 10-15 ans une série de SF nommée Real Humans, à fond dans ces thématiques.
Il faudrait que je la revoie, je pense qu'elle doit sonner particulièrement juste aujourd'hui.
votre avatar
Ah oui carrément.

Et pour la relation humain-machine, je pense à Black Mirror et l'épisode "Be right back" (S02E01) qui me semble un bon aperçu en accéléré de la trajectoire actuelle des choses, diffusé en 2013 pour info.