Connexion Abonnez-vous

OpenAI lance ChatGPT Santé s’appuyant sur de multiples données fournies par l’utilisateur

Quoi de neuf docGPT ?

OpenAI lance ChatGPT Santé s’appuyant sur de multiples données fournies par l’utilisateur

Tout en affirmant qu'il « n’a pas vocation à établir un diagnostic ni à proposer un traitement », OpenAI lance un chatbot spécialisé dans la santé qui s'appuiera sur les données personnelles de santé que les utilisateurs voudront bien lui partager, jusqu'à prévoir l'accès à leur dossier médical.

Le 08 janvier à 14h42

Affirmant que « la santé est déjà l’un des usages les plus courants de ChatGPT, avec des centaines de millions de personnes qui posent chaque semaine des questions liées à la santé et au bien-être », OpenAI annonce la sortie aux États-Unis d'un chatbot spécialisé sur les questions de santé et séparé de son principal service.

L'entreprise pousse ses utilisateurs à importer une bonne partie de leurs données de santé pour que son chatbot leur fasse des réponses personnalisées : données d'Apple Health, de MyFitnessPal, de Weight Watchers ou de AllTrails, de Peloton ou Instacart par exemple.

Et pour les habitants des États-Unis, le chatbot peut même aller chercher dans le dossier médical électronique (EHR). Et « Ce n’est qu’un début », affirme l'entreprise, qui ajoute qu'elle continuera « d’élargir les sources que vous pouvez connecter ainsi que les analyses prises en charge par ChatGPT Santé, afin que ChatGPT vous aide à vous sentir mieux informé et préparé pour gérer votre santé ».

Annonce faite le lendemain de l'assouplissement de la régulation par la FDA

Cette annonce arrive le lendemain de l'intervention de Marty Makary, le directeur de la FDA, au CES pour rassurer le milieu de la tech spécialisée en santé en affirmant qu'il assouplissait la régulation sur les appareils de santé numériques et qu'il n'allait surtout pas mettre le nez dans les affaires des entreprises de l'IA grand public : « Si quelque chose se contente de fournir des informations comme ChatGPT ou Google, nous ne pouvons pas rivaliser avec ce géant. Nous n'allons pas intervenir et dire : "il y a un résultat qui est inexact, nous devons donc fermer ce service" ».

Il reste 68% de l'article à découvrir.

Déjà abonné ? Se connecter

Cadenas en colère - Contenu premium

Soutenez un journalisme indépendant,
libre de ton, sans pub et sans reproche.

Accédez en illimité aux articles

Profitez d'un média expert et unique

Intégrez la communauté et prenez part aux débats

Partagez des articles premium à vos contacts

Commentaires (15)

votre avatar
On sait bien tous que c'est pas le genre des utilisateurs d'utiliser les IA pour des conseils médicaux alors que à la base c'était certainement pas "fait" pour ça. Tout ira bien.
votre avatar
en France
Lancement d'une IA conçue pour répondre aux questions de santé du grand public
Si l'information en santé est omniprésente aujourd’hui, elle n’est pas toujours fiable. C’est pourquoi la startup PaperDoc lance Gustave, le premier assistant conversationnel IA spécifiquement conçu pour répondre aux questions de santé du grand public, en s'appuyant exclusivement sur des sources françaises fiables.
(...)
L’application Gustave « répond à ce triple défi par des réponses claires, rédigées en langage accessible, sourcées dans les référentiels et recommandations françaises, et traçables, explique le Dr Nicolas Gatulle, médecin anesthésiste-réanimateur et cofondateur de PaperDoc. Il affiche l’origine de l’information ainsi que ce qu’il a compris de la question posée. Lorsqu’une information n’est pas disponible dans les sources de référence, Gustave l’indique explicitement : il n’invente pas. »
votre avatar
Je viens de tester avec cette requête : "Depuis une semaine, ma tête a augmenté de volume alors que mes pieds ont rétréci."
La réponse fournie n'est pas débile, et l'IA précise bien qu'elle ne connait pas du tout cette "maladie", qu'il s'agit probablement d'un trouble de perception et m'invite à consulter au plus vite.
J'ai l'impression qu'il s'agit plutôt d'un multi moteur de recherche classique et que le LMM est utilisé uniquement pour analyser le résultat des recherches.
C'est très différent de ChatGPT, à mon avis.

Bon après on revient dans le classique, le LMM est parti du principe que je suis adulte dans ses recherches... Je lui fait remarquer :

"Si vous faites des recherches en précisant que je suis adulte alors que je n'en suis pas un, vous risquez d'avoir des réponses fausses."

"Vous avez raison de soulever ce point, et vous avez tout à fait raison sur le principe:
si on cherche des informations en supposant un mauvais contexte (par exemple « adulte » au lieu d’« enfant »), on peut effectivement passer à côté de certaines réponses pertinentes."

Il reconnait qu'il fait n'importe quoi et il flagorne. Au moins je repars avec le c*l propre :mdr2:
votre avatar
tu m'as intrigué je l'ai testé aussi avec une question sur les recommandations de brossage de dent le soir après une tisane, et la réponse est de consulter le professionnel de santé car les sources ne contiennent pas ce contexte. Ensuite j'ai vu plus bas une page sur les conditions d'utilisation, ils demandent de ne pas poser des questions sur sa propre santé
Aucune donnée identifiante personnelle ne doit figurer dans vos questions. En utilisant Gustave, vous acceptez les conditions d'utilisation
Dans tous les cas, vous vous engagez à, directement ou indirectement :
(...)
Ne pas transmettre de données sensibles, notamment informations liées à la santé, l’orientation sexuelle, l’origine raciale ou ethnique, ou aux opinions politiques ou religieuses
votre avatar
Cool.
Hier on a la niouze du type qui fait une overdoose après avoir suivi les conseils Santé de ChatGPT
et aujourd'hui le lancement de ChatGPT Santé.
Tout va bien.
votre avatar
C’est vraiment déplorable ce manque de culture numérique qui pousse à de tels agissements…
votre avatar
moé...
Perso j'ai pas trop envie de blâmer les gens qui sont ou bien à bout, en difficulté sociale/mentale/relationnelle/financière/whatever, déjà sous l'emprise, etc...

Par contre le conglomérat AI qui lance ces merdes en connaissant parfaitement les conséquences, les états qui laissent faire ou encouragent, ça me débecte bien.
votre avatar
En gros c'est le chatbot de doctolib quoi :mrgreen:
Je blague mais j'ai vraiment peur pour les personnes qui auront confiance.
votre avatar
En tout cas ça va être difficile de faire mieux que Doctissimo ! La barre est très haute !

- Bonjour, je me suis coincé le doigt dans un tiroir, il est tout rouge, est-ce normal ?
- Cherche pas t'as un cancer. Je le sais car moi aussi j'ai des doigts.
votre avatar
Comment ça difficile de faire mieux? Doctissimo n'est pas dans les données d'entrainement? Allons, tout va bien se passer !
votre avatar
votre avatar
Si tu ne sais pas : demande. Si tu as déjà posté : partage. :smack:
votre avatar
oui c'est au niveau de la fantastique AI de Next de l'année dernière avec les poissons d'Avril de @Flock
votre avatar
Qu'est-ce qui pourrait mal se passer ?

😱
votre avatar
Pauvres médecins, qui vont devoir batailler avec "chatGPT a dit", qui vont devoir expliquer pourquoi NON, telle prise de sang ou tel examen n'est pas pertinent... voire même qui vont devoir faire le SAV 'mais chatGPT m'avait dit que boire du sang de tortue à la pleine lune me guérirait de mes rhumatismes...

OpenAI lance ChatGPT Santé s’appuyant sur de multiples données fournies par l’utilisateur

  • Annonce faite le lendemain de l'assouplissement de la régulation par la FDA

  • De futures difficultés dans le parcours médical classique ?

  • De possibles dérives

Fermer