OpenAI promeut ChatGPT pour les décisions de santé malgré des préoccupations concernant la précision
Terrill Dicki 5 mars 2026 01h21
OpenAI met en avant une famille utilisant ChatGPT pour les décisions de traitement du cancer, mais des études récentes montrent que les outils de santé pilotés par l'IA présentent des problèmes importants de précision et de sécurité.
OpenAI a publié cette semaine une étude de cas présentant une famille qui a utilisé ChatGPT pour se préparer aux décisions de traitement du cancer de leur fils, positionnant le chatbot piloté par l'IA comme un complément aux conseils des médecins. Le timing soulève des questions compte tenu des preuves croissantes que les outils de santé pilotés par l'IA présentent des problèmes de fiabilité importants.
Le document promotionnel, publié le 4 mars, décrit comment les parents ont utilisé ChatGPT aux côtés de l'équipe d'oncologie de leur enfant. OpenAI présente cela comme une utilisation responsable de l'IA—complétant plutôt que remplaçant l'expertise médicale.
Mais ce récit optimiste entre en collision avec des résultats de recherche inconfortables. Une étude publiée dans Nature Medicine examinant le propre produit « ChatGPT Health » d'OpenAI a révélé des problèmes substantiels de précision, de protocoles de sécurité et de biais racial dans les recommandations médicales. Ce n'est pas une mise en garde mineure pour un outil que les gens pourraient utiliser lors de décisions de vie ou de mort concernant le traitement du cancer.
Le problème de précision
La recherche indépendante dresse au mieux un tableau mitigé. Une étude de Mass General Brigham a révélé que ChatGPT atteignait environ 72 % de précision dans les spécialités médicales, montant à 77 % pour les diagnostics finaux. Cela semble correct jusqu'à ce que vous considériez ce qui est en jeu—monteriez-vous dans un avion avec 23 % de chances que le pilote commette une erreur critique ?
La société d'IA de santé Atropos a fourni des chiffres encore plus sombres : les grands modèles de langage à usage général fournissent des informations cliniquement pertinentes seulement 2 % à 10 % du temps pour les médecins. L'écart entre « parfois utile » et « suffisamment fiable pour les décisions concernant le cancer » reste vaste.
L'American Medical Association n'a pas mâché ses mots. L'organisation recommande aux médecins de ne pas utiliser d'outils basés sur les LLM pour l'assistance à la décision clinique, citant des préoccupations de précision et l'absence de directives standardisées. Lorsque l'AMA dit aux médecins de s'en tenir à l'écart, les patients devraient probablement en prendre note.
Ce que ChatGPT ne peut pas faire
Les chatbots pilotés par l'IA ne peuvent pas effectuer d'examens physiques. Ils ne peuvent pas lire le langage corporel d'un patient ou poser les questions de suivi intuitives que les oncologues expérimentés développent au fil des décennies. Ils peuvent halluciner—générant des informations qui semblent confiantes mais qui sont complètement fabriquées.
Les préoccupations concernant la vie privée ajoutent une autre couche. Chaque symptôme, chaque peur, chaque détail sur le cancer d'un enfant tapé dans ChatGPT devient une donnée sur laquelle les utilisateurs ont un contrôle limité.
L'étude de cas d'OpenAI souligne que la famille a travaillé « aux côtés des conseils d'experts des médecins ». Cette qualification compte. Le danger n'est pas que des patients informés posent de meilleures questions—c'est que des personnes vulnérables en crise comptent potentiellement trop sur un outil qui se trompe plus souvent que le marketing ne le suggère.
Pour les investisseurs en cryptomonnaie qui observent les ambitions d'entreprise d'OpenAI, la poussée dans le secteur de la santé signale une expansion aggressive dans des secteurs à enjeux élevés. La question de savoir si les régulateurs toléreront que les sociétés d'IA promeuvent des outils d'aide à la décision médicale avec des problèmes de précision documentés reste ouverte à l'approche de 2026.
Source de l'image : Shutterstock- openai
- chatgpt
- ai healthcare
- medical ai
- health tech



