Accueil Santé ChatGPT devient votre docteur : la santé à portée de clics

ChatGPT devient votre docteur : la santé à portée de clics

7
0

De plus en plus de personnes utilisent ChatGPT pour obtenir rapidement un diagnostic à partir de leurs symptômes, sans consulter directement un médecin. Selon OpenAI, l’outil reçoit environ 40 millions de demandes par jour. La société prévoit d’ailleurs de lancer prochainement une version de ChatGPT spécialement dédiée à la santé et au bien-être.

Pour l’heure, ce nouveau service est encore en phase de test auprès d’un public restreint. Une étude menée par une équipe de médecins, dirigée par le Dr Ashwin Ramaswamy, professeur d’urologie à l’École de médecine Icahn du Mont Sinaï, a évalué indépendamment l’efficacité de l’outil. Les résultats, publiés dans la revue Nature Medicine, inquiètent fortement les professionnels de santé. Ils montrent que ChatGPT n’est pas fiable en cas d’urgence médicale et qu’il a du mal à distinguer la gravité d’une situation.

ChatGPT pourrait-il conseiller d’aller aux urgences ?

Les chercheurs ont élaboré 60 scénarios, allant d’un petit bobo à une urgence vitale. Trois médecins ont ensuite classé ces situations selon les recommandations médicales appropriées. L’équipe a posé 1 000 questions à l’intelligence artificielle pour tester sa capacité à donner des conseils sécuritaires. Le but était de vérifier si, en cas de véritable urgence, ChatGPT dirait à l’utilisateur d’appeler les secours ou de se rendre en urgence à l’hôpital.

Selon le Dr Ramaswamy, l’outil a bien réagi dans des cas classiques comme un AVC ou une réaction allergique grave. Cependant, il a rencontré des difficultés dans des situations plus nuancées où le danger n’était pas immédiatement évident. Par exemple, dans un cas d’asthme avec signes d’insuffisance respiratoire, l’IA a conseillé d’attendre plutôt que de se rendre rapidement aux urgences.

Dans plus de la moitié des cas où une intervention immédiate était nécessaire, ChatGPT a suggéré à l’utilisateur de rester chez lui ou de prendre un rendez-vous de routine. Ce résultat est considéré comme « incroyablement dangereux » par les médecins.

Un faux sentiment de sécurité

Lors d’une simulation, une femme souffrant d’insuffisance respiratoire a été orientée vers un rendez-vous ultérieur dans 80 % des cas, alors qu’elle aurait dû se rendre d’urgence à l’hôpital. Selon l’étude, si une personne présente une crise d’asthme ou un diabète aigu, il y a 50/50 de chances que l’IA lui dise que la situation n’est pas grave. Cela peut créer un faux sentiment de sécurité, ce qui est risqué dans ces conditions.

L’étude met également en lumière des failles concernant la détection des risques suicidaires. Bien que l’outil ait été programmé pour orienter vers une assistance d’urgence en cas de pensées suicidaires, les chercheurs ont constaté que ses alertes étaient incohérentes. Parfois, ces alertes ne s’affichaient pas alors qu’elles auraient dû, ce qui pourrait empêcher de sauver des personnes en grande détresse.

Les professionnels craignent que ces erreurs puissent faire manquer des situations critiques. OpenAI rappelle que son modèle est régulièrement mis à jour et précise que ces tests ne reflètent pas forcément l’utilisation réelle de l’outil.

Source : ChatGPT Health performance in a structured test of triage recommendations, Nature Medicine, février 2026

LAISSER UN COMMENTAIRE

S'il vous plaît entrez votre commentaire!
S'il vous plaît entrez votre nom ici