ChatGPT, un (mauvais) docteur ? Une étude alerte sur les diagnostics par IA
L’intelligence artificielle (IA) promet de révolutionner de nombreux domaines, et la santé ne fait pas exception. Pourtant, une récente étude menée par le Dr Gérald Kierzek, urgentiste et directeur médical de Doctissimo, vient tempérer l’enthousiasme en pointant du doigt les limites de ChatGPT-4 en matière de diagnostic médical.
Les IA à l’épreuve du diagnostic : des résultats inquiétants
L’étude a soumis ChatGPT-4 à une série de 100 cas cliniques anonymisés tirés d’ouvrages de référence en médecine générale. Le défi pour l’IA était de poser un diagnostic à partir des symptômes initiaux, puis avec des informations complémentaires si nécessaire, simulant ainsi une consultation réelle.
Les résultats sont loin d’être brillants et appellent à la prudence :
- Seulement 17% des diagnostics étaient corrects dès la première proposition de ChatGPT-4.
- L’IA atteignait 29% de précision si l’on considérait les trois premières propositions.
- Et seulement 39% en élargissant aux cinq premières hypothèses de diagnostic.
Ces chiffres sont particulièrement préoccupants quand on les compare aux performances humaines : un médecin généraliste poserait le bon diagnostic du premier coup dans 85% des cas, et même un étudiant en troisième année de médecine atteint environ 51% de précision dès la première proposition.
Pourquoi ChatGPT trébuche-t-il là où l’humain excelle ?
La médecine est un art autant qu’une science. Le diagnostic ne repose pas uniquement sur la reconnaissance de mots-clés ou de symptômes. Il intègre une multitude de facteurs : le jugement clinique, l’expérience, l’intuition, l’empathie, la capacité à interpréter des nuances, le contexte du patient, et même les informations non-verbales.
Pour le Dr Kierzek, « une IA ne sait pas juger si c’est grave ou pas, ne sait pas prendre en compte les comorbidités, ni même les médicaments que prend le patient ». Elle manque de cette compréhension holistique et de cette capacité de raisonnement complexe qui sont le propre de l’intelligence humaine, particulièrement dans un domaine aussi nuancé que la santé.
Faut-il bannir l’IA de la médecine ?
Absolument pas ! L’IA reste un outil puissant avec un immense potentiel. Elle peut exceller dans l’analyse de grandes masses de données, l’aide à la recherche, la personnalisation des traitements ou même l’assistance dans certaines tâches administratives.
Cependant, cette étude est un rappel clair : ChatGPT, dans son état actuel, est un mauvais docteur pour le diagnostic. Se fier aveuglément à ses propositions pourrait entraîner des erreurs graves, des retards de prise en charge et des risques pour la santé des patients. Le rôle du médecin, avec son expertise et son humanité, demeure irremplaçable pour le moment.
Il est crucial de continuer à développer l’IA en médecine, mais avec une approche critique et une compréhension claire de ses limites, en veillant toujours à ce qu’elle reste un support pour le professionnel de santé, et non un substitut.