Est ce que l’IA dans sa version langagière est capable de faire des diagnostics complexes? La réponse est oui. Les auteurs de cet article ont utilisé les cas cliniques du NEJM pour tester la capacité de GPT-4 à donner le bon diagnostic ou à le mettre dans la liste des diagnostics différentiels.
Sur 70 cas soumis, le logiciel fourni le bon diagnostic dans 39% des cas. Dans 64% des cas, il est dans la liste des diagnostics différentiels.
Je suis assez impressionné par la capacité de GPT-4. Je ne sais pas si beaucoup de médecins sont capables de donner le bon diagnostic de ces cas cliniques dans 40% des cas. Personnellement, je n’aurais pas un tel taux de réussite. L’intelligence artificielle sera un outil indispensable dans l’aide au diagnostic pour le clinicien. Elle ne le remplacera pas, du moins pas pour l’instant, mais nous ne pourrons faire de médecine sans. Il serait très intéressant de l’implanter dans les logiciels que nous utilisons pour la gestion du dossier médical du patient et voir ce que ça donne. La puissance de ces logiciels avec les entrepôts de données vont être une révolution pour le soin. Nous vivons une époque passionnante.
Je conseille, si vous n’êtes pas convaincu de lire « Si Rome n’avait pas chuté » de Raphaël Doan, le premier livre d’histoire écrit par une IA. Il s’agit d’un essai de what if history. L’idée de départ est, que ce serait il passé si les romains avaient décidé de maitriser la machine à vapeur? A partir de là GPT-3 déroule. C’est une expérience très intéressante. Pour tout ceux qui pense que c’est du gadget, cette lecture est indispensable et enthousiasmante. L’IA sera un partenaire formidable pour l’humanité.
L’enthousiasme laissera peu à peu place à une vision terrifiante, inhumaine, glacée. Il sera bien tard de réagir à l’implacable rationalisation pratico-formelle de l’industrie de santé si bien décrite dès les années 70 « La Némésis médicale » l’expropriation de la santé Ivan ILLICH, rappelée par Roland GORI « la fabrique de nos servitudes »
SI on me laisse choisir entre faire de la médecine dans les années 70 et maintenant et bien il n’y a pas photo je choisis maintenant. Rien que dans ma spécialité les progrès ont été monumentaux, immunosuppresseurs, amélioration des techniques de dialyse, epo, etc. QU’on réfléchisse à l’utilisation, tout à fait d’accord. Je ne crois pas en l’art médical.
Je me pose une question sur laquelle j’aimerais avoir votre avis: sachant que ces IA sont alimentées par des bases de données issues de l’expérience humaine, que se passera-t-il lorsque les bases données vont s’apauvrir du fait du recours à l’IA comme aide diagnostique?
L’IA fait un diagnostic sur la base de symptômes bien décrits, avec un tri déjà fait entre symptômes/lésions élémentaires utiles au diagnostic et secondaires ( ou classées comme telles). Si on n’apprend plus à identifier une lésion élémentaire ( car l’IA l’aura identifiée pour nous), comment sauront-nous dans quelques générations ce qui est vrai de ce qui ne l’est pas? Qui va continuer à alimenter les bases de données de ces IA?
Pour aller un peu plus loin, que se passera-t-il en termes de responsabilité si un médecin décide de ne pas suivre le diagnostic proposé par l’IA?
Surement faudra-t-il dans les facultés des cours de décryptage d’algorithme IA comme il y a des cours de lecture critique d’article…
UNe très bonne question, la responsabilité de ces systèmes dans la prise de décision est majeur. Je pense qu’il faut les voir comme des aides pendant encore un certains temps et des outils pour être bien sur que nous restons bien réveillés. L’IA n’est jamais fatigué nous oui. Nous continuerons à nourrir les bases de données avec du retour d’expérience. Il y a sur le sujet un très chouette papier dans nature medicine sur la mise en place des techniques automatisées de diagnostic des fond d’oeil. Comprendre comment marche l’IA est tout un pan de la recherche.