Vous allez en entendre parler ad nauseam de ce preprint. Un chatbot qui fait mieux qu les médecins pour diagnostiquer la maladie du patient et avec plus d’empathie. Plus besoin de médecin, il faudra juste interroger votre AMIE. On imagine comment les politiques terrorisés par les déserts médicaux vont adorer cette nouvelle et se délecter à l’idée que l’I-A ne va pas vraiment les obliger à faire un effort pour la santé, car bientôt tout sera réglé par Google Health.
Je suis persuadé que l’I-A nous remplacera, quand je ne le sais pas mais elle fera mieux que nous pour le diagnostic par la force des choses. Ici, c’est un premier pas mais vraiment le premier demi-pas. Le plus intéressant dans l’article est la méthodologie d’entraînement que le résultat « clinique ». Les auteurs ont fait un truc intelligent ils ont laissé la machine discuter avec elle même. C’est probablement l’avenir en médecine où les corpus d’entretien clinique ne courent pas les rues. Aucun doute que cette approche d’entraînement est promise à un bel avenir. Pour comprendre la complexité de passer de super résultats en laboratoire à reproduire ça sur le terrain je vous conseille ce papier.
Rapidement sur l’évaluation clinique, ils ont pris comme test, non pas un vrai patient mais une situation clinique standardisé joué par un acteur, un Examen Clinique à Objectif Standardisé (ECOS). Vous voyez la différence entre ce test et la vraie vie. En passant, on évalue les compétences cliniques des étudiants en médecine avec le même outil. Petite pensée aux 6e année qui voit que l’I-A les aiderait bien pour les ECOS nationaux en mai. On capture certes des compétences mais on est bien loin d’une clinique avec un vrai patient.
Dans ce genre d’exercice l’I-A est meilleure que des médecins. La standardisation l’aide car les données arrivent facilement (des acteurs à qui ont a appris un scénario qu’il déroule) et comme elle est formée sur du standardisé, il est normal que ça marche bien. Les cliniciens qui ont joué le jeu ont répondu comme des chatbots par écrit ce qui n’est pas du tout naturel pour un médecin. Nous sommes formés pour l’interaction physique et pas pour passer par le biais du clavier. Les ECOS pour les étudiants en médecine se font en IRL. On est bien loin du patient bourré des urgences ou du patient confus ne parlant pas français qui débarque dans le service. Le fait que la machine n’est pas besoin de récupérer physiquement les informations est une grosse limite.
Pour la mesure de l’empathie ou de la qualité de l’interaction, c’est carrément du foutage de gueule. J’imagine faire un ECOS via un chat, en cherchant le diagnostic, en tapotant sur mon clavier. On va à l’os dans la discussion pour s’économiser sur la frappe. La machine, ça ne lui coûte rien d’en rajouter dans l’empathie qui n’est qu’une tournure de phrase qu’elle a appris. A mon sens comparer le niveau d’empathie dans cette situation est totalement ridicule, même si probablement nous avons à apprendre de la machine pour paraître plus empathique et faire de plus jolies phrases.
Ce papier est une étape importante dans la création d’outils de diagnostic pertinents. On est encore loin de la consultation faite de A à Z par une I-A, mais c’est le sens de l’histoire. Nous passera probablement par une aide d’aide au diagnostic qui permettra à l’I-A en entrant dans la vraie vie d’apprendre encore plus. Cette phase d’apprentissage faite en vraie vie, elle sera forcément plus efficace. Nous entrons dans le machinocène, toujours bien mâtiné de capitalocène.
Si vous vous demandez pourquoi que je met un tiret entre le I et le A de l’intelligence-artificielle, je vous conseille l’écoute de Daniel Andler qui vous l’expliquera mieux que moi. SI vous avez aussi envie d’entendre un autre son de cloche sur l’intelligence que l’angoisse, je vous conseille l’écoute de James Bridle.