Ce compte-rendu parle de médecine. Lisez-le quand même.
J’étais hier soir à une conférence des États généraux de la bioéthique, à la fac de Pey Berland à Bordeaux. Une soirée consacrée aux enjeux éthiques de l’IA en santé. Médecins libéraux, chercheurs en santé publique, représentants des usagers, philosophes des sciences — une quarantaine en présentiel, autant en ligne.
Je ne suis pas soignant, j’ai peu de clients médecins, mais j’y vais pour vérifier mes angles morts et puis… je ne sais pas rater une occasion d’apprendre quelque chose.
Ce qu’on attendait
L’opacité des algorithmes, les biais dans les données d’entraînement, le consentement éclairé impossible à formuler quand la boîte noire ne peut pas s’expliquer elle-même — tout ça était là, bien posé. Rien de nouveau pour qui suit le sujet. À part la question malicieuse : « …mais sait-on vraiment ce qu’il y a dans la tête d’un médecin qui consulte ? » Ces points bien connus des observateurs, méritaient d’être explicités devant un public de soignants et d’usagers qui, pour beaucoup, n’avaient pas encore mis de mots dessus.
Comme moi, l’audience a été très intéressée par le témoignage du Dr Isabelle Brinté. Généraliste installée seule, elle utilise depuis près d’un an un logiciel d’IA pour la synthèse automatique de ses consultations. Moins de prise de notes, plus de contact visuel avec le patient, comptes-rendus envoyés plus vite aux confrères. Elle en est satisfaite. Mais quand elle ajoute qu’elle se sent maintenant dépendante de l’outil, elle ne se plaint pas — elle observe avec lucidité que grâce à l’IA, en plus des bénéfices d’une meilleure attention au patient, l’IA lui permet de ne pas payer de secrétaire. Elle peut aussi prendre parti. Par exemple quand, rémunérée pour renforcer une IA de diagnostic, elle se rend compte que la prochaine à être remplacée… c’est elle. Alors elle arrête la collaboration avec l’éditeur de logiciel.

La robustesse. Ou plutôt son absence.
Rodolphe Thiébaut, chercheur spécialisé dans l’évaluation des dispositifs de santé numérique, a posé la question autrement que tout le monde. Pas « l’IA est-elle fiable ? » on sait que la réponse est « ça dépend ». Sa question était : que se passe-t-il quand elle n’est plus là ?
Il a cité une étude où des médecins avaient été intentionnellement assistés par une IA délibérément biaisée. Leurs performances diagnostiques étaient moins bonnes que celles de collègues qui ne l’utilisaient pas du tout. Le médecin augmenté peut aussi être un médecin diminué — ce sont ses mots. Pas à cause de l’algorithme. À cause du jugement propre qui s’était progressivement mis en retrait, sans que personne ne s’en aperçoive vraiment.
Un radiologue formé avec l’IA dès le début de sa carrière, sans jamais avoir interprété une image seul. Que reste-t-il de sa compétence si le système tombe ?
La question déborde largement la médecine. Droit, finance, logistique, ingénierie, formation — partout où l’IA absorbe des fonctions cognitives, la même chose se joue, à des vitesses différentes et avec des conséquences qu’on ne mesure pas encore.
Le temps libéré — pour en faire quoi ?
On a entendu que l’IA réhumanise la relation de soins : le praticien ne note plus, il donne plus d’attention à son patient. C’est vrai. Le Dr Brinté en témoigne directement.
Louise Guillenton, de France Asso Santé, a posé la question qui fâche. Ce temps libéré, qu’est-ce qu’on en fait ? Est-il vraiment réinvesti dans la relation, dans la qualité des soins, dans le nombre de soignants par patient, ou absorbé par un surcroît d’actes, une compression des consultations, une pression de rentabilité que le système impose de toute façon ? L’outil ne répond pas à ça. L’organisation, si — ou pas.
Questions pour les dirigeants, et pas seulement en Santé
L’adoption est la partie facile, tant la production des IA (génératives) est bluffante au premier regard. Cependant, la maîtrise ne s’acquiert pas automatiquement, ce n’est pas la même chose.
Emmanuel Bataille, de l’URPS, a soulevé une question juridique qui ne pas tarder à se poser : un professionnel peut-il être mis en cause pour ne pas avoir utilisé un outil disponible et pertinent, au motif qu’il n’est pas « à l’état de l’art » ? La jurisprudence n’existe pas encore. Pour combien de temps ?

Mais l’état de l’art ne s’acquiert pas en deux heures de démos, ni en e-learning. Maîtriser l’IA, c’est savoir quand lui déléguer et ne pas, et — c’est là que le sujet devient sérieux — rester capable de travailler sans elle si nécessaire. Les équipes qui n’auront connu que l’IA risquent de ne jamais construire cette autonomie, à moins qu’on la travaille délibérément, en parallèle de l’adoption et pas à la place.
Former à l’outil est reconnu comme indispensable. Maintenir la compétence propre en même temps : la question que personne ne pose encore vraiment, et qui sera probablement la plus importante dans dix ans.
Mon point : un coaching ancré dans les pratiques réelles du métier, c’est la seule façon de tenir les deux, profiter de l’état de l’Art tout en augmentant le professionnel.
Si ce sujet vous concerne, contactez-moi.
Merci pour m’avoir signalé cette conférence à mon ami David Vallée, chercheur au Bordeaux Population Health Research Center (U1219, Université de Bordeaux, Inserm, IRD, ISPED). Son intervention sur l’alignement des valeurs dans les systèmes IA a donné aux intervenants du panel une occasion de creuser leur sujet.