Réservé aux professionnels de santé en France

L’intelligence artificielle (IA) amène à incroyablement stimuler l’innovation en santé. Au cours du développement d’un médicament, l’IA peut améliorer la détection des effets secondaires lors des phases d’essais cliniques et jouer un rôle positif sur l’innovation pharmacologique : meilleur ciblage thérapeutique, accélération et sécurisation de la mise des médicaments sur le marché... En matière de recherche médicale, les technologies d’IA facilitent l’exploration des publications scientifiques et l’analyse des résultats de recherches fondamentales grâce à la fouille automatique de données.1

Mais le développement de l’IA en santé va bouleverser aussi - et surtout - la pratique médicale : détection des symptômes, suivi prédictif du déploiement d’une maladie, exploitation des résultats d’analyse ou d’imagerie ou encore formulation de nouvelles hypothèses diagnostiques et de propositions thérapeutiques plus personnalisées, la liste n’est sûrement pas encore exhaustive.1 

Il y a 20 ans, en mars 2002, la loi relative aux droits des malades et à la qualité du système de santé, dite « loi Kouchner » était promulguée. Elle a transformé le rôle du patient : de sujet passif, il devenait acteur de sa santé, de nouveaux droits lui étant octroyés : celui d’être informé, de prendre part aux décisions médicales ou encore d’accéder à son dossier médical.2 Aujourd’hui, la relation médecin-patient doit faire face à de nouveaux défis, notamment face au déploiement de l’IA qui vient s’inviter dans ce « colloque singulier » ...

Consentement du patient : du neuf dans la loi de bioéthique

La révision des lois de bioéthique d’août 2021 a introduit une obligation d’information à destination du patient à la charge des professionnels utilisant une intelligence artificielle en matière de santé. Cela concerne tout professionnel de santé qui décide d’utiliser, pour un acte de prévention, de diagnostic ou de soin, un dispositif médical comportant un traitement de données algorithmique dont l’apprentissage a été réalisé à partir de données massives (machine learning).

Cette définition stricte exclut du champ d’application de l’article tous les autres systèmes qui pourraient être qualifiés de systèmes d’intelligence artificielle, comme les systèmes experts qui sont des systèmes à base de règles. Le patient doit donc être averti et informé convenablement pour obtenir son consentement éclairé. Et pour cela, il est indispensable que les concepteurs des traitements algorithmiques s’assurent de l’explicabilité du fonctionnement de ces nouveaux outils pour les professionnels de santé.3,4

Le principe de « garantie humaine » de l'IA a également été reconnu dans la nouvelle loi de bioéthique. Ce concept vise à établir des points de supervision humaine en amont et en aval de l'algorithme. En pratique, cette supervision pourra s’exercer via des « collèges de garantie humaine » associant professionnels de santé et représentants des usagers. Concrètement, ces collèges vont porter un regard humain sur les options thérapeutiques conseillées ou prises par l'algorithme.

L'objectif ? S’assurer que l’IA reste à la fois efficace médicalement parlant et responsable sur le plan éthique. En 2020, ce concept de garantie humaine a été incorporé dans la grille d'autoévaluation des dispositifs médicaux intégrant de l'IA, publiée par la Haute Autorité de Santé.5

La question du consentement peut également être posée sous une autre forme. L’IA a pour vocation d’améliorer la qualité des soins et de rendre le système de santé plus efficient. Elle proposera aux médecins des options diagnostiques ou thérapeutiques fondées sur des hauts niveaux de certitude statistique. Si l’on imagine qu’une préconisation thérapeutique de l’IA puisse être assortie d’une certitude de 99,5% et d’une expérience positive avérée pour des centaines de milliers de cas comparables, que restera-t-il alors de la capacité du patient à consentir aux soins ? Ou de celle du médecin à prendre une décision médicale ? C’est finalement l’IA qui va subrepticement influencer le consentement du soignant et du soigné. Là encore, il est essentiel de prendre en compte ce risque. Chaque patient est unique : quel sera le poids de son individualité face à la puissance des algorithmes basés sur des expériences et des données massives ?6

La responsabilité médicale à la croisée des chemins

Quel est ou quel sera l’impact de ces avancées technologiques sur les régimes de responsabilité des professionnels de santé ? Pour David Gruson, membre de la chaire Santé de Sciences Po, fondateur d’Ethik IA et auteur notamment de « La machine, le médecin et moi » paru en 2018, cette question fait l’objet de tous les fantasmes. Il invite, pour y répondre, à prendre un peu de recul : « À ce stade, les risques de déstabilisation des régimes de responsabilité et des conditions d’exercice des professionnels de santé associés à une sur créativité juridique surpassent nettement l’intérêt de répondre à un "vide" juridique aujourd’hui encore théorique. En réalité, l’appréhension par le droit de l’impact de l’action des machines – et même des robots – sur notre santé ne constitue pas réellement une question juridique nouvelle. »6

Au début du 20e siècle, face au développement des machines-outils, la Cour de cassation avait précisé que la responsabilité était rattachée à la garde de la chose et non à la chose elle-même, et que le gardien était soumis à une présomption de responsabilité. Dans ces conditions, le gardien peut s’exonérer en prouvant qu’il n’a pas commis de faute personnelle. Le dispositif législatif a été précisé depuis, notamment grâce aux régimes spéciaux de responsabilité dont celui relatif aux produits défectueux. « Nous savons que l’acception retenue pour les "produits" est particulièrement large, ce qui permet d’intégrer des productions robotiques ou algorithmiques, précise David Gruson. Ce système de responsabilité est largement utilisé dans la jurisprudence relative à la responsabilité du fait des robots. Ces principes juridiques peuvent continuer à s’appliquer pertinemment y compris s’agissant des derniers développements de la mécatronique*, qui a connu des avancées majeures depuis le début des années 2000. »6

Et qu’en est-il des IA ?  Les caractéristiques de la nouvelle génération d’IA dites « apprenantes » perturbent le régime juridique applicable à la réparation des dommages qui pourraient être subis par les patients. Les IA « apprenantes » renvoient à la capacité d’un algorithme à produire, au bout d’un certain temps de traitement de données, une nouvelle version plus efficace de lui-même, après avoir écarté les hypothèses considérées comme statistiquement aberrantes (c’est le machine learning).

Ces nouvelles IA pourraient conduire à rendre inopérant le régime de responsabilité des produits défectueux, l’industriel pouvant être exonéré d’une responsabilité liée à un risque qui n’était pas prévisible lors de la conception du produit. En effet, les éventuels dommages commis par l’IA pourraient être liés à des développements autogénérés par celle-ci, au-delà de sa programmation initiale... Peut-être verrons-nous apparaître dans un futur proche une nouvelle catégorie de régimes d’indemnisation de dommages ne procédant pas directement de l’action des professionnels eux-mêmes.6

Le spectre d’une médecine à deux vitesses

En matière de régulation de l’IA en santé, tout l’enjeu est de trouver le juste équilibre. Trop de réglementation pourrait amener à bloquer l’innovation dans le pays. Et nul ne peut écarter la possibilité que certains patients auront, en fonction de leurs moyens financiers, de recourir à des solutions efficaces d’IA en santé conçues et autorisées ailleurs... Comment contrôler alors ces outils qui n’auront pas été approuvés en France ? Il est tout à fait imaginable qu’un patient aux ressources suffisantes décide d’accepter de payer pour transmettre des clichés d’imagerie à l’étranger et d’accéder au diagnostic de l’IA la plus avancée.6

Quelle formation pour accompagner ces changements ?

Le rapport de Cédric Villani, publié en 2018, invitait à former les professionnels de santé aux usages de l’intelligence artificielle, de l’Internet des objets et du big data en santé, sans oublier bien entendu les compétences de coordination, d’empathie et du rapport avec les patients. Cette transformation de la formation initiale pourrait avoir lieu dans la réforme en cours du premier et deuxième cycle de médecine.1

De son côté, le Conseil National de l’Ordre des Médecins (CNOM) rappelle qu’il est indispensable de former dès maintenant les médecins en fonction du monde dans lequel ils exerceront, où les technologies tiendront, aux côtés de la clinique, une grande place. Et le CNOM lance même l’idée de double cursus médecine-ingénierie. Avec un constat clair : l’accélération des mutations des métiers médicaux, de l’obsolescence des savoirs et des compétences rend indispensable le décloisonnement entre formation initiale et formation continue.7

Mais il ne faudra sûrement pas oublier que dans ce monde qui devient de plus en plus technologique, il est nécessaire de renforcer les formations aux interrogations éthiques, aux relations humaines, à la déontologie professionnelle. Pour une médecine du futur qui reste éclairée.7

 

* Mécatronique : combinaison de l’électronique et d’une dimension mécanique faite pour agir directement pour la réalité physique sensible.

Références
  1. Cédric Villani. Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne. Mission parlementaire du 8 septembre 2017 au 8 mars 2018.
  2. Napolier F. Relation Médecin-Patient : la loi Kouchner et 20 ans d’avancées. Médecins, le bulletin de l’Ordre national des médecins. 2022 ; 79 :20-6.
  3. Peigné J. Loi bioéthique : information obligatoire en cas de recours à l'intelligence artificielle. Disponible sur https://www.editions-legislatives.fr/actualite/loi-bioethique-information-obligatoire-en-cas-de-recours-a-lintelligence-artificielle#:~:text=La%20loi%20n%C2%B0%202021,4001%2D3)
  4. Crichton C. L’intelligence artificielle dans la révision de la loi bioéthique. Disponible sur https://www.dalloz-actualite.fr/node/l-intelligence-artificielle-dans-revision-de-loi-bioethique#.Yys95exBxqs
  5. Bernard Nordlinger, Cédric Villani, Olivier de Fresnoye. Médecine et intelligence artificielle. CNRS éditions, 2022.
  6. David Gruson. La Machine, le médecin et moi. Éditions de l’Observatoire, 2018. 
  7. Ordre National des Médecins. Conseil National de l’Ordre. Médecins et patients dans le monde des data, des algorithmes et de l’intelligence artificielles. Analyses et recommandations du Cnom. Janvier 2018

MAT-FR-2203848 - 09/2022