Une IA éthique en santé est-elle possible ? | Fieldfisher
Skip to main content
Insight

Une IA éthique en santé est-elle possible ?

Locations

France

Marguerite Brac de La Perrière et Nicolas Castoldi, tous deux intervenants des Dialogues de la santé organisés par Villa M, en partenariat avec « Le Point », le 30 mai à Paris, nous éclairent sur les contours d’une IA éthique.

Bien que la plupart des modèles d'intélligence artificielle (IA) en soient encore au stade de la recherche, de nombreux systémes d'IA - assez matures - révolutionnent depuis quelques années déjà les soins à l'hôpital.

C'est le cas en biologie, en ophtalmologie et dans le domaine de l'imagerie médicale, où certains logiciels aident à interpréter des examens. Face à cette multiplication et à cette concrétisation de l'IA dans le monde de la santé, les réflexions s'intensifient autour des enjeux éthiques de cette transition.

Transparence, explicabilité, accès aux données, fiabilité des algorithmes, validation des modèles… Autant de sujets qui seront abordés lors des Dialogues de la santé (DDLS) consacrés à l'IA.

Une réflexion au fil de l'eau

Pour Nicolas Castoldi, directeur délégué auprès du directeur général de l'AP-HP et intervenant aux DDLS, les hôpitaux sont les premiers concernés. « D'une part, à l'occasion des soins, ils collectent depuis des années des données de plus en plus précises. Et, d'autre part, en partenariat ou seuls, ils sont partie prenante de la recherche, de l'exploitation de ces données et de la construction des modèles d'IA. »

Et, parce qu'il s'agit du monde de la santé, « les données de soins ont par essence un niveau de sensibilité et de protection très particulier, » assure-t-il. « Pour construire des modèles d'IA, nous devons être collectivement capables de les développer, de prouver leur efficacité, de les expérimenter, de les tester et de les valider. »

La question de la validation et du déploiement de nouveaux systèmes d'IA fait partie des défis majeurs auxquels les hôpitaux font face. Comment vérifier la fiabilité d'un algorithme ? Comment le déployer de façon simple et efficace pour les soignants ? Quel impact médical et quel modèle économique ?

Des interrogations aujourd'hui quotidiennes et différentes selon le type d'IA. « Nous sommes en phase de transition, conclut Nicolas Castoldi. L'enjeu ultime est de s'adapter et d'élaborer des modèles par petites touches. Pour cela, il faut essayer de travailler concrètement sur les premiers cas d'usage et les expérimentations pour se faire collectivement une doctrine. »

RGPD versus AI Act

Face à cette nécessité continue d'adaptation, l'AI Act, voté le 13 mars dernier par l'Union européenne, offre la souplesse nécessaire pour à la fois innover et évoluer face aux enjeux futurs de l'IA. « On est sur un texte vraiment générique, en conformité avec quinze années de réflexion autour de l'IA en santé », résume Marguerite Brac de La Perrière, avocate associée au cabinet Fieldfisher spécialisée en numérique et santé, et également intervenante aux DDLS.

L'une des principales sources d'incertitudes pour les acteurs de la santé réside dans la manière dont vont s'articuler le RGPD et l'AI Act, tous deux étant sujets à des injonctions parfois difficiles à concilier. C'est le cas de la limitation de la durée de conservation des données requise par le RGPD et du besoin de les utiliser sur le long terme pour fonder les modèles d'IA. « En attendant les lignes directrices et les actes d'exécution de la Commission européenne, on avance sur la base du bon sens et des objectifs des réglementations, tout en documentant nos actions pour justifier chaque arbitrage réalisé. »

L'Europe, leader de valeurs

Quid des innovations non européennes ? Doit-on s'en priver au nom de la prudence ? La réponse est non, à condition que le système d'IA concerné satisfasse les exigences de l'AI Act pour pouvoir être commercialisé. « L'avantage, c'est que le règlement a des conditions d'application tellement larges que tout le monde sera obligé de suivre, positive l'avocate. « Cela ne devrait pas brider l'innovation, mais tirer tout le monde vers le haut. »

En matière de partenaires, l'Hôtel-Dieu travaille principalement avec des start-up francaises, parfois européennes. L'Assistance publique a également un certain nombre de partenariats avec de grands acteurs industriels, français ou non. « Le point commun, c'est que nous sommes systématiquement attentifs à ce que le cadre en matière de données de santé soit à la fois conforme à la réglementation et à nos standards. C'est une condition sine qua non pour nous », assure Nicolas Castoldi.

Confiance systémique

Pour les patients, l'IA est l'opportunité d'accéder à de meilleurs soins, mais, là encore, non sans question, notamment sur le consentement quant à l'utilisation des données pour le développement de modèles d'IA. « S'il est essentiel d'informer les patients afin qu'ils puissent s'opposer, le sujet est tellement technique et les risques si difficiles à appréhender qu'il est quasi impossible de consentir de façon totalement éclairée », explique Marguerite Brac de La Perrière, qui défend l'idée d'un consentement systémique sociétal, avec des conditions bien définies pour limiter les risques d'atteintes aux droits et libertés des personnes.

Une idée que rejoint Nicolas Castoldi. « Le fondement même de cette transformation vers l'IA, c'est la confiance et notre capacité à garantir un très haut niveau de sécurité à l'ensemble des patients. Un point majeur à nos yeux et sur lequel nous sommes, par définition, très exigeants. » Pour l'avocate, cette exigence se retrouve dans tous les cas dans les régulations européennes des IA à haut risque – c'est-à-dire presque tous les systèmes d'IA utilisés dans le secteur de la santé – en garantissant le développement, la mise sur le marché, le déploiement et une utilisation conforme aux valeurs de l'UE.

IA vs médecin ?

Ce devoir de transparence concerne également la responsabilité. À qui revient la faute en cas d'erreur de diagnostic, par exemple ? « La réponse est contractuelle. Tout dépendra de ce qu'aura annoncé le fournisseur de l'IA dans le contrat. L'idée n'est évidemment pas d'exonérer les fabricants de leur responsabilité, mais d'assurer une information parfaite sur les conditions d'utilisation et les limites du système. Et, dans tous les cas, le médecin n'est assisté que par l'IA. »

Parfois, le débat peut mener à des situations surprenantes. Pour preuve, cette problématique soulevée par Marguerite Brac de La Perrière : quel résultat retenir si le diagnostic du médecin diffère de celui de l'IA? « Après tout, il y a de grandes chances pour que l'IA ait accumulé plus d'expérience que le médecin. Quant au biais, ce dernier en a aussi. L'important est donc surtout que chacun soit informé à la fois des conditions d'utilisation et caractéristiques du système d'IA et de ses résultats afin de bénéficier du meilleur, c'est-à-dire d'un médecin augmenté. »

Face à ces enjeux apparaît la nécessité collective de se projeter. « L'IA va profondément transformer le visage du soin. C'est toute une organisation sociale à repenser », conclut Nicolas Castoldi.