IA et diagnostic médical : l'humain doit garder la main pour garantir un usage éthique, plaide le CCNE

Par
Publié le 10/01/2023

Crédit photo : Garo/Phanie

Garder la main de l'humain sur l'intelligence artificielle (IA) pour en garantir un usage éthique sans se priver de ses lumières dans le domaine du diagnostic médical : tel est le message du Comité consultatif national d'éthique (CCNE) et du Comité national pilote d'éthique du numérique (CNPEN) dans leur avis commun, rendu public ce 10 janvier. Une réponse à une saisine du Premier ministre, au cours de l'été 2019.

Le recours à l'IA présente de nombreux intérêts dans le champ du diagnostic médical, dont il serait absurde de se priver. Les systèmes d'intelligence artificielle appliqués au diagnostic médical (SIADM) se révèlent ainsi précieux en oncologie, dans le dépistage précoce (détecter des lésions imperceptibles à l'œil nu), ou à grande échelle. Le recours en routine aux SIADM pour dépister la rétinopathie diabétique, la dégénérescence maculaire liée à l'âge (DMLA) et le glaucome s'est avéré particulièrement efficace, et plusieurs dispositifs ont été validés par la Food and Drug Administration (FDA) et l'Union européenne (marquage CE). D'autres dispositifs destinés à dépister des arythmies ont été homologués en cardiologie, tandis que l'analyse d'images en histopathologie par une IA permet de facto d'optimiser la gestion du temps des professionnels.

Mise à distance des résultats de l'IA

Néanmoins, les comités d'éthique insistent sur l'importance de garder une distance critique avec les résultats des algorithmes. « Les performances des SIADM comportent toujours une probabilité d'erreur ; il est capital que l'équipe médicale qui l'utilise en soit consciente et exerce un contrôle sur les résultats », lit-on.

Ces erreurs peuvent être appréhendées à travers deux notions : l'incomplétude, qui désigne les faux négatifs ou positifs, et l'incidentalome, c'est-à-dire des découvertes fortuites. Mises en évidence alors qu'elles n'étaient pas recherchées, elles peuvent provoquer des situations complexes pour le patient et l'équipe soignante. Aussi ces systèmes doivent être utilisés comme une aide, sans se substituer à l'expertise du praticien, qui doit continuer à interpréter des résultats en fonction d'un contexte et de la singularité du patient.

Avoir du sens clinique

CCNE et CNPEN recommandent donc de ne pas délaisser les méthodes diagnostiques déjà établies (hors SIADM), mais d'encourager la recherche pour les améliorer, tout en étudiant, en parallèle, l'impact des SIADM dans l'exercice de la médecine. Dans un souci de transparence, l'utilisation de l'IA pour un diagnostic doit être indiquée au patient et inscrit dans le compte rendu médical d'une consultation. Les résultats fournis par le SIADM doivent être explicables - c'est-à-dire avoir un sens clinique. Ce qui suppose que les soignants acquièrent de nouvelles compétences professionnelles ou soient épaulés par d'autres professionnels comme les conseillers en génétique, quand les patients pourraient recevoir les lumières d'associatifs ou de personnes de confiance (statut d'auxiliaires numériques).

Tout doit ainsi concourir au maintien d'un contrôle humain, au sens de vigilance humaine - ou encore « human oversight », principe inscrit dans le projet de réglementation de l'IA (IA Act) de la Commission européenne, publié en avril 2021.

Le soin avant tout

De même qu'un SIADM ne peut se substituer à l'expertise d'un soignant dans le cadre de la relation médecin-patient, il ne peut remplacer le travail d'une équipe médicale dans le parcours de soins, que ce soit lors de l'orientation prédiagnostique, du suivi d'une pathologie chronique, voire de l'urgence vitale.

Certains SIADM ont montré leur efficacité ; par exemple l'algorithme produit par Diabeloop, remboursé par l'Assurance-maladie, pour la gestion du diabète de type 1 ; des systèmes de télésurveillance par SMS et chatbot (Memoquest, de Clamedica), pour le suivi à domicile post-intervention chirurgicale. D'autres sont à un niveau expérimental comme le projet franco-suisse SIA Remu, à Besançon, pour optimiser la régulation des appels d'urgence.

Ces SIADM ont un intérêt s'ils permettent de libérer du temps pour la prise en charge des cas plus complexes par les médecins, avec tout ce qu'elle nécessite de relations interdisciplinaires. Mais ils peuvent aussi avoir un effet contre-productif, en ce qu'ils peuvent susciter de l'anxiété chez des patients sans grande compétence médicale ou numérique, voire creuser les inégalités dans l'accès aux soins et au numérique. D'autant que ces difficultés se cumulent souvent : les personnes peinant à accéder à l'hôpital risquent d'avoir du mal à utiliser les cabines d'autodiagnostic.

L'avis invite à s'interroger aussi sur le rôle des mutuelles : si elles ne prennent pas part au financement de l'innovation, pointe le risque d'une rupture d'égalité ; mais elles pourraient aussi se rendre coupables de discriminations en proposant des offres individualisées. Aussi, les deux comités demandent que l'utilisation de SIADM ne soit motivée avant tout que par le souci du soin, et non des considérations économiques, organisationnelles ou managériales. Une section consacrée au financement de l'IA dans les lois de financement de la Sécurité sociale pourrait garantir un accès équitable à l'innovation, suggèrent-ils.

Un encadrement à construire

Le CCNE et le CNPEN appellent enfin à renforcer l'encadrement des SIADM. Leur efficacité clinique doit d'abord être évaluée, et montrer une contribution au principe de bienfaisance, et non seulement l'absence de nocivité du dispositif. Or pour l'heure, la majorité des dispositifs échappent à une évaluation par la Haute autorité de santé (car elle ne se penche que sur ceux qui peuvent être remboursés au patient, soit une minorité). Le périmètre d'action de la HAS doit donc être élargi pour s'appliquer aux logiciels d'IA dont veulent s'équiper les établissements de santé, plaide l'avis.

La mise sur le marché des dispositifs est ensuite conditionnée au respect du RGPD et à l'obtention du marquage CE - à la main de l'Agence nationale de sécurité du médicament (ANSM). La procédure du contrôle de conformité comporte plusieurs failles éthiques : par exemple, le fait que les fabricants conçoivent eux-mêmes les démonstrations de conformité ; ou que le processus n'évalue pas l'utilité réelle du dispositif pour le patient ou le système de soin, mais seulement sa capacité à faire ce qu'il est censé faire. Aussi les deux instances demandent plus de recherche et de formation pour dépasser ces biais et l'organisation d'essais cliniques pour évaluer le rapport bénéfices-risques, comme pour des médicaments.


Source : lequotidiendumedecin.fr