Brève

Promesses et pièges de l'apprentissage machine en médecine selon Harvard Medical School

Publié le 25/04/2019
blum

blum

Bien utilisée l'intelligence artificielle pourrait réduire les problèmes systémiques et les erreurs dans la prise de décision de chaque clinicien.

« Un homme de 49 ans remarque une éruption indolore sur l'épaule, mais ne demande pas de soins. Des mois plus tard, au cours d'un examen médical de routine, son médecin remarque l'éruption cutanée et la diagnostique comme une affection cutanée bénigne. Plus de temps passe, et lors d'un test de dépistage de routine, une infirmière signale l'éruption à un autre médecin qui incite le patient à consulter un dermatologue. Un dermatologue en fait une biopsie. Le rapport de pathologie révèle une lésion non cancéreuse. Le dermatologue cherche une seconde lecture des lames pathologiques. Cette fois, un verdict radicalement différent : le mélanome invasif. Le patient est immédiatement mis sous chimiothérapie. Quelques semaines plus tard, un ami médecin lui demande pourquoi il ne suit pas d'immunothérapie. »

Bien qu'hypothétique, une version de ce scénario se produit trop souvent dans les soins de santé modernes, non pas à cause de la négligence, mais simplement à cause de la faillibilité humaine et des erreurs systémiques.

Un article de Harvard Medical School article, publié le 4 avril dans le New England Journal of Medicine, offre un plan directeur pour l'intégration de l'apprentissage automatique dans la pratique de la médecine et décrit les promesses et les pièges d'un progrès technologique qui a captivé l'imagination des bio-informaticiens, cliniciens et non-scientifiques.

La vaste capacité de traitement et d'analyse de l'apprentissage machine peut amplifier les capacités uniques de la prise de décision humaine - le sens commun et la capacité de détecter les nuances. Selon les auteurs, cette combinaison pourrait optimiser la pratique de la médecine clinique.

Définition de l'apprentissage machine

L'apprentissage machine est une forme d'intelligence artificielle qui ne repose pas sur des paramètres et des règles prédéfinis, mais plutôt sur un apprentissage adaptatif. Ainsi, avec chaque exposition à de nouvelles données, un algorithme devient de plus en plus apte à reconnaître les tendances au fil du temps. En d'autres termes, l'apprentissage automatique présente une plasticité neuronale semblable à la plasticité cognitive du cerveau humain. Cependant, lorsque le cerveau humain peut apprendre des associations complexes à partir de petits fragments de données, l'apprentissage automatique nécessite beaucoup plus d'exemples pour apprendre la même tâche. Les machines sont beaucoup plus lentes à apprendre mais ont une plus grande capacité opérationnelle et produisent moins d'erreurs d'interprétation.

« Un modèle d'apprentissage machine peut être formé sur des dizaines de millions de dossiers médicaux électroniques avec des centaines de milliards de points de données sans interruption de l'attention », a déclaré Isaac Kohane, auteur de commentaires et directeur du département d'informatique biomédicale du Blavatnik Institute de Harvard Medical School. « Mais c'est aussi impossible pour un médecin humain de voir plus de quelques dizaines de milliers de patients en une carrière entière. »

Ainsi, selon les auteurs, le déploiement de l'apprentissage automatique pourrait offrir aux médecins la sagesse collective de milliards de décisions médicales, de milliards de cas de patients et de milliards de résultats pour éclairer le diagnostic et le traitement d'un patient en particulier.

Dans les situations où la précision prédictive est critique, la capacité d'un système d'apprentissage machine à repérer des modèles de témoins sur des millions d'échantillons pourrait permettre des performances « surhumaines », selon les auteurs.

L'erreur est humaine

Un rapport publié en 1999 par l'Institute of Medicine, maintenant connu sous le nom de National Academy of Medicine, intitulé « To Err is Human », reconnaissait les imperfections de la prise de décision humaine et les limites des connaissances individuelles des cliniciens. Ce dernier est appelé à devenir un problème croissant pour les cliniciens de première ligne qui doivent synthétiser, interpréter et appliquer une quantité sans cesse croissante de connaissances biomédicales découlant d'un rythme exponentiel de nouvelles découvertes.

« Nous devons avoir l'humilité de reconnaître qu'il est humainement impossible pour un praticien de suivre le rythme des connaissances biomédicales et des nouvelles découvertes », dit Kohane. « L'IA et l'apprentissage machine peuvent aider à réduire, même éliminer les erreurs, optimiser la productivité et fournir une aide à la décision clinique. »

Selon le rapport de l'Institute of Medicine, les erreurs cliniques englobent quatre grandes catégories :

Diagnostic : défaut de commander des tests appropriés ou d'interpréter correctement les résultats des tests ; utilisation de tests périmés ; diagnostic erroné ou retard du diagnostic exact ; et défaut de donner suite aux résultats des tests. Traitement : choix de thérapies sous-optimales, désuètes ou erronées ; erreurs dans l'administration du traitement ; erreurs de dosage des médicaments ; et retards dans le traitement. Prévention : échec du suivi préventif et de l'administration de traitements prophylactiques tels que la vaccination. D'autres erreurs impliquant des pannes de communication ou d'équipement, entre autres.

Selon les auteurs du commentaire, l'apprentissage machine a le potentiel de réduire bon nombre de ces erreurs, voire d'en éliminer certaines.

Un système bien conçu pourrait alerter les fournisseurs lorsqu'un médicament sous-optimal est choisi ; il pourrait éliminer les erreurs de dosage ; et il pourrait trier les dossiers des patients présentant des symptômes vagues et mystérieux pour les transmettre à un groupe d'experts en maladies rares pour consultation à distance.

Les modèles d'apprentissage machine sont les plus prometteurs dans les domaines suivants

Pronostic : la capacité d'identifier des modèles prédictifs de résultats basés sur un grand nombre de résultats déjà documentés. Par exemple, quelle est la trajectoire probable d'un patient ? Quand le patient reprendra-t-il le travail ? À quelle vitesse la maladie du patient évoluera-t-elle ? Diagnostic : capacité d'aider à identifier les diagnostics probables au cours des visites cliniques et de sensibiliser le public à d'éventuels diagnostics futurs en fonction du profil du patient et de l'ensemble des résultats des tests de laboratoire antérieurs, des tests d'imagerie et des autres données disponibles. Les modèles d'apprentissage machine pourraient servir d'intelligence de secours pour inciter les médecins à envisager d'autres conditions ou à poser des questions d'approfondissement. Cela pourrait s'avérer particulièrement utile dans les scénarios où l'incertitude diagnostique est élevée ou lorsque les patients présentent des symptômes particulièrement confondants. Thérapeutique : Les modèles d'apprentissage machine peuvent être " enseignés " pour identifier le traitement optimal pour un patient donné avec une condition donnée en se basant sur de vastes ensembles de données de résultats de traitement pour des patients avec le même diagnostic. Flux de travail clinique : L'apprentissage automatique pourrait améliorer et simplifier la tenue des dossiers médicaux électroniques (DME) actuels, ce qui représente un fardeau important pour les cliniciens. Un changement dans l'efficacité et la réduction du temps consacré au DME permettrait aux médecins de passer plus de temps en contact direct avec le patient. Élargir l'accès à l'expertise : La capacité d'améliorer l'accès aux soins pour les patients vivant dans des régions géographiques éloignées ou dans des régions où il y a une pénurie de spécialistes médicaux. De tels modèles pourraient offrir aux patients des options de soins à proximité ou les alerter lorsque les symptômes exigent une attention urgente ou une visite à une salle d'urgence.

Deus ex machina...not

L'IA et l'apprentissage machine ne sont pas parfaits et ne résoudront pas tous les problèmes dans les soins cliniques.

La qualité des modèles d'apprentissage machine dépendra de la qualité des données qui leur seront fournies. Par exemple, un modèle d'apprentissage machine pour les solutions de traitement ne serait efficace que si la précision des thérapies saisies dans la base de données sur laquelle le modèle a été formé.

L'obstacle le plus important à l'élaboration de modèles optimaux d'apprentissage machine est la rareté de données cliniques de haute qualité qui incluent des populations diversifiées sur le plan ethnique, racial et autre, ont déclaré les auteurs. D'autres obstacles sont de nature plus technique. Par exemple, la séparation actuelle des données cliniques entre les établissements et au sein de ceux-ci constitue un obstacle important, mais non insurmontable, à l'élaboration de modèles robustes d'apprentissage machine. Une solution serait de mettre les données entre les mains des patients pour permettre la création de bases de données contrôlées par les patients.

Parmi les autres obstacles, on peut citer des exigences et des politiques juridiques différentes, ainsi qu'un fouillis de plates-formes techniques entre systèmes sains et fournisseurs de technologie qui peuvent ne pas être facilement compatibles entre eux et compromettre ainsi l'accès aux données.

L'adage « ordures à l'entrée, ordures à la sortie » s'applique tout à fait ici ", a dit M. Kohane en se référant au jargon des informaticiens, indiquant que les capacités finales de tout système informatique sont seulement aussi bonnes que les données fournies au système en premier lieu.

Médecin assisté par IA (MAIA)

Une conséquence imprévue de l'apprentissage automatique pourrait être une dépendance excessive à l'égard des algorithmes informatiques et une réduction de la vigilance des médecins - des résultats qui augmenteraient le nombre d'erreurs cliniques, ont mis en garde les auteurs.

« Il est essentiel de comprendre les limites de l'apprentissage automatique », a dit M. Kohane. « Cela inclut la compréhension de ce que le modèle est conçu et, plus important encore, de ce qu'il n'est pas conçu pour faire. »

Une façon de minimiser ces risques serait d'inclure des intervalles de confiance pour tous les modèles d'apprentissage machine, informant les cliniciens de la précision exacte d'un modèle. Plus important encore, tous les modèles devraient faire l'objet de réévaluations et d'examens périodiques, un peu comme les examens périodiques que les médecins doivent passer pour maintenir leur certification dans un domaine médical donné.

S'il est bien fait, l'apprentissage automatique agira comme une forme de soutien à l'intelligence ciblée, améliorant la rencontre clinicien-patient, plutôt que comme un substitut aux médecins humains.

La rencontre humaine, la sensibilité, la sensibilité et l'appréciation d'un médecin humain pour les nuances fines et la complexité de la vie humaine ne disparaîtront jamais, disent les auteurs.

« Il s'agit d'un cas d'association avec et non de remplacement », a ajouté Kohane. « Il ne s'agit pas d'opposer la machine à l'homme, mais d'optimiser le médecin humain et les soins aux patients en exploitant les forces de l'IA. »


Source : lequotidiendumedecin.fr