Newsletter:
Faire appel à un outil d’intelligence artificielle (IA) pour aider le médecin à diagnostiquer correctement un patient. Une idée utopique, mais sur le point de devenir réalité. Tout du moins, il s’agit d’un développement prometteur dans le domaine des soins de santé. Comment ? En prenant un grand nombre de données collectées et un modèle informatique complexe pour déceler une maladie même à un stade précoce. Pour en savoir plus, SmartHealth s'est entretenu avec Hanane Khiel, d'E-Health Venture, qui a dédié ses recherches à la prise de décision en matière d'IA pour les médecins.
L’hôpital Elisabeth-Tweedsteden-Ziekenhuis (ETZ) de Tilburg a récemment annoncé qu’il allait expérimenter l'intelligence artificielle pour détecter les fractures osseuses. Il va donc utiliser le programme informatique BoneView qui analyse les radiographies en moins de trois minutes. Selon l’établissement de soins, le logiciel est capable de lire avec précision les imageries médicales. Le programme informatique a déjà subi une première phase de tests durant laquelle il a analysé environ 600 radiographies. L'algorithme a ainsi détecté 7 fractures osseuses que les spécialistes n'avaient pas pu déceler. En revanche, BoneView a manqué 3 fractures diagnostiquées par les spécialistes. Si les résultats sont concluants, un tel outil pourrait constituer une aide significative pour le médecin. Il pourrait éviter les erreurs liées à la fatigue ou à la perte de concentration. Quoi qu’il arrive, y compris durant cette période test, l'évaluation par le médecin reste prépondérante : BoneView reste avant tout un outil de consultation. Le médecin est celui qui établira le diagnostic final.
Comprendre les différents modes d’apprentissage
Les modèles informatiques sont capables d'analyser en peu de temps de grands volumes d’informations variées et complexes et d’en lister rapidement des conclusions. Pour y parvenir, ils peuvent utiliser des algorithmes simples comme des regressions linéaires et logistiques qui permettent de faire des prédictions. Par exemple : définir si le tabagisme joue un rôle dans les maladies pulmonaires. Il s'agit de modèles compréhensifs dont la logique repose sur les mêmes statistiques que celles enseignées à l'école.
Il existe aussi des formes complexes de modélisation de l'IA, comme les modèles d'apprentissage automatique et d'apprentissage profond, qui apprennent à apprendre. Ils sont conçus et formés à l'aide de grands ensembles de données et sont souvent considérés comme des « boîtes noires » puisque leurs raisonnements ne sont pas facilement compréhensibles par l'homme. Autrement dit, il n’est pas évident de savoir pourquoi un algorithme donne un certain choix ou résultat, car nous ne pouvons pas voir l'ensemble du processus interne par lequel le modèle est passé pour arriver à cette réponse.
Prenons le cas de la reconnaissance de chats dans une image. Dans le cadre de l'apprentissage automatique, un algorithme est entraîné par un ensemble d’informations et d’une base de données de photographies de chats et de chiens. Le développeur étiquette l’ensemble des visuels représentant un félin avec le tag « chat » et fait de même avec celles de chiens (avec le tag
« chien »). Le modèle est ensuite entraîné à classer une image reçue comme étant un chien ou un chat.
L'apprentissage profond, quant à lui, ne repose pas sur des étiquettes (tag) prédéfinies. Le modèle informatique effectue lui-même la reconnaissance des formes. Il a donc besoin de beaucoup plus de données pour comprendre les différences entre toutes ces images, notamment un regroupement de variables clairement distinctes.
Il s'agit donc d’une technologie extrêmement complexe, où les décisions de reconnaissance des formes peuvent être basées sur des milliers ou des millions d'images. Les développements de tels programmes ont explosé depuis quelques années car ils ont bénéficié de l'augmentation de la puissance de calcul, de la technologie du cloud et des grands ensembles de données au cours de la dernière décennie.
Interprétation des algorithmes
Hanane Khiel est une spécialiste de l’IA. Elle est diplômée de l’Université libre de Bruxelles où elle a étudié les sciences biomédicales et a obtenu un master sur les technologies de l’information. Au cours de ses études, elle s’est particulièrement intéressée à l’IA et a validé son diplôme avec son mémoire de maîtrise sur « Can doctors trust Automatic Diagnosis (Est-ce que les médecins peuvent se fier aux diagnostics automatiques) – L’IA interprétable appliquée au domaine
médical ». Ainsi, durant deux ans, elle s’est complètement immergée dans le monde des algorithmes. À présent, elle travaille en tant que venture' architecte chez E-Health Venture, l’incubateur de start-ups dans la santé digitale. Selon son expertise, il est crucial de garder le contrôle sur les algorithmes d’IA et leur boîte noire, surtout dans le secteur de la santé.
Beaucoup de théories affirment que les algorithmes fonctionnent mieux que les médecins et remplaceront un jour l'activité humaine. Des hypothèses alarmistes qui ne sont pas fondées. « Les développeurs de logiciels et les médecins utilisent des algorithmes pour des situations spécifiques, mais leurs interprétations restent la clé », explique Hanane Khiel. Elle évoque d’ailleurs un exemple parlant en affirmant qu’un même algorithme déployé dans deux hôpitaux différents n’obtiendra pas forcément les mêmes résultats. Dans le premier, tout peut bien se passer, alors que dans le second, des erreurs apparaissent avec des diagnostics erronés. « Dans le pire des cas, lorsqu’un modèle d'IA est chargé de prendre des décisions de vie ou de mort, il faut être très vigilant. Nous devons être en mesure de comprendre les conclusions qu’il donne. Actuellement, c'est précisément cette visibilité qui fait souvent défaut. Les données sont connues, le résultat aussi, mais pas le processus de décision de l’algorithme. Nous devons travailler pour le définir. »
Elle appelle également à la prudence quant aux promesses de ces outils d’IA et à l’attention médiatique qu’ils suscitent.
« Imaginez qu’un algorithme prédit un cancer chez un patient et que cela soit relayé dans la presse. Vous aurez probablement un fort engouement de la part des journaux qui en feront leurs Unes. Pour le médecin, cette une autre histoire : il doit s’assurer pour son patient que le diagnostic est juste. Il a besoin de comprendre comment l’algorithme a tiré ses conclusions car le processus de traitement sera adapté en fonction. Ce cas de figure n’arrive pas avec un algorithme simple. En effet, ce dernier permet aux médecins et aux patients de faire le lien entre les données d'entrée, la méthode de recherche et les résultats qui sont toujours justifiables. »
Mais ces algorithmes sont désormais dépassés en termes de performances par des modèles complexes d'apprentissage automatique et profond beaucoup plus difficiles à comprendre. Ceux-ci ont l'avantage de pouvoir traiter d'énormes quantités de données et d'identifier rapidement et avec précision une condition éventuelle. Toutefois, dans quelle mesure cette information est-elle fiable ? Selon Hanane Khiel, nous devons analyser encore plus en profondeur l'algorithme de l'IA pour comprendre comment une décision est prise. En d'autres termes, les mécanismes internes d’IA sont-ils explicables pour les hommes ? Quant aux variables que l’algorithme juge utiles sont-elles cliniquement validées ou erronées ?
Les prémices de la recherche
Hanane Khiel précise que durant très longtemps, les spécialistes ne disposaient pas des outils pour comprendre les systèmes d’IA. Les médecins et les développeurs se retrouvaient donc face à un dilemme. Devaient-ils opter pour un modèle interprétable et sacrifier la précision ? Ou privilégier un modèle précis au détriment de l'interprétation ?
Le domaine relativement nouveau de l'IA interprétable, ou intelligence artificielle interprétable, offre désormais une solution. La scientifique d’E-Health Venture s’est d’ailleurs intéressée à ces techniques novatrices. Elle a notamment étudié le LIME développé en 2016 et les méthodes d'interprétation comme SHAP et Anchor qui s'en inspirent. Elle a travaillé sur deux algorithmes d'apprentissage automatique différents, sur lesquels elle a pu tester de nombreuses techniques. Ses recherches ont servi à son mémoire dans laquelle elle a utilisé des ensembles de données publiques de l'Université de Californie, Irvine. Ces dernières étaient toutes liées au diagnostic du cancer du sein.
Le modèle d'IA programmé par Hanane Khiel était destiné à distinguer les tumeurs bénignes de celles malignes. Au cours de ses recherches, elle a ainsi pu décomposer les algorithmes en utilisant les techniques mentionnées précédemment. En d'autres termes, l'IA interprétative fonctionnait comme une aide à la compréhension d'algorithmes complexes. Et elle n’était pas uniquement interprétable par un expert. Même les médecins et les patients, qui n'avaient aucune connaissance de l'IA, pouvaient comprendre de manière précise le parcours de l’algorithme. Une bonne nouvelle, qui mérite de poursuivre les recherches car la technologie est en perpétuelle évolution. « L'IA devient si complexe que les modèles interprétables ne fournissent pas toujours une solution. Et n’oublions pas un autre point tout aussi important et souvent sous-estimé : l’exploitation des données. »
Les limites des traitements des données
Les informations collectées peuvent manquer parfois d’impartialité. Et un ordinateur, n’est pas capable de faire cette différence d’interprétation. Pour comprendre ce que cela peut induire, Hanane Khiel évoque l’utilisation de l’IA dans le secteur de la justice comme exemple fictif. Si les juges incluent inconsciemment la couleur de la peau du suspect dans leur verdict et que l’algorithme utilise cette donnée sur des affaires judiciaires passées, ce biais ne disparaîtra pas. Ainsi, l’administration justicière serait compromise par ce biais inconnu.
Ce problème se pose également dans le domaine des soins de santé. Aux États-Unis, les scientifiques ont en effet constaté que les algorithmes dans les hôpitaux désavantageaient certains groupes en matière de soins. Le sexe, les gènes, l'origine ethnique, l'âge, le caractère et le mode de vie ne sont que quelques exemples de variables qui peuvent jouer un rôle dans le processus de diagnostic. Lorsque ces éléments ne sont pas présents de manière proportionnelle et représentative dans les ensembles de données, les chances qu'un modèle d'IA fasse une prédiction correcte sont réduites. « Reproduire un préjugé à très grande échelle est une idée dangereuse et effrayante », souligne Hanane Khiel. Elle ne répétera jamais assez que les données jouent un rôle décisif par rapport à l'IA. Et force est de constater qu’elle l'entend encore trop peu dans le débat public.
Poursuivre les recherches
Pour Hanane Khiel, le résultat le plus surprenant a été la possibilité d'approfondir les algorithmes grâce à l'IA interprétative. Néanmoins, au départ elle ne savait pas comment l’utiliser, ni quelles informations pourraient en être extraites. « Finalement, les informations se sont avérées très précieuses et faciles à comprendre pour chacun d'entre nous. J'ai été ravi de l'intérêt manifesté par la communauté de l'IA pour ces nouveaux outils ». Elle espère à présent que cela conduira à davantage de recherches, car elles sont désespérément nécessaires. L'IA ne reste pas immobile. De plus, les modèles informatiques deviennent de plus en plus intelligents et complexes, ce qui entraîne la nécessité de plus d’explications sur la confiance que nous pouvons leur accorder.
Elle souligne que l'IA interprétative est un nouveau domaine de recherche. La plupart des méthodes n'ont été développées qu'au cours des cinq dernières années. Selon elle, les modèles interprétables peuvent être mieux acceptés par les professionnels de la santé, les patients et les développeurs de logiciels. « Ils sont relativement faciles à comprendre. C'est vraiment une situation gagnant-gagnant. Le médecin indique pourquoi une certaine décision d'un algorithme est cliniquement valable et pourquoi les autres ne sont pas pertinentes. Sur la base de ce précieux retour d'information, le développeur du logiciel peut alors ajuster le modèle et le rendre encore plus précis. Et ainsi permettre de développer un outil de diagnostic fiable. »
Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !