Newsletter:
La seconde version de l’AI100 Gathering Strength, Gathering Storms : The One Hundred Year Study on Artificial Intelligence vient d’être dévoilée. Ce rapport évalue les risques et les limites de l’évolution de l’IA sur les cinq dernières années. Il regroupe ainsi les conclusions d’un groupe d'experts composé de psychologues, de sociologues, d’informaticiens et d’autres issue de divers domaines. Parmi elles, les limites dans le secteur de soins et de santé.
La deuxième version du rapport, issu du projet d’analyse de l'Institute for Human-Centered Artificial Intelligence de l'université de Stanford, met en lumière 14 points cruciaux sur le développement de l’IA dans notre société. Il aborde aussi bien son évolution, ses défis, ses dangers ainsi que ses répercussions sur la population. Et d’après les chercheurs, un tournant critique vient d’être franchi. Ils affirment que les informaticiens devraient coopérer avec des experts en droit et en sciences sociales. Les scientifiques alertent sur la dépendance induite par les nouvelles technologies. Ils évoquent aussi que le langage, la vision par ordinateur ou encore la reconnaissance des formes ne seront jamais celles d’un humain. C'est particulièrement le cas dans le domaine des soins de santé lors du processus de diagnostic médical. Selon leur analyse, cela augmente des risques, tels que la discrimination algorithmique et induit une mauvaise représentativité de la réalité.
Conséquences sociales et éthiques
Le président du panel, Michael Littman est professeur en informatique. Lui aussi, il a constaté de significatives évolutions ces dernières années. Il évoque les différences notables de l'IA développée dans les laboratoires de recherche de celle utilisée à grande échelle. Même s’il reste impressionné par les avancées technologiques, il y voit ses limites sociétales et éthiques. Tout comme ses collègues ayant participé au rapport, il souligne l'importance des lois et des règlements qui permettent le déploiement d’innovations sûres et responsables. Le plus grand danger serait d’accepter des conclusions d’IA générées sur des préjugés cachés. Les conséquences seraient désastreuses, surtout dans les systèmes juridiques et de santé.
À titre d'exemple, les experts citent l'application de l'IA aux soins de santé personnalisés. Ils affirment que les modèles commerciaux actuels pour les applications basées sur l'IA ont tendance à se concentrer sur la construction d'un système unique qui sert de nombreux consommateurs/patients. C’est notamment le cas avec les modèles qui prédisent la détérioration de la santé d'un patient. Les systèmes généralisent en fonction de leurs données de formation. Même une simple séquence de tests cliniques peut fortement influencer leurs résultats et interférer avec leur précision. Les experts estiment alors que les médecins et les administrateurs informatiques ne sont pas suffisamment préparés pour faire face à ces variantes.
Biais racial dans le modèle d'IA
Le rapport met en avant que les populations sous-représentées sont les premières à en pâtir. Ces groupes ont difficilement accès aux soins. Ils sont ainsi moins susceptibles d’être représentés dans les essais cliniques. L’exemple qui illustre bien ce cas de figure et l’AI utilisé par le gestionnaire de pharmacies et fournisseur de soins de santé américain Optum. L'entreprise a fait les gros titres en 2019 lorsque des recherches approfondies ont révélé un biais racial dans son algorithme. Ce dernier avait été développé pour prédire quels patients présentaient un risque plus élevé et exigeaient davantage de soins. Cette évaluation était basée sur le montant des soins dépensés par personne. Ce chiffre était considérablement plus bas pour les Afro-Américains. Le groupe a donc été étiqueté à tort comme étant en meilleure santé, alors qu'en réalité ce n’était pas le cas par rapport aux Américains blancs. Optum a tenu à souligner que cette erreur n’a pas été induite uniquement par l’analyse du budget des soins de santé.
Les experts préviennent que le risque de biais racial dans les modèles d'IA est très élevé. Tant que les algorithmes seront entraînés avec des informations isolées et non représentatives, l'inégalité entre les groupes de population continuera considérablement d’augmenter dans les années à venir. Comme le résume bien les derniers ligne du rapport « un algorithme d'apprentissage automatique est aussi bon que son ensemble de données. »
Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !