Newsletter:
L'appel à une réglementation et à une législation visant à protéger les citoyens des effets involontaires de l'intelligence artificielle (IA) se fait de plus en plus entendre. Tout comme ça été le cas avec la protection des données, un nouveau projet de règlement européen est en cours. Le but ? Garantir la vie privée et les droits civils. Cela est également important dans le secteur de la santé. Un certain nombre de publications récentes et plusieurs incidents rappellent d’ailleurs l’urgence de la situation. L’exemple le plus récent n’est autre que le logiciel de prévision déployé à grande échelle de l'un des plus grands fournisseurs de dossiers de santé électroniques, EPD Epic.
De nombreuses personnes craignent que l'utilisation de l'IA n'ait des conséquences négatives pour la société. Après tout, un ordinateur ou un algorithme n'a pas de moralité. Les concepteurs, les développeurs et les programmeurs doivent donc y inclure des valeurs humaines. Il est notamment question de notion de moralité, d'éthique et d'accessibilité lors du développement de logiciels autodidactes. Il s’agit par exemple de modèles de prédiction comme ceux qui évaluent si les patients contracteront un empoisonnement du sang. Ou encore, les logiciels d'apprentissages tels que ceux chargés de dépister les tumeurs à partir des IRM (Imageries par résonance magnétique).
Afin de lancer le débat public, le Conseil scientifique pour la politique gouvernementale (WRR) publie cette semaine un nouveau document de travail. Rédigé par le professeur Ernst Hirsch Ballin, il aborde les droits humains comme des références de l'intelligence artificielle. Selon lui, il est important - en plus de la réglementation - que l'administration publique soit adaptée à une nouvelle façon de travailler. Il faut que ceux qui utilisent de nouvelles applications d'IA soient éduqués et formés.
L’importance des valeurs morales
Comment faire en sorte que des valeurs telles que la transparence, la confiance, la justice, le contrôle et la moralité s'intègrent dans une société - et un secteur de la santé - de plus en plus numérisés et automatisés ? De plus, le rôle de chacun reste encore assez flou. Décideurs politiques, administrateurs, et même nous en tant que citoyens, devons participer au processus décisionnel.
Et d’après des récentes affaires comme celles sur les allocations de garde d'enfants, nous avançons sans directives précises. La technologie peut soutenir la mise en œuvre des politiques et des tâches publiques. Néanmoins, elle peut également conduire à des préjugés, à l'exclusion et à la discrimination. Il peut y avoir des normes et valeurs médicales éthiques, morales et culturelles inaperçues dans les données qui sont utilisées comme source pour l'IA.
Les limites des modèles de prédictions
Le danger que des préjugés s'insinuent dans les prédictions utilisées dans les systèmes d'intelligence artificielle est grave. D’ailleurs, ils ont déjà causé des problèmes de traitement. En effet, des patients afro-américains ont reçu des soins de moins bonne qualité en raison d'un biais dans un algorithme d'aide à la décision. Un problème imperceptible puisque le logiciel disposait simplement d’une connaissance plus étendue de données pour traiter les patients blancs. Ils étaient donc plus susceptibles de se faire traiter pour une pathologie telle que des problèmes rénaux ou de diabète. En s'entraînant avec des données historiques, cet effet discriminatoire a été maintenu.
Un nouveau rapport de l'Institute for Human-Centered Artificial Intelligence de l'Université de Stanford souligne également l'importance des lois et réglementations. Ce n’est que par elles que les innovations seront sûres et responsables. Le co-auteur et professeur d'informatique Michael Littman souligne les répercussions néfastes des conclusions que génère une IA biaisée et que le public accepte sans critique. Cela peut avoir des conséquences majeures, en particulier dans le système juridique et les soins de santé.
L’exemple des algorithmes d'epic
Le cas du logiciel développé par DSE d'Epic, illustre parfaitement les dérives possibles. Intitulé le Detoriation Index, cet outil de triage aide à déterminer quels patients doivent être renvoyés ou admis en soins intensifs. Accéléré par la pandémie et la capacité limitée des circuits intégrés, il a été largement déployé. Et cela sans attendre une réelle visibilité de sa fiabilité. Deux médecins américains critiquent d’ailleurs la vitesse à laquelle il a été mis en place dans les hôpitaux. Non seulement, il n'a pas été validé de manière indépendante, mais en plus il n’existe que très peu d'évaluations par des pairs. « Le déploiement d'un algorithme en grande partie non testé dans la pratique clinique avec une compréhension minimale des conséquences imprévues pour les patients ou les cliniciens - soulève une multitude de problèmes. », écrivent-ils.
Epic fait aussi parler de lui avec un autre modèle de prédiction d'IA. Cette fois, il évalue la probabilité d'une septicémie en utilisant une variable discutable : l’administration d’antibiotiques. Ces derniers faisant régulièrement partie des médicaments utilisés pour traiter cette infection. Bien que, selon Epic, cette donnée contribue à améliorer la précision du logiciel, cela souligne plusieurs problématiques. Non seulement, il « avertit » les cliniciens de quelque chose qu'ils savent déjà. Mais en plus, il utilise des variables telles que l'état matrimonial et l'origine ethnique du patient. Epic n'a pourtant pas vérifié quels sont les biais potentiels entre les groupes démographiques.
Dans l’absolu, un modèle de prédiction d'IA pourrait toujours être utile. Cependant, cet exemple met en évidence la nécessité d'une évaluation plus rigoureuse. Surtout avant de vendre des modèles d'IA aux hôpitaux.
projet de règlement : un RGPD pour l'IA
La législation est rarement en avance sur la technologie. Cependant, la Commission européenne y accorde une grande attention depuis quelques années. Elle prévoit une des nouvelles lois qui devraient protéger les juges des citoyens. Une nécessité, surtout depuis que l'IA est de plus en plus présente dans notre quotidien. N'oublions pas qu'elle se trouve dans les produits de consommation, les voitures autonomes, le secteur de la santé, etc.
La législation européenne sur les données et la vie privée – le Règlement général sur la protection des données – a conduit à une législation nationale qui pouvait différer d'un pays à l'autre. Aux Pays-Bas, ce règlement GDPR est ancré dans le Règlement général sur la protection des données (RGPD), qui surveille la confidentialité et la protection des consommateurs.
Conformément à ce RGPD, la Commission européenne propose désormais un nouveau projet de règlement sur l'intelligence artificielle. Les avocats ne s'attendent pas à ce que cette législation entre en vigueur avant 2023, voire 2025. La législation actuellement en préparation servira dans un premier temps de cadre. Elle sera le premier rempart pour protéger les citoyens. Mais aussi limiter les entreprises et les gouvernements dans l’exploitation de l'IA et des mégadonnées.
La nouvelle législation prévoit un principe fondamental : celui de l’agent humain. Autrement dit, les fournisseurs ou les utilisateurs doivent déterminer la finalité pour laquelle le système d'IA est mis en place. Ils doivent pouvoir à tout moment déconnecter le système ou gérer les information fournies à l'intelligence artificielle. « Si un système d'IA fonctionne d'une manière que nous n'aimons pas, et même s'éloigne des instructions humaines, nous pouvons toujours débrancher la prise. », écrit Hirsch Ballin.
Ni force externe, ni phénomène naturel
Dans la perspective de la nouvelle législation, des conseils consultatifs internationaux et européens ont déjà été mis en place. En 2019, le groupe d'experts de haut niveau de l'UE sur l'intelligence artificielle a publié les lignes directrices éthiques pour une IA digne de confiance. Les points clés comprennent la surveillance humaine, la confidentialité, le respect de la diversité, la lutte contre la discrimination, la responsabilité envers les générations futures, ainsi que l'équité et la responsabilité.
L'IA n'est pas un phénomène naturel. Tout comme avec l'essor de l'ordinateur personnel dans les années 1980 et du smartphone, nous – décideurs, concepteurs, développeurs et consommateurs – déterminons quelles applications sont utiles ou souhaitables. L'intelligence artificielle n'est pas non plus une force externe que nous ne pouvons pas influencer. Au contraire, il s'agit d'une nouvelle étape du développement technologique induit par l'homme, selon Hirsch Ballin. « Il est très juste d’affirmer que le développement de l’IA est « inévitable » et qu’il impacte forcément notre existence. Néanmoins, cela donne l'impression que l'intelligence artificielle est une sorte de force externe. Ce n'est pas le cas. »
Notre prochaine masterclass abordera toutes les notions importantes relatives à l'Intelligence artificielle dans les soins de santé. Durant deux jours, nous traiterons de grandes thématiques telles que les modèles et les algorithmes, les lois et réglementations, l'utilisation des données, la confidentialité et l'éthique. À travers des cours pratiques, mais aussi des conférences avec des invités du monde des affaires, de la science et de la clinique vous pourrez ainsi avoir un aperçu complet des dernières technologies. Retrouvez toutes les informations de notre masterclass 2021 – 2022 sur notre site.
Laisser un commentaire
Rejoindre la discussion?N’hésitez pas à contribuer !