Smarthealth
  • Nieuws
  • Blogs
  • Topics
    • artificial intelligence
    • beleid
    • cybersecurity
    • data
    • diagnostiek
    • digital therapeutics
    • Digitale zorg
    • femtech
    • financiering
    • fitness & wellness
    • mental health
    • onderzoek
    • preventie
    • privacy
    • Robotica
    • smart homes
    • smart hospitals
    • Smart Stuff
    • startups
    • technologie
    • telehealth
    • wearables
  • Nieuwsbrief
  • Gadgets
  • Jobs
  • Over ons
  • Contact
  • Zoek
  • Menu Menu
Alle berichten, artificial intelligence, Nieuws

AI in de zorg werkt niet zonder biasdetectie

Sam van Smarthealth23 juli 2025

AI maakt steeds vaker deel uit van medische beslissingen. Maar als de data waarop het is gebaseerd scheef is of niet klopt, kunnen ongelijkheden in de zorg verergeren. Datawetenschapper Philipp Diesinger legt uit waarom biasdetectie essentieel is voor veilige en eerlijke zorgtechnologie.

Wat is bias eigenlijk?

Bias betekent dat AI-systemen systematisch slechter presteren voor bepaalde groepen patiënten. Dat komt vaak doordat de data waarop ze zijn getraind niet representatief is. Bijvoorbeeld: als vooral gegevens van witte mannen in de dataset zitten, kunnen de uitkomsten voor vrouwen of mensen met een andere achtergrond minder betrouwbaar zijn.

Hoe ontstaat dit precies?

Bias kan op verschillende momenten insluipen. Denk aan de dataverzameling, het meetinstrument of de manier waarop het algoritme werkt. In de zorg betekent dit vaak dat bepaalde subgroepen – zoals mensen met een migratieachtergrond, vrouwen of ouderen – ondervertegenwoordigd zijn. Daardoor maken AI-modellen vaker fouten voor precies die groepen.

Verschillende vormen van bias

Sample bias
Bij klinische studies of medische databases zijn bepaalde groepen nauwelijks vertegenwoordigd. Zo komt 90% van de deelnemers aan genetische studies uit Europa. De resultaten zijn daardoor minder toepasbaar op andere bevolkingsgroepen.

Measurement bias
Sommige meetapparaten werken niet even goed voor iedereen. Een bekend voorbeeld: saturatiemeters overschatten bij mensen met een donkere huid vaak het zuurstofgehalte in het bloed, met risico op onderbehandeling tot gevolg.

Algoritmische bias
Soms gebruiken modellen indirecte variabelen (‘proxy’s’) die sociale ongelijkheid weerspiegelen. Een bekend voorbeeld is een Amerikaans algoritme, dat aannam dat zwarte patiënten gezonder waren, omdat zij minder zorgkosten maakten. Later bleek dat dit niet kwam omdat ze gezonder waren, maar omdat ze simpelweg minder toegang tot zorg hadden.

Menselijke bias
Ook de manier waarop data wordt ingevoerd speelt mee. Als zorgverleners bijvoorbeeld pijn bij vrouwen structureel lager inschatten, beïnvloedt dat de dataset én het algoritme dat ermee wordt getraind.

Waarom het ertoe doet

Als bias niet wordt herkend, leidt dat tot ongelijke behandeling en mogelijk zelfs schade. Ernstige aandoeningen worden gemist of verkeerd behandeld. Het risico? Minder vertrouwen in AI, maar ook in de zorg in het algemeen. De WHO (World Health Organization) benadrukt daarom dat AI-oplossingen voor álle patiënten goed moeten werken.

Wat kunnen we doen?

Biasdetectie moet standaard onderdeel zijn van AI-ontwikkeling. Dat begint met het checken van datasets: wie zit erin, en wie juist niet? Ook moeten de prestaties van het model per subgroep worden geanalyseerd. ‘Fairness metrics’ geven inzicht in mogelijke scheefgroei. Tot slot blijft menselijke controle heel belangrijk. Zorgverleners en experts moeten betrokken blijven bij de interpretatie van de data en de uitkomsten van de modellen, om deze kwalitatief hoogwaardig te houden.

Wat levert het op?

  • Veiligheid: AI ontdekt fouten of blinde vlekken eerder, waardoor verkeerde diagnoses en behandelingen kunnen worden voorkomen.
  • Eerlijkheid: Resultaten en adviezen worden betrouwbaarder voor alle groepen, ongeacht hun achtergrond of eigenschappen.
  • Betrouwbaarheid: Het vertrouwen van zorgprofessionals en patiënten in AI-technologie blijft behouden/wordt vergroot
  • Regelgeving: Biasdetectie wordt een vereiste bij AI-validatie, ook gezien de steeds strengere wetgeving.

Over de auteur
Philipp Diesinger is datawetenschapper en AI-expert bij Rewire, een AI-consultancy die zorginstellingen helpt bij het ontwikkelen en implementeren van betrouwbare en verantwoorde AI-oplossingen. Hij combineert een technische achtergrond met kennis van gezondheidsdata en werkt aan projecten rondom biasdetectie, modelvalidatie en fairness in medische algoritmes.

Tweet
Share
Share
Tweet
Share
Share

0 antwoorden

Plaats een Reactie

Meepraten?
Draag gerust bij!

Geef een reactie Reactie annuleren

Je e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *

wellicht ook interessant

Sanacoach thuis monitoring via app
nieuws   

Minder ziekenhuisbezoeken voor COPD- en astmapatiënten door SanaCoach-app

7 september 2022
nieuws   

Newsroom: Five 4 U haalt geld op voor KiKa met fitness challenge op de werkvloer 

14 januari 2016
Graham Grieve (midden) naast twee FHIR-archirecten van het eerste uur: Ewout Kramer (l) enLloyd Mckenzie (r)
nieuws   

Newsroom: Hoge Raad oordeelt dat Landelijk Schakelpunt geen privacyrichtlijnen schendt

1 december 2017
Tweet
Share
Share
  • events
  • over ons
  • contact
  • privacy policy

Volg ons:

  • LinkedIn

  • Twitter

  • Facebook

  • YouTube

Nieuwsbrief:

aanmelden

© SmartHealth 2024, All rights reserved.
Hoe de werktelefoon de zorg makkelijker maakt
Scroll naar bovenzijde

GDPR Consent

Deze website gebruikt cookies om het gedrag van gebruikers in kaart te brengen, te analyseren, de gebruikerservaring te verbeteren en om ervoor te zorgen dat relevante informatie en advertenties kunnen worden getoond. Klik op 'voorkeuren aanpassen' om uw toestemmingen voor deze website te bekijken en in te stellen.

Privacy verklaring | Sluiten
Voorkeuren aanpassen