AI-chatbots blijken geen betrouwbare bron voor nieuws. In bijna de helft van de gevallen verspreiden ze verkeerde of misleidende informatie, ook als ze correcte nieuwsartikelen gebruiken. Dat blijkt uit internationaal onderzoek onder leiding van de BBC en de European Broadcasting Union (EBU).
Onjuiste antwoorden en verkeerde bronnen
In het onderzoek werden vier populaire chatbots getest: ChatGPT, Copilot, Gemini en Perplexity. In 45 procent van de antwoorden zaten fouten, variërend van feitelijke onjuistheden tot verkeerde bronvermelding.
De problemen kwamen het vaakst voor bij Google Gemini, waar in 72 procent van de antwoorden iets misging met bronvermelding. Bij ChatGPT, Copilot en Perplexity lag dat percentage lager, maar nog steeds significant: respectievelijk 24, 15 en 15 procent.
Voorbeelden uit de praktijk
De Belgische omroep VRT NWS noemt twee voorbeelden. ChatGPT beweerde ten onrechte dat Elon Musk “geen nazigroet” had gebracht, met VRT NWS als bron — terwijl dat nergens zo stond. Ook gaf Gemini foutieve informatie over de huidige Belgische minister van Justitie.
Volgens de onderzoekers laat dit zien dat chatbots moeite hebben met nuance en context, zeker bij actuele onderwerpen.
Waarschuwing van publieke omroepen
Steeds meer mensen, vooral jongeren, gebruiken AI-assistenten om nieuws te volgen. Publieke omroepen waarschuwen dat dit risico’s oplevert, omdat gebruikers de antwoorden vaak vertrouwen zonder de bron te controleren.
De EBU en BBC hebben inmiddels een toolkit ontwikkeld om nieuwsorganisaties te helpen de betrouwbaarheid van AI-output te beoordelen en te verbeteren.
Bron: BBC / European Broadcasting Union / NOS / VRT NWS / RTBF / NPR



National Cancer Institute

Plaats een Reactie
Meepraten?Draag gerust bij!