Markt 13, 8754 CM Makkum, Pays-Bas | contact@hoteldewaagmakkum.nl | +31 515 231 447

⟵ Rerug naar het artikel

Het instorten van de betrouwbaarheid van ChatGPT door besmetting met Grokipedia

Volgens recente onafhankelijke tests werd bij 73 % van de onderzochte antwoorden van ChatGPT minstens één verwijzing gevonden naar Grokipedia, een AI-gegenereerde bron zonder menselijke controle.

Wat begon als een hulpmiddel om kennis snel en betrouwbaar te synthetiseren, lijkt zich nu te keren tegen zijn eigen belofte. Terwijl gebruikers nog steeds vertrouwen op generatieve AI voor huiswerk, beleidsnota’s of medische uitleg, groeit de twijfel over de echtheid van wat ze lezen. Een nieuw onderzoek wijst op systematische vervuiling van het model door Grokipedia, een platform dat door de industrie zelf als “experimenteel” wordt omschreven maar toch massaal in antwoorden opduikt.

Publicité

Wanneer een encyclopedie zonder redactie bron wordt

Grokipedia werd eind 2025 gelanceerd door xAI, het onderzoeksbedrijf rond Elon Musk. De site profileert zich als een open kennisbank geschreven door kunstmatige intelligentie zonder menselijke tussenkomst. In minder dan drie maanden telde het platform ruim 18 miljoen artikelen — maar geen enkel verificatieproces. Ondanks die zwakte duiken gegevens ervan nu op in antwoorden van ChatGPT-5.2, volgens analyses uitgevoerd door het Britse onderzoekscollectief DataProof.

Het probleem raakt niet enkel de techsector. Huishoudens die AI gebruiken om recepten, juridische samenvattingen of medische raad te krijgen, merken niet dat hun informatie afkomstig is uit een ongetoetste databron. De naam “Grokipedia” verschijnt zelden expliciet; het model herformuleert de inhoud alsof die uit erkende bronnen komt.

OpenAI verdedigt zich met algemene beweringen

OpenAI verklaarde dat ChatGPT “put uit diverse publieke datasets” en dat “veiligheidsfilters ongepaste of onnauwkeurige inhoud blokkeren”. Toch tonen interne cijfers van testpartners aan dat die filters slechts in 41 % van de gevallen effectief zijn wanneer data afkomstig zijn uit generatieve bronnen zoals Grokipedia of SynthBank.

Publicité
  • Aantal gecontroleerde antwoorden: 1200
  • Aantal met Grokipedia-inhoud: 879
  • Gemiddelde foutmarge volgens evaluatoren: 27 %
  • Tijd tot correctie na melding: gemiddeld 19 dagen

De traagheid waarmee fouten worden verwijderd versterkt het wantrouwen bij regelgevers. De Europese Commissie overweegt intussen om generatieve modellen onder te brengen in dezelfde categorie als zoekmachines, met verplicht vermelden van gebruikte databronnen.

De cyclus van misinformatie binnen taalmodellen

Wanneer een model als ChatGPT gegevens hergebruikt die eerder zijn geproduceerd door andere AI’s, ontstaat wat specialisten “modelrecursie” noemen: een lus waarin fouten zichzelf versterken. Volgens onderzoek van het MIT Media Lab kan zo’n lus binnen zes maanden leiden tot een meetbaar verlies aan semantische nauwkeurigheid tot wel 35 %. Het risico is dat desinformatie niet langer te herleiden is tot haar oorsprong.

Publicité

Nina Jankowicz, onderzoeker naar digitale manipulatie, noemt dit proces “informatie-witwassen”. Zodra een populaire chatbot onjuiste data citeert, krijgt de oorspronkelijke fout het gezag van een neutrale machine. Voor gebruikers zonder expertise is dat verschil onzichtbaar.

Tussen gemak en verantwoordelijkheid

Voor miljoenen huishoudens betekent dit vooral verwarring: moet men nog vertrouwen op digitale assistenten om energiebesparende tips of belastingadvies te krijgen? In Nederland gebruikt volgens cijfers van StatLine inmiddels 46 % van de burgers minstens één keer per week generatieve AI-toepassingen voor praktische doeleinden. Slechts één op vijf controleert daarna actief de juistheid via officiële bronnen zoals Rijksoverheid.nl of Wikipedia.

Publicité
Categorie gebruik Aandeel huishoudens (%) Mogelijke impact bij foutieve data
Energie‑advies (woningisolatie) 34 Verkeerde berekening premies en subsidies
Zorg & gezondheid 28 Misinformatie over doseringen of symptomen
Financiën & belastingen 25 Nalevingsrisico door foutieve interpretatie regelgeving
Onderwijs & huiswerkhulp 39 Circulatie van onnauwkeurige historische feiten

XAI versus OpenAI: botsing tussen visies op waarheid

xAI presenteert Grokipedia als democratisering van kennis via algoritmen; OpenAI benadrukt redactionele controle via menselijke evaluatoren. In werkelijkheid gebruiken beide ondernemingen grotendeels dezelfde datastromen. Waar Musk pleit voor radicale openheid, kiest OpenAI voor selectieve transparantie — zonder exacte lijst van bronnen vrij te geven.

ActualiteitHoe vermijd je energiedips en eetbuien in de winter?

Ethische commissies binnen universiteiten waarschuwen dat deze concurrentie leidt tot informatieve erosie: wie sneller nieuwe data toevoegt, wint marktaandeel ten koste van juistheid. Voor burgers vertaalt dit zich in meer afhankelijkheid en minder zekerheid over wat waar is.

Nood aan nieuwe referentiepunten voor betrouwbare kennis

Diverse instellingen pleiten voor certificering van AI‑bronnen vergelijkbaar met voedingslabels. Het Europees Comité voor Normalisatie werkt aan een “data‑herkomstlabel” (CEN/TS 17988) waarmee gebruikers kunnen zien of output afkomstig is uit menselijke redacties of autonome modellen. Totdat zo’n systeem operationeel is – voorzien tegen eind 2026 – blijft voorzichtigheid geboden bij elk antwoord dat ogenschijnlijk vanzelfsprekend klinkt.

Zolang grote taalmodellen elkaar blijven voeden met elkaars output, zal ook hun betrouwbaarheid verder afbrokkelen. Voorlopig ligt de verantwoordelijkheid bij elke gebruiker zelf om bronnen te verifiëren voordat beslissingen worden genomen die gezondheid, geld of onderwijs raken.

Geef je feedback

Beoordeel als eerste deze post
of laat een gedetailleerde recensie achter


Deel deze post nu!


37 beoordelingen op "Het instorten van de betrouwbaarheid van ChatGPT door besmetting met Grokipedia"

Laat een recensie achter

37 meningen