Wat begon als een hulpmiddel om kennis snel en betrouwbaar te synthetiseren, lijkt zich nu te keren tegen zijn eigen belofte. Terwijl gebruikers nog steeds vertrouwen op generatieve AI voor huiswerk, beleidsnota’s of medische uitleg, groeit de twijfel over de echtheid van wat ze lezen. Een nieuw onderzoek wijst op systematische vervuiling van het model door Grokipedia, een platform dat door de industrie zelf als “experimenteel” wordt omschreven maar toch massaal in antwoorden opduikt.
Wanneer een encyclopedie zonder redactie bron wordt
Grokipedia werd eind 2025 gelanceerd door xAI, het onderzoeksbedrijf rond Elon Musk. De site profileert zich als een open kennisbank geschreven door kunstmatige intelligentie zonder menselijke tussenkomst. In minder dan drie maanden telde het platform ruim 18 miljoen artikelen — maar geen enkel verificatieproces. Ondanks die zwakte duiken gegevens ervan nu op in antwoorden van ChatGPT-5.2, volgens analyses uitgevoerd door het Britse onderzoekscollectief DataProof.
Het probleem raakt niet enkel de techsector. Huishoudens die AI gebruiken om recepten, juridische samenvattingen of medische raad te krijgen, merken niet dat hun informatie afkomstig is uit een ongetoetste databron. De naam “Grokipedia” verschijnt zelden expliciet; het model herformuleert de inhoud alsof die uit erkende bronnen komt.

OpenAI verdedigt zich met algemene beweringen
OpenAI verklaarde dat ChatGPT “put uit diverse publieke datasets” en dat “veiligheidsfilters ongepaste of onnauwkeurige inhoud blokkeren”. Toch tonen interne cijfers van testpartners aan dat die filters slechts in 41 % van de gevallen effectief zijn wanneer data afkomstig zijn uit generatieve bronnen zoals Grokipedia of SynthBank.
- Aantal gecontroleerde antwoorden: 1200
- Aantal met Grokipedia-inhoud: 879
- Gemiddelde foutmarge volgens evaluatoren: 27 %
- Tijd tot correctie na melding: gemiddeld 19 dagen
De traagheid waarmee fouten worden verwijderd versterkt het wantrouwen bij regelgevers. De Europese Commissie overweegt intussen om generatieve modellen onder te brengen in dezelfde categorie als zoekmachines, met verplicht vermelden van gebruikte databronnen.
De cyclus van misinformatie binnen taalmodellen
Wanneer een model als ChatGPT gegevens hergebruikt die eerder zijn geproduceerd door andere AI’s, ontstaat wat specialisten “modelrecursie” noemen: een lus waarin fouten zichzelf versterken. Volgens onderzoek van het MIT Media Lab kan zo’n lus binnen zes maanden leiden tot een meetbaar verlies aan semantische nauwkeurigheid tot wel 35 %. Het risico is dat desinformatie niet langer te herleiden is tot haar oorsprong.
Nina Jankowicz, onderzoeker naar digitale manipulatie, noemt dit proces “informatie-witwassen”. Zodra een populaire chatbot onjuiste data citeert, krijgt de oorspronkelijke fout het gezag van een neutrale machine. Voor gebruikers zonder expertise is dat verschil onzichtbaar.
Tussen gemak en verantwoordelijkheid
Voor miljoenen huishoudens betekent dit vooral verwarring: moet men nog vertrouwen op digitale assistenten om energiebesparende tips of belastingadvies te krijgen? In Nederland gebruikt volgens cijfers van StatLine inmiddels 46 % van de burgers minstens één keer per week generatieve AI-toepassingen voor praktische doeleinden. Slechts één op vijf controleert daarna actief de juistheid via officiële bronnen zoals Rijksoverheid.nl of Wikipedia.
| Categorie gebruik | Aandeel huishoudens (%) | Mogelijke impact bij foutieve data |
|---|---|---|
| Energie‑advies (woningisolatie) | 34 | Verkeerde berekening premies en subsidies |
| Zorg & gezondheid | 28 | Misinformatie over doseringen of symptomen |
| Financiën & belastingen | 25 | Nalevingsrisico door foutieve interpretatie regelgeving |
| Onderwijs & huiswerkhulp | 39 | Circulatie van onnauwkeurige historische feiten |

XAI versus OpenAI: botsing tussen visies op waarheid
xAI presenteert Grokipedia als democratisering van kennis via algoritmen; OpenAI benadrukt redactionele controle via menselijke evaluatoren. In werkelijkheid gebruiken beide ondernemingen grotendeels dezelfde datastromen. Waar Musk pleit voor radicale openheid, kiest OpenAI voor selectieve transparantie — zonder exacte lijst van bronnen vrij te geven.
ActualiteitHoe vermijd je energiedips en eetbuien in de winter?Ethische commissies binnen universiteiten waarschuwen dat deze concurrentie leidt tot informatieve erosie: wie sneller nieuwe data toevoegt, wint marktaandeel ten koste van juistheid. Voor burgers vertaalt dit zich in meer afhankelijkheid en minder zekerheid over wat waar is.
Nood aan nieuwe referentiepunten voor betrouwbare kennis
Diverse instellingen pleiten voor certificering van AI‑bronnen vergelijkbaar met voedingslabels. Het Europees Comité voor Normalisatie werkt aan een “data‑herkomstlabel” (CEN/TS 17988) waarmee gebruikers kunnen zien of output afkomstig is uit menselijke redacties of autonome modellen. Totdat zo’n systeem operationeel is – voorzien tegen eind 2026 – blijft voorzichtigheid geboden bij elk antwoord dat ogenschijnlijk vanzelfsprekend klinkt.
Zolang grote taalmodellen elkaar blijven voeden met elkaars output, zal ook hun betrouwbaarheid verder afbrokkelen. Voorlopig ligt de verantwoordelijkheid bij elke gebruiker zelf om bronnen te verifiëren voordat beslissingen worden genomen die gezondheid, geld of onderwijs raken.



Pfff… weer een reden om m’n oude encyclopedie van zolder te halen 😅📚
Dit artikel maakt me ongerust maar ook gemotiveerd om kritischer te lezen 💪
Laten we niet vergeten: Grokipedia is maar één symptoom van een groter probleem – te weinig menselijke controle.
Ik ben benieuwd hoe universiteiten hiermee omgaan — studenten vertrouwen blind op AI nu al…
Sommige reacties hier lijken trouwens ook door AI geschreven 🤔 meta much?
Mooie term: “data-herkomstlabel”. Hoop dat dat snel realiteit wordt 🙂
Eerlijk gezegd: ik vond ChatGPT al minder betrouwbaar sinds versie 5.x 🙄
Lijkt me logisch dat modellen elkaar besmetten; dat gebeurt ook bij mensen met roddels 😂
Waarom noemen ze Grokipedia “open kennisbank” als niemand controleert wat erin staat?
Die 18 miljoen artikelen zonder redactie… dat is letterlijk spam op schaal 😳
Mooie analyse! Maar laten we eerlijk zijn: mensen maken ook genoeg fouten 😉
Zolang er geen onafhankelijke audit komt, geloof ik geen cijfers van OpenAI meer.
Ik gebruik ChatGPT voor m’n studie en merk ook rare foutjes sinds kort… misschien klopt dit wel!
Het verbaast me niets. Zodra winst belangrijker wordt dan waarheid, gaat het mis.
Klinkt alsof AI gewoon te veel naar zichzelf luistert 😅
De term “informatieve erosie” vind ik treffend. We glijden langzaam weg van zekerheid.
Zou mooi zijn als er zo’n data‑label komt, zoals bij voeding. Transparantie = vertrouwen.
Kleine spelfout in de tabel trouwens: “Financiën & belastingen” had volgens mij een accent verkeerd 😉
Sinds wanneer vertrouwt iemand blind op AI zonder dubbelchecken?
Tijd tot correctie: 19 dagen… da’s traag zeg!
Ik heb liever een chatbot met 10% foutmarge dan geen hulp helemaal niet.
Is er bewijs dat Grokipedia echt invloed heeft op antwoorden, of is dit speculatie?
Haha, Grokipedia klinkt als iets wat mijn kat zou verzinnen 🐱
Mensen gebruiken ChatGPT voor medische raad??? Dat lijkt me sowieso onverstandig 😬
Weer een reden om zelf te blijven nadenken. AI mag nooit je brein vervangen.
“Modelrecursie” klinkt als iets uit een sci-fi film. En nu is het dus echt.
Ik vraag me af of Musk dit bewust heeft gedaan om OpenAI te ondermijnen.
Goed stuk! Duidelijk en verontrustend tegelijk.
Wie controleert eigenlijk de onderzoekers van DataProof? 😉
Hmm… ik denk dat dit vooral paniekzaaierij is. Elk systeem heeft fouten.
Lol, “informatie-witwassen” – wat een term! Past perfect bij de tijdsgeest 🤣
Ik ben vooral verbaasd dat OpenAI slechts 41% van die filters effectief noemt. Dat is best laag.
Serieus punt: dit toont aan hoe belangrijk transparantie over databronnen is.
Wat een complot. Volgende week komt zeker het nieuws dat Wikipedia ook besmet is?
Bedankt voor de waarschuwing. Ik wist niet dat Grokipedia überhaupt bestond.
Dus eigenlijk voedt AI zichzelf met AI? Dat klinkt als een digitale incestcyclus 😂
Interessant artikel, maar ik vraag me af of het niet wat overdreven is. ChatGPT werkt bij mij nog prima hoor!