• Torenallee 20, Eindhoven

Single Blog

Blog

ChatGPT fake facts en andere hallucinaties

  • Rob
  • juni 18, 2025
  • 0

AI-hallucinaties: Waarom je ChatGPT niet blindelings moet vertrouwen

Samenvatting

AI-tools zoals ChatGPT, Perplexity, Gemini zijn razendsnel én handig, maar leveren ook steeds vaker foutieve of gefabriceerde informatie – zogenoemde AI‑hallucinaties. Dit artikel leggen we uit wat AI‑hallucinaties precies zijn, geven we voorbeelden en drie concrete tips over hoe je hier het beste mee om kunt gaan!

Wat zijn AI‑hallucinaties?

AI-hallucinaties zijn momenten waarop taalmodellen overtuigende maar onjuiste informatie geven – denk aan verzonnen jaartallen, nep‑citaten, onafgemaakte analyses of gefingeerde rapporten. Het zijn wiskundige machines die ‘gissen’ wanneer de data ontoereikend is.

🎯 Waarom komt dit voor?

  • Compressie‑effect
    de immens grote trainingsdata wordt samengevat door een beperkt aantal parameters – vaak gaat daar nuance verloren
    .

  • Redeneermodel paradox
    nieuwere “reasoning” modellen (zoals OpenAI’s o3, o4-mini) hallucinerden juist vaker wegens hun meer wijdverbreide claimstructuur
    allaboutai.com+3techcrunch.com+3nypost.com+3.

  • Satisfying over accuracy
    AI is erop gericht om gebruikers tevreden te stellen, niet per se feitelijk juist te zijn
    .


Recente voorbeelden van hallucinaties

  • WhatsApp‑AI gaf privé‑telefoonnummer van onbekende persoon – in plaats van bedrijfsnummer

  • ChatGPT beschuldigde een man vals van kindermoord – klacht ingediend onder GDPR-regels

  • Bizarre aanbeveling van Google AI Overviews: “voeg lijm toe aan pizzasauzen” – zonder bron

  • MIT‑studie wijst uit dat ChatGPT‑gebruik de kritische denkactiviteit verzwakt én vaker hallucineert in samenvattingen .

Maar ook zelf ‘betrap’ ik ChatGPT bijna dagelijks op incomplete en regelmatige ook foutieve analyses, berekeningen en feiten. En als ik ChatGPT wijs op mijn twijfel over de juistheid (nadat we vragen om een redenatie achter de uitkomst) dan krijg zien ook wij de laatste tijd enorm vaak de reactie van de chat ‘….Je hebt gelijk, het antwoord is fout. Ik ga opnieuw…’


De impact voor marketing in health & tech

Voor (B2B-)marketeers en communicatiemanagers in health en technologie kunnen foutieve AI-uitingen reputatieschade (het kan soms simpelweg ‘dom’ overkomen) veroorzaken, compliance-issues opleveren of zelfs tot juridische risico’s leiden. Zeker in zakelijke contexten waar betrouwbaarheid cruciaal is. Daarnaast is het sowieso belangrijk om te controleren of de output – bv een artikel dat door AI gemaakt is – wel past bij waar het bedrijf voor staat.


3 Praktische tips voor betrouwbare AI‑output

1. Vraag om redenering

✅ Prompt: “en leg je redenering / chain of thought uit.”
Door expliciet te vragen naar de achterliggende redenering, kun je fouten opsporen en corrigeren – vaak met een “je hebt gelijk” uit AI-respons .

2. Check bronvermeldingen

Laat AI bronnen geven en verifieer die zelf actief. Veel citaten zijn verzonnen of onvindbaar – ghost citations komen namelijk enorm vaak voor.

3. Cross-check met meerdere tools

Gebruik bijvoorbeeld Perplexity of Gemini naast ChatGPT voor feiten checks. Kopieer antwoord van de ene tool naar de andere en vraag expliciet: “Klopt dit? Met bronnen?” . Of als je bv AI wilt laten helpen bij het schrijven van een blog waar veel feitelijkheden in zitten, begin dan bij Perplexity en gebruik de output vervolgens als input voor ChatGPT om er een ‘lekker lopende tekst’ van te maken die bij je doelgroep past.


Conclusie

AI is een krachtige en snelle assistent – maar net als een enthousiaste maar onervaren stagiair maakt het soms maar wat. Daarom is goede begeleiding (juiste prompts) en grondig controleren essentieel. Vooral in health en tech mag misinformatie geen kans krijgen – het kan namelijk flinke impact hebben.

📞 Meer weten over het effectief inzetten van AI in content creatie?

Neem gerust contact met ons  – we denken graag met je mee.

[/vc_column_text][/vc_column][/vc_row]

Veelgestelde vragen over A.I. Hallucinaties

Wat is een AI-hallucinatie?

Een fout, verzinsel of misinterpretatie door een taalmodel, gepresenteerd als feit .

Zijn alle modellen even foutgevoelig?

Nee – en dat heeft te maken met het ‘soort’ AI tool. Zo is Perplexity meer op feiten gebaseerde AI zoekmachine en ChatGPT een taalmodel modellen die taal ‘voorspelt’ en helpt bij creatief taalgebruik en fact check niet als focus heeft.

Waarom hallucineert AI eigenlijk?

Door gegevenscompressie, beloning voor plausibiliteit en het feit dat LLM’s vooral patronen volgen maar niet realiteit checken .

Hoe vaak komt het voor?

Studies melden hallucinatie‑percentages van 3 tot 40% afhankelijk van taak en model

Wat kun je doen als marketeer of ondernemer?

Gebruik chaining prompts (vraag om de redenatie), laat altijd bronnen controleren door mensen, werk met AI‑tools die op feiten gestuurd zijn en overweeg een mens‑in‑de‑loop bij belangrijke content .