Verwar wat vaak waar is niet met de waarheid

Gepubliceerd op 25 juni 2025 om 14:08

Tijdens het lezen van een post van Mats Lewan over AI en waarheid bleef deze passage bij me hangen:

“And something else was lost – truth. Statistical models don’t obey causality – they rely on correlation. These systems find patterns, but the patterns might be based on irrelevant or hidden factors. When conditions change, models can fail catastrophically. In short, they confuse what is often with what must be.”

Die zin raakte precies aan iets wat ik in de praktijk regelmatig tegenkom: hoe makkelijk het is om AI-antwoorden voor waar aan te nemen, omdat ze logisch lijken. Maar schijnbare logica is niet hetzelfde als waarheid – zeker niet als die logica gebaseerd is op patronen zonder context, betekenis of moreel onderscheidingsvermogen.

Wat mij trof, is hoe herkenbaar dit is bij dagelijkse toepassingen van AI – in klantcontact, in dashboards, in HR, in besluitvorming. AI-modellen doen hun werk goed: ze vinden patronen. Maar wíj moeten nog steeds begrijpen wat die patronen betekenen – en of ze wel kloppen, of eerlijk zijn, of bruikbaar.

Daarom een korte analyse van waarom AI-antwoorden soms te mooi zijn om waar te zijn – en waar we écht voorzichtig moeten zijn met wat we eruit afleiden.

Waarom voorzichtigheid geboden is

AI-modellen geven vaak antwoorden die logisch lijken, overtuigend klinken en perfect in je dashboard passen.Maar juist dan moet je extra scherp zijn. Want AI vertelt jet wat vaak voorkomt. Maar dat is iets anders dan dat ook klopt. Hier zijn vier redenen waarom – én waar het mis kan gaan als je AI blind volgt.

Correlatie ≠ causaliteit Misschien is iemand stiller op e-mail omdat hij diep in een project zit, of op vakantie. Niet omdat hij gaat vertrekken.

 

  1. Risico op zelfvervullende voorspellingen Als het management iemand extra in de gaten houdt of vervroegd aanspreekt op basis van zo’n model, kan dat het vertrouwen schaden – en daarmee juist het vertrek veroorzaken.
  2. Veranderende omstandigheden In COVID-tijd veranderde e-mailgedrag plots massaal, zonder dat dat iets zei over verloopintentie. Modellen die op eerdere data waren getraind, faalden plotseling.
  3. Bias door irrelevante factoren Als het model traint op historische data waarin bijvoorbeeld vrouwen of parttimers vaker vertrekken, kan het ten onrechte deze groepen stigmatiseren – zonder dat de oorzaak in hun gedrag ligt.

De kernboodschap

Modellen zoals ChatGPT kunnen aanwijzingen geven, hypotheses opwerpen, maar nooit de waarheid dicteren. Ze zijn slechts spiegels van wat was, niet van wat moet of rechtvaardig is.

Zoals Lewan mooi aanhaalt:

They confuse what is often with what must be.

Daarom zeg ik er altijd bij: gebruik mijn inzichten als startpunt voor menselijk oordeel en discussie, niet als automatische beslisregels.

Hier zijn nog vijf concrete voorbeelden waarbij de antwoorden van ChatGPT met gezond verstand en kritisch nadenken moet behandelen – omdat het model werkt op basis van patronen en niet op basis van echte begrip van causale logica of morele overwegingen.

1. Medische adviezen op basis van symptomen

Vraag: "Ik heb keelpijn, hoofdpijn en koorts – wat kan het zijn?"

Wat AI doet: AI geeft een lijstje mogelijke oorzaken: verkoudheid, griep, COVID, keelontsteking…

Waarom dat riskant is:

 

  • AI geeft géén diagnose, maar waarschijnlijkheden op basis van tekstuele beschrijvingen.
  • AI ziet geen lichamelijk onderzoek, labwaarden of medische context.
  • AI kan kritieke alarmsymptomen missen die een arts wél herkent.

 

👉 Gebruik AI als checklijst, niet als vervanging van een arts.

2. Juridisch advies op basis van wetsteksten

Vraag: "Mag ik als ZZP’er mijn opdracht stopzetten zonder opzegtermijn?"

Wat AI doet: AI geeft een antwoord op basis van publieke informatie en patroonherkenning in wetsartikelen.

Waarom dat gevaarlijk is:

 

  • Wetgeving verandert voortdurend.
  • De interpretatie hangt sterk af van de precieze situatie, afspraken en jurisprudentie.
  • AI is geen bevoegde jurist.

 

👉 AI’s advies kan als oriëntatie dienen, maar juridisch advies vereist altijd een specialist.

3. Beleggingsadvies of financiële voorspellingen

Vraag: "Is het een goed moment om aandelen van bedrijf X te kopen?"

Wat AI doet: AI geeft historische context, markttrends en mogelijke scenario’s.

Waarom dat misleidend kan zijn:

 

  • AI heeft geen echte 'kennis' van de toekomst.
  • Het model voorspelt niet, het herhaalt patronen.
  • Externe factoren zoals politiek, geopolitiek of sentiment kan AI niet accuraat wegen.

 

👉 Gebruik AI als analysehulpmiddel, niet als orakel voor financiële beslissingen.

4. Culturele of psychologische generalisaties

Vraag: "Wat zijn typische kenmerken van millennials in de werkomgeving?"

Wat AI doet: AI geeft een opsomming van kenmerken uit artikelen: "digitally savvy", "behoefte aan zingeving", "loyaal aan waarden, niet aan bedrijven"…

Waarom je moet oppassen:

 

  • Dit zijn stereotype samenvattingen, geen feiten over individuen.
  • Ze zijn cultureel gekleurd en vaak gebaseerd op beperkte steekproeven.
  • Ze kunnen leiden tot tunnelvisie of vooroordelen in HR-beleid.

 

👉 Gebruik AI als gesprekspartner, niet als beoordelaar van mensen.

5. Medewerkerprestatie beoordelen op basis van KPI's (CSAT, AHT, HHV)

Vraag: "Welke medewerkers presteren het slechtst op basis van klanttevredenheid, gesprekstijd en herhaalverkeer?"

Wat AI doet: AI helpt bij het maken van dashboards met rankingtabellen, top/bottom-categorieën en datagedreven inzichten. Medewerker X lijkt traag én ontevreden klanten op te leveren. Medewerker Y zit in de top 10% van alle KPI’s.

Waarom dit verraderlijk kan zijn:

 

  • De cijfers lijken hard, maar de oorzaken zijn zacht. Een lage score betekent niet automatisch dat iemand slecht werk levert. Misschien krijgt die medewerker de lastigste gesprekken, of werkt die op momenten met veel systeemstoringen.
  • Je ziet het effect, niet de context. Een medewerker met hoge afhandeltijd en lage tevredenheid lijkt inefficiënt, maar kan juist de enige zijn die gesprekken echt afmaakt in plaats van doorschuift.
  • Data kan structureel scheef verdeeld zijn. Sommige medewerkers komen door toeval of roosterkeuzes vaker in contact met terugbellers of ontevreden klanten. Dat beïnvloedt hun scores zonder dat zij daar iets aan kunnen doen.
  • AI leert van het verleden, niet van wat rechtvaardig is. Als je de gemiddelden van het team als norm gebruikt, kun je medewerkers afrekenen op afwijking van een patroon – zelfs als dat patroon ongewenst of verouderd is.

 

👉 Gebruik AI-analyses om uitzonderingen te signaleren, niet om zonder nuance te oordelen over prestaties.

En nu?

Misschien kijk je voortaan net iets kritischer naar dat ene dashboard, die AI-aanbeveling of het patroon dat té mooi lijkt om waar te zijn. Misschien stel je vaker de vraag: wat zegt dit echt – en wat mis ik nog? Of je gebruikt AI precies waar het sterk in is: als versneller van inzicht, niet als vervanger van oordeel.

Patronen in data zijn geen waarheid. Laat ze je helpen sneller inzicht te geven, beter na te denken maar het besluit neem jij!

 

-- dit bericht is eerder gepubliceerd op LinkedIn