‘Hallucineren’ werd in december uitgeroepen tot woord van het jaar 2025. Vanzelfsprekend geen nieuw woord, maar wel een woord waarvan de betekenis de afgelopen jaren is opgerekt. In het bijzonder als het gaat om chatbots die feiten verzinnen, of overtuigende, maar foutieve antwoorden geven. Hoewel het vaak grappige voorbeelden oplevert en in die zin onschuldig lijkt, verliest het woord zijn luchtigheid zodra generatieve AI wordt ingezet in de financiële sector. Dan is hallucineren geen taalspel meer, maar een reëel risico. En de relevantie is in 2026 zeker niet minder.
Een plausibel fout antwoord niet acceptabel
Generatieve AI is ontworpen om waarschijnlijk klinkende antwoorden te produceren, niet om de waarheid te garanderen. Dat is geen bug, maar een eigenschap. Zoals Dr. Scott Zoldi, Chief Analytics Officer bij FICO, een wereldwijd opererende speler in AI, analytics en besluitvorming, benadrukt: deze modellen vullen ontbrekende kennis aan op basis van statistische patronen, waardoor iets overtuigend kan klinken zonder feitelijk te kloppen. Daarmee schetst hij precies waar het risico ontstaat. In creatieve toepassingen, zoals teksten, ideeën, samenvattingen, is dat vaak prima. Een fout is vervelend, maar zelden schadelijk. Het probleem ontstaat wanneer dezelfde technologie wordt ingezet voor besluitvorming: bij kredietbeoordelingen, fraudepreventie, klantinteractie of risicomanagement. Daar is een plausibel fout antwoord niet acceptabel.
Toch gebeurt precies dat. Niet omdat banken roekeloos inzetten op AI, maar omdat innovatie vaak wordt afgeremd door compliance-eisen en risico-aversie. Daardoor ontstaat juist verwarring tussen waar AI mag verkennen en waar het moet beslissen. Het gevolg: systemen die overtuigend klinken, maar niet altijd weten waarom ze iets zeggen. Laat staan of het klopt.
Niet technisch, maar governance
Dat maakt AI-hallucinaties geen technisch probleem, maar een ontwerp- en governancevraagstuk. De kernvraag is niet waar we AI slimmer maken, maar waar we dit inzetten, en hoe we dat transparant kunnen doen. Creatieve AI is iets anders dan beslis-AI. Zoldi wijst er al langer op dat de grootste risico’s ontstaan wanneer generatieve AI wordt ingezet alsof het klassieke, uitlegbare besluitmodellen zijn, terwijl het juist systemen zijn die onzekerheid en aannames produceren. In omgevingen waar beslissingen gevolgen hebben voor geld, rechten of vertrouwen, gelden andere eisen: uitlegbaarheid, traceerbaarheid en controle.
Juist in de financiële sector is dat essentieel. Besluitvorming is hier zelden een los moment, maar een keten van signalen, context en afwegingen. Van inloggen tot betalen, van onboarding tot het wijzigen van een begunstigde. Wanneer AI slechts een fragment ziet, of autonoom conclusies trekt zonder domeinkennis, ontstaan blinde vlekken. En die worden door fraudeurs maar al te graag benut.
Lagere tolerantie, hogere eisen
De opkomst van realtime-betalingen en steeds meer geavanceerde scams vergroot die kwetsbaarheid. Beslissingen moeten sneller worden genomen, terwijl de tolerantie voor fouten juist afneemt. Tegelijkertijd stellen toezichthouders strengere eisen. De Europese AI Act benadrukt niet voor niets uitlegbaarheid, proportionaliteit en menselijk toezicht. Een systeem dat ‘waarschijnlijk gelijk’ heeft, is simpelweg niet voldoende.
Hoe voorkom je dan AI-hallucinaties in deze context? Niet door nóg een generiek taalmodel toe te voegen, maar door fundamentele keuzes te maken in architectuur en governance. Dat begint met domeinspecifieke modellen die zijn getraind op relevante, gecontroleerde data. Zoldi wijst er bovendien op dat AI-modellen die zijn ontworpen voor een specifieke taak en getraind op gecontroleerde data minder geneigd zijn om buiten hun kennisgrenzen te treden. Met besluitvorming die uitlegbaar is voor toezichthouders en voor klanten.
Betrouwbaarheid weegt zwaarder dan originaliteit
Minstens zo belangrijk is menselijk toezicht, maar niet als laatste vangnet. Mensen moeten begrijpen hoe AI tot een beslissing komt, zodat zij kunnen bijsturen, niet slechts goedkeuren. Dat vraagt om transparantie in het hele besluitvormingsproces, niet om een ‘black box’ met een keurige uitkomst.
AI mag dus best hallucineren, zolang het gaat om creativiteit en verkenning. Zoldi benadrukt dat generatieve AI simpelweg niet ontworpen is om zelfstandig besluiten te nemen met financiële of maatschappelijke impact, tenzij zij wordt ingebed in systemen met controleerbare logica en menselijk toezicht. Maar zodra AI invloed krijgt op financiële beslissingen, moet betrouwbaarheid zwaarder wegen dan originaliteit. Wie dat onderscheid niet maakt, loopt niet alleen technologisch risico, maar ondermijnt ook vertrouwen. En dat is uiteindelijk de meest kostbare fout die een financiële instelling kan maken.
Auteur: Vincent Edelkoort. Vincent is Country Lead Benelux bij FICO, waar hij werkt op het snijvlak van AI, risico en financiële besluitvorming. Dr. Scott Zoldi is chief analytics officer at FICO, responsible for artificial intelligence (AI) and analytic innovation across FICO's product and technology solutions.

