
Generieke AI heeft in korte tijd ook finance bereikt. De belofte is aantrekkelijk. Sneller rapporteren, sneller analyseren, sneller schrijven. Toch ontstaat in de praktijk vaak hetzelfde beeld. Het eerste rapport of de eerste analyse maakt indruk. Maar zodra we beter kijken, de cijfers echt goed analyseren, hier besluiten op willen baseren, neemt het vertrouwen snel af. Veel CFO’s en finance teams herkennen dat patroon. De output oogt in eerste instantie solide, maar voelt bij nadere lezing toch niet juist genoeg om op te bouwen.
Dat is geen kwestie van koudwatervrees. Finance stelt eenvoudigweg andere eisen dan de meeste andere bedrijfsfuncties. Een tekst moet niet alleen goed lezen, het moet inhoudelijk 100% kloppen, reproduceerbaar zijn, herleidbaar zijn naar brondata en passen binnen het eigen governancekader. NIST (National Institute of Standards and Technology) noemt confabulatie expliciet als kernrisico van generatieve AI en adviseert organisaties om bronnen, citaties en versiebeheer altijd actief te controleren. Ook de ECB benadrukt dat de waarde van AI in de financiële sector uiteindelijk afhangt van de manier waarop data, modelontwikkeling en deployment worden beheerst.
Finance vereist verdedigbare en correcte output
Mooi is niet per definitie correct. Dat onderscheid is essentieel. In bijvoorbeeld marketing of klantenservice kan een model dat meestal goed zit al snel nuttig zijn. In finance is dat vaak niet het geval. Daar moet een getal niet alleen waarschijnlijk juist zijn, maar aantoonbaar juist. De Bank of England wijst in dit verband niet voor niets op data governance, model risk management en operationeel risicobeheer als essentieel voor AI in financiële diensten. En zodra een uitkomst niet uitlegbaar is, verandert tijdwinst in extra controlewerk. Iets wat Brian Solis omscrijft als “hidden AI tax”.
Juist daar wringt ook gelijk de schien bij generieke modellen. Ze zijn immers gebouwd om taal te produceren die overtuigend en vloeiend is. Finance heeft echter meer nodig dan alleen overtuigend klinkende tekst. Finance heeft behoefte aan output die standhoudt in een boardroom, bij een auditor en uiteindelijk ook in de eigen dossiervorming. Dat is een fundamenteel ander kwaliteitscriterium.
5 redenen waarom generieke AI niet voldoet voor finance
- Het model kan overtuigend fout zitten
Het eerste probleem is meteen het grootste. Generieke AI kan een cijfer of oorzaak overtuigend formuleren, zonder dat duidelijk is of het antwoord echt uit de bron komt of door het model is ingevuld. NIST noemt dat risico expliciet en de Europese toezichthouders waarschuwen dat generatieve AI misleidende hallucinaties kan produceren. Dat maakt de fout niet altijd spectaculair, maar juist heel subtiel. Een marge schuift een paar tienden. Een afwijking krijgt een nette, maar onjuiste verklaring. Een trend wordt met stelligheid gepresenteerd, terwijl de onderbouwing ontbreekt.
Juist daar zit hem het gevaar. Grote fouten vallen immers sneller op. Kleine, geloofwaardige afwijkingen glippen makkelijker door een review heen. En juist in finance zijn het die kleine afwijkingen die later grote vragen oproepen en gevolgen kunnen hebben. Een model dat af en toe hallucineert, vormt daarom een extra risicolaag. - Het antwoord is niet stabiel genoeg voor besluitvorming
Een finance team wil niet telkens een nieuw antwoord op dezelfde vraag. Het wil hetzelfde antwoord, mits de onderliggende data gelijk zijn gebleven. Generieke AI-modellen zijn daar niet vanzelfsprekend op ingericht. Ze reageren op context, promptformulering, modelupdates en systeemwijzigingen. Het advies is dan ook om nadrukkelijk versienummers, hotfixes en andere veranderingen te volgen, juist omdat zulke wijzigingen invloed kunnen hebben op de output.
Voor finance is dat een wezenlijk probleem. Een uitkomst die maandag net anders luidt dan woensdag, is misschien acceptabel in een creatieve workflow, maar niet in een managementrapportage of memo voor de raad van bestuur. Dan ontstaat namelijk direct een nieuwe taak. Niet analyseren, maar vergelijken, hertesten en handmatig verifiëren. De tool die snelheid beloofde, voegt dan vooral onzekerheid toe. - Zonder bronverwijzing bestaat er geen audit trail
Finance werkt niet alleen met cijfers, maar met bewijs. Waar komt het getal vandaan? Welke definitie is gebruikt? Welke bronregel ligt eraan ten grondslag? Je zult daarom altijd expliciet bronnen en citaties in outputs moeten beoordelen en verifiëren. De Bank of England koppelt datzelfde vraagstuk aan data governance en model risk management in financiële instellingen. En dat is logisch, want een uitkomst zonder controleerbare herkomst is in de praktijk feitelijk een onbruikbare uitkomst.
Daar zit een van de grootste tekortkomingen van generieke AI in finance. Het model kan een keurige managementsamenvatting geven, maar toont meestal geen audit trail die een controller, accountant of toezichthouder echt verder helpt. Dan blijft de essentie van het werk alsnog handmatig. Het antwoord moet terug naar Excel, naar het grootboek, naar de rapportage of naar de brondefinitie. En precies daarmee verdwijnt een groot deel van de beloofde efficiency. - Data governance wordt direct een operationeel risico
Zodra financeprofessionals gevoelige informatie in een publiek of generiek model plakken, raakt de discussie aan governance, vertrouwelijkheid en operationele weerbaarheid. De ECB waarschuwt dat breed gebruik van nieuwe AI-tools ook risico’s rond concentratie en operationele afhankelijkheid kan vergroten. De EBA signaleert daarnaast dat generatieve AI hallucinaties kan versterken en tegelijk ICT-risico’s kan vergroten.
Recentelijk meldde The Wall Street Journal dat Anthropic met spoed de impact probeerde te beperken van een lek van broncode en interne instructies achter Claude Code. Volgens de berichtgeving ging het niet om klantdata of modelgewichten, maar wel om gevoelige interne tooling en aansturing die concurrenten en kwaadwillenden inzicht konden geven in de werking van het systeem. Dit voorbeeld maakt nogmaals duidelijk dat als zelfs een toonaangevende AI-speler incidenten rond eigen kroonjuwelen moet indammen, dan is terughoudendheid met board packs, forecasts en M&A-documenten geen overdreven voorzichtigheid, maar professioneel risicobesef. - Generieke AI werkt op snapshots, niet op je actuele werkelijkheid
Finance draait steeds minder om vaste rapportagemomenten alleen. Bestuurders willen tussentijdse duiding, scenario’s en snelle impactanalyses op basis van wat er nu gebeurt. Generieke AI kan daar meestal alleen iets mee als iemand eerst handmatig data selecteert, kopieert en plakt. Daarmee werk je per definitie op een momentopname. Tegelijkertijd benadrukt de BIS dat de inzet van generatieve AI om sterke governance, informatie- en metadatastandaarden vraagt. Zonder die basis blijft de output losstaan van de actuele werkelijkheid waarop finance juist moet sturen.
Deze 5 reden maken dudielijk waarom generieke AI in finance voorlopig vooral nuttig is aan de randen van het proces, bijvoorbeeld bij eerste redactie of het ordenen van gedachten. Zodra de vraag raakt aan actuele cijfers, formele besluitvorming of externe verantwoording, is een generiek model simpelweg niet geschikt.
Van finance naar fiscaliteit
De stap van finance naar fiscaliteit is klein, maar ook hier is waakzaamheid geboden als het generieke AI betreft. Immers ook in fiscaliteit zijn herleidbaarheid, actualiteit en bronvastheid geen luxe, maar basisvoorwaarden. De Belastingdienst maakt in publicaties over artikel 67 AWR duidelijk dat de fiscale geheimhoudingsplicht breed kan doorwerken en in voorkomende gevallen voorrang heeft op openbaarmaking onder de Woo. Dat onderstreept hoe zorgvuldig met fiscale informatie en context moet worden omgegaan.
Daarom is het voor de fiscaliteit net als voor finance niet verstamdig om te vertrouwen op generieke modellen die op brede, open en niet afgebakende kennis draaien. Wat hier nodig is, zijn specifieke, gecontroleerde AI-modellen met afgeschermde content, duidelijke bronvermelding en een afgebakend kennisdomein. Met Nextens Tex krijg je precies dat: geverifieerde, professionele content, bronvermelding en een inrichting die aansluit op de praktijk van fiscale professionals. Dat maakt het verschil tussen een slim klinkend antwoord en een antwoord dat je ook kunt verantwoorden.
Conclusie
Generieke AI is indrukwekkend in taal, maar finance en fiscaliteit vragen om meer dan taal alleen. Het vraagt om juistheid, stabiliteit, broncontrole, governance en aansluiting op actuele data. Op al die punten schiet het generieke model voorlopig tekort. Daarom is het voor finance en fiscaliteit nog geen betrouwbaar fundament, hooguit een hulpmiddel voor laag-risico werk. Wie AI daadwerkelijk efficient wil inzetten, heeft geen baat bij een breed model zonder afbakening, maar bij een gecontroleerde omgeving met geverifieerde content en afgeschermde kennis. Dat is niet behoudend. Dat is precies wat professioneel gebruik van AI vraagt in een domein waar elk antwoord herleidbaar, verdedigbaar en vertrouwelijk moet zijn.
Wil jij AI wel veilig in kunnen zetten?



