• Skip to primary navigation
  • Skip to main content
  • Skip to footer

NextensNextens

Fiscaal partner van professionals

  • Producten
    • Aangiftesoftware
      • Inkomstenbelasting
      • Omzetbelasting
      • Vennootschapsbelasting
      • Schenkbelasting en Erfbelasting
      • Dividendbelasting
      • Alle producten
    • Modules
      • Jaarrekening
      • Digitaal bezwaar
      • Opgaaf Werkelijk Rendement
      • SBR bankaanlevering
      • Nextens Koppelingen
      • Alle producten
  • Kennisproducten
    • Menu-item
      • Fiscale AI assistent – Tex
      • Belastingalmanakken
      • Vaktijdschriften
      • Fiscale kennisbank – Naslag
  • Nieuws
  • Over ons
    • Menu-item
      • Over Nextens
      • Werken bij Nextens
      • Veiligheid
      • Klantverhalen
      • Verschijningsdata
      • Contact
    • Menu-item
      • Studio Nextens
      • Nextens Connect
      • Partners
      • De auteurs van Nextens
  • Login
  • Offerte aanvragen
  • Login
Home Fiscaal nieuws AI hallucinaties: waarom blind vertrouwen op generieke tools riskant is voor juristen, fiscalisten en accountants

Nieuws

AI, Efficiënter werken

AI hallucinaties: waarom blind vertrouwen op generieke tools riskant is voor juristen, fiscalisten en accountants

Team Nextens10 apr 20263 min Leestijd

AI is snel, handig en kan er voor zorgen dat je tijdrovende taken in een veel sneller tijdsbestek kunt afhandelen. Maar het is niet zonder risico’s want dezelfde technologie kan ook heel overtuigend verkeerde informatie produceren. We noemen dat een AI hallucinatie. In de juridische praktijk leidde dat onlangs nog tot een pijnlijk moment in de rechtszaal: een advocaat verwees naar jurisprudentie die helemaal niet bestond. Dit incident staat niet op zichzelf. Juist in vakgebieden waar bronvermelding, dossiervorming en controle centraal staan, is blind vertrouwen op generieke AI een serieus risico. En dat geldt net zo goed voor de fiscale praktijk en accountancy.

Wat gebeurde er in de rechtzaal?

In een zaak tussen twee aandeelhouders van een kleine rederij kwam de advocaat van een minderheidsaandeelhouder in de problemen. In het verzoekschrift stonden verwijzingen naar uitspraken die nergens te vinden waren. De rechters reageerden zichtbaar scherp en wezen op de kernverplichting in procedures: relevante feiten en bronnen volledig en naar waarheid aanvoeren.

De wederpartij stelde dat hier sprake was van oneigenlijk AI-gebruik. Er zouden zelfs pogingen zijn gedaan om eerdere verwijzingen te “repareren” met nieuwe verwijzingen die opnieuw niet klopten. Met als resultaat reputatieschade, verlies aan geloofwaardigheid en een zitting waarin de inhoud naar de achtergrond dreigde te verdwijnen.

Wat zijn AI hallucinaties en hoe ontstaan ze?

Een AI hallucinatie is geen “leugentje” met opzet. Het is een systeemfout die ontstaat wanneer een AI-model een antwoord vormt dat taaltechnisch logisch klinkt, maar feitelijk onjuist is.

Kan AI dan echt jurisprudentie verzinnen?
Ja. Zeker generieke modellen kunnen plausibel klinkende verwijzingen genereren, inclusief datums en nummers, terwijl de bron niet bestaat. Dat gebeurt vooral wanneer het model moet gokken, wanneer de vraag te open is, of wanneer betrouwbare bronnen ontbreken in de context. Generieke modellen zijn ook echte “pleasers” en geven daarom regelmatig liever een foutief antwoord dan geen antwoord.

Waarom merk je het soms niet meteen?
Omdat de output vaak ongelofelijk professioneel oogt. En juist daar zit het grote probleem. Generieke AI-modellen zijn heel goed in staat een foutief of verzonnen antwoord echt te laten lijken. De tekst leest alsof hij klopt, waardoor controle te laat komt of zelfs helemaal uitblijft.

Waarom dit meer is dan een ongemakkelijke fout?

In een rechtszaal is het effect natuurlijk direct zichtbaar want rechters prikken erdoorheen en benoemen het ter plekke. Dat is voor de desbetreffende advocaat natuurlijk even een “vervelend” momentje maar de schade kan breder zijn. Denk aan:

  • Vertrouwensverlies bij rechtbank, cliënt of wederpartij
  • Tuchtrechtelijke risico’s als blijkt dat controle en professionele beoordeling tekortschoten
  • Strategische druk richting schikking om publieke schade te beperken

Met andere woorden: een hallucinatie is niet alleen een inhoudelijke fout, maar kan ook het proces, de positie en de belangenafweging beïnvloeden.

Dezelfde AI hallucinaties in de fiscale praktijk en accountancy

Wie in fiscaliteit of finance werkt, herkent het patroon. Ook hier draait het om controleerbare bronnen, actuele regels en verdedigbare keuzes. Een AI hallucinatie kan dan bijvoorbeeld leiden tot:

  • een verzonnen of verkeerd geciteerd wetsartikel, beleidsbesluit of arrest
  • een fout in grensbedragen, percentages, termijnen of drempels
  • een onderbouwing die logisch klinkt, maar niet aansluit op de feiten in het dossier
  • inconsistente toelichtingen in aangifte, memo of jaarrekeningdossier

Fiscale en financiële documenten werken bovendien door. Een kleine onjuistheid valt nu misschien niet op maar kan later vragen oproepen bij review, controle, klant of Belastingdienst. En als de bron dan niet te herleiden is, wordt “uitlegbaarheid” ineens een groot probleem.

Waarom afgebakende professionele content essentieel is

Generieke AI is breed getraind en mist per definitie context over jouw specifieke bronnen, definities en actualiteit. In vakgebieden met hoge nauwkeurigheidseisen is het daarom van groot belang te werken met AI die zich baseert op afgebakende, gecontroleerde professionele content.

Wat levert dat op in de praktijk?

  • Herleidbaarheid: je kunt zien waar een antwoord op gebaseerd is (bron, versie, context).
  • Consistentie: minder variatie in interpretatie en formulering.
  • Controleerbaarheid: een professional kan sneller valideren, omdat de bronset vastligt.
  • Kwaliteitsborging: je verkleint de kans op “goed klinkende onzin”.

Maar los van de vraag welke AI-tool je gebruikt, AI is altijd ondersteunend en de professional blijft altijd eindverantwoordelijk. In beroepen waar zorgvuldigheid en toetsbaarheid de norm zijn, hoort blind vertrouwen simpelweg niet bij het werk.

Professionele toetsing blijft altijd leidend

De blunder met fictieve jurisprudentie laat zien hoe overtuigend AI hallucinaties kunnen zijn. Dat risico speelt niet alleen in de advocatuur, maar net zo goed bij fiscalisten en accountants. Daarom is het verschil tussen generieke AI en gecontroleerde, domeinspecifieke AI cruciaal. Niet omdat AI alles moet overnemen, maar omdat betrouwbaarheid, bronvermelding en professionele toetsing altijd leidend blijven.

Wil je weten hoe ook jouw organisatie risoco’s kan vermijden door gebruik te maken van specifieke, gecontroleerde AI? We gaan er graag met je over in gesprek en kunnen je laten zien hoe verantwoordelijkheid, controle en bronvastheid in AI-gebruik ook bij jou het verschil kunnen maken.

Wil je zien hoe verdedigbare AI er voor de fiscaal professional uitziet ?

Vraag ‘t Tex!

Artikel delen:
Share this...
Share on facebook
Facebook
Share on pinterest
Pinterest
Share on twitter
Twitter
Share on linkedin
Linkedin

Net als 20.000 anderen het meest actuele fiscale nieuws?

Schrijf je in voor onze nieuwsbrief

Jouw fiscaal partner

Neem voor meer informatie contact op met onze adviseurs

Footer

  • Software producten
  • Inkomstenbelasting
  • Omzetbelasting
  • Vennootschapsbelasting
  • Schenkbelasting en Erfbelasting
  • Dividendbelasting
  • Jaarrekening
  • Digitaal Bezwaar
  • Opgaaf Werkelijk Rendement
  • Koppelingen

  • Kennisproducten
  • Fiscale AI assistent – Tex
  • Belasting Almanakken
  • Vaktijdschriften
  • Fiscale kennisbank – Naslag
  • Fiscaal nieuws
  • Laatste nieuws
  • Over ons
  • Over Nextens
  • Werken bij Nextens
  • Veiligheid
  • Klantverhalen
  • Verschijningsdata
  • Status
  • Contact
Relx Logo
iso-certificate-mark
Relx Logo

  • The following regulations apply to the use of this website:
  • Terms and conditions
  • Security
  • Privacy policy
  • Cookie policy
  • Nextens® is a brand of LexisNexis® Risk Solutions, part of RELX.
  • Copyright reserved © 2026 LexisNexis Risk Solutions.