
AI wordt steeds belangrijker bij de accountantscontrole. Minder handwerk, minder steekproeven en meer ruimte voor data-analyse. En dat klinkt aantrekkelijk. Toch willen beleggers vooral weten wat er onder de motorkap gebeurt. In de jaarlijkse accountantsbrief 2026 vraagt de VEB daarom om concretere uitleg over het gebruik van AI door accountants, in controleverklaringen en tijdens aandeelhoudersvergaderingen. Die roep om openheid maakt één vraag urgent: kun je het gebruik van AI ook echt verantwoorden?
Wat staat er in de VEB accountantsbrief 2026?
De VEB richt de jaarlijkse accountantsbrief aan de oob-accountantsorganisaties en benoemt vier speerpunten voor het controle- en vergaderseizoen rond jaarrekening 2025:
- de Verklaring Omtrent Risicobeheersing (VOR),
- naleving van de Corporate Governance Code,
- frauderisicoanalyse en transparante rapportage, en
- inzicht in inzet van AI bij de wettelijke controle.
Dit betekent feitelijk dat communicatie betekenisvol moet zijn voor gebruikers van de jaarrekening. Geen algemene teksten, maar uitleg die past bij de gecontroleerde entiteit en bij de uitgevoerde werkzaamheden.
Waarom wil de VEB meer transparantie over AI in de accountantscontrole?
Beleggers zien dat accountants vaker AI inzetten, maar missen context. Wat verandert er nu echt aan de controle? Leidt AI tot scherpere signalen over risico’s in de jaarrekening, interne beheersing of fraude? En wat betekent het voor de kwaliteit van controle-informatie? De VEB wil daarom dat de controleverklaring duidelijker maakt of en hoe AI is gebruikt, en welke invloed dat had op de controleaanpak en -uitkomsten.
Daar komt bij dat AI niet alleen de controle verandert, maar ook de gecontroleerde organisatie. AI beïnvloedt processen, verdienmodellen en soms zelfs de manier waarop cijfers tot stand komen. Dat raakt dus ook de aard, timing en omvang van controlewerkzaamheden.
Wat bedoelt de VEB met “inzicht in inzet AI”?
In de brief stelt het VEB dat AI bijvoorbeeld een rol speelt bij data-analyse op journaalposten en bij fraudedetectie. Tegelijkertijd verwacht de VEB dat AI ook in andere fases van het controleproces wordt toegepast. Daardoor verschuift de rol van de accountant meer richting het valideren van datakwaliteit, het beoordelen van systemen en het toetsen van AI-governance.
De vraag van de VEB is vervolgens logisch: op welke controlewerkzaamheden zijn AI-tools ingezet, welke tools zijn dat en wat deed dat met de controle-informatie en de controlekwaliteit? Als die vraag vaker publiek wordt gesteld, wordt “AI gebruiken” minder een interne methodekeuze en meer een onderwerp van externe verantwoording.
Verdedigbare AI in de accountantscontrole
Zodra AI onderdeel is van controlewerkzaamheden, wordt herleidbaarheid belangrijk. Niet omdat AI per definitie onbetrouwbaar is, maar omdat het vertrouwen in een controle leunt op uitlegbaarheid en toetsbaarheid. Dat schuurt met generieke AI die informatie overal vandaan kan halen, antwoorden niet reproduceerbaar maakt, of bronnen niet scherp kan afbakenen.
Daarom past hier vooral het idee van verdedigbare AI in de accountantscontrole: AI die werkt binnen duidelijke grenzen, gebruik maakt van gesloten en gecontrolleerde content en die achteraf te onderbouwen is. Denk aan kenmerken zoals:
- Afgebakende kennisbasis: duidelijk welke bronnen, datasets en regels wel of niet zijn gebruikt.
- Traceerbaarheid: van output terug naar input, data en bewerkingen (audit trail).
- Consistente werkwijze: reproduceerbare resultaten binnen dezelfde context.
- Governance en controles: vastgelegde rollen, toetsing en monitoring, zodat “AI-output” niet als los eindproduct rondzingt.
Dit sluit aan bij de bredere beweging richting betrouwbare en transparante AI, die ook in beleid en regelgeving terugkomt. Transparantie-eisen rond AI worden in de komende jaren alleen maar zichtbaarder en belangrijker.
AI, frauderisico’s en boilerplate
Opvallend is dat de VEB AI niet los ziet van andere kwaliteitsdossiers. Bij fraude hamert de VEB op een robuuste frauderisicoanalyse en op betere rapportage daarover. De brief wijst erop dat sjabloonteksten (boilerplate) weinig informatiewaarde hebben, en dat onjuistheden in fraudeparagrafen gebruikers zelfs kunnen misleiden.
Dat raakt ook AI. Want als AI helpt bij het opstellen van teksten, ligt standaardisatie op de loer. Juist dan wordt het belangrijk dat rapportage entiteitspecifiek blijft en dat beschrijvingen aansluiten bij wat aantoonbaar is uitgevoerd. Tegelijkertijd blijft de inhoudelijke lat hoog: de AFM concludeerde eerder dat controlewerkzaamheden rond frauderisico’s vaak specifieker en diepgaander moeten.
Wat betekent dit voor het gesprek met stakeholders?
De VEB stelt duidelijk dat beleggers niet alleen willem horen dát AI wordt gebruikt, maar vooral hoe. Daardoor verschuift de communicatie over controlekwaliteit. Minder algemeen, meer concreet. Minder “we gebruiken innovatieve tools”, meer “dit is waar en welke soort AI is toegepast en dit is wat het opleverde”.
Voor finance- en fiscale professionals is dit relevant omdat AI steeds vaker het raakvlak vormt tussen processen, rapportage en assurance. Als AI in processen en controles meedraait, wordt aantoonbaarheid een randvoorwaarde. En precies daar helpt het onderscheid tussen snelle AI en verdedigbare snelheid om het gesprek scherp te houden.
Conclusie: accountancy vraagt om verdedigbare AI
De jaarlijkse accountantsbrief 2026 van de VEB maakt duidelijk dat AI in de accountantscontrole een transparantie-onderwerp wordt. Beleggers willen weten waar AI is ingezet, wat het deed met controle-informatie en of het leidt tot scherpere inzichten. Die ontwikkeling vergroot het belang van verdedigbare AI: AI die afgebakend, traceerbaar en uitlegbaar is, zodat de toepassing niet alleen efficiënt voelt, maar ook standhoudt in verantwoording.
Lees ook ons artikel De haas en de schildpad: ‘snelle AI’ versus verdedigbare snelheid voor de kern van dit onderscheid en hoe ook jij gebruik kan maken van verdedigbare AI.
Wil je ook gebruik maken van verdedigbare AI?



