‘Agentic AI zet risicomanagement, fraudebestrijding en kredietbeoordeling op zijn kop’
De nieuwe generatie Agentic AI-systemen verandert het operating model van financiële dienstverleners structureel. Wie daar straks de vruchten van wil plukken, moet nú een solide toekomstvisie formuleren, stelt Gabriela Filip (ex-Knab, FMO, NIBC). "De inconvenient truth is dat AI-pilots vaak mislukken omdat het C-level management het vereiste voorwerk niet heeft gedaan."
Agentic AI is de nieuwe fase in de AI-evolutie. Deze systemen evalueren zelfstandig data, trekken daar conclusies uit en nemen op basis daarvan beslissingen. Daar zit steeds vaker geen mens meer tussen. Het systeem bepaalt zelf welke stappen nodig zijn, voert die uit en past de aanpak aan wanneer de resultaten daarom vragen.
Leiderschapsuitdaging
Onderzoek van MIT Technology Review toont dat 70% van de banken al experimenteert met agentic AI. Toch klagen veel executives dat hun AI-implementaties te snel gaan voor de interne risicocontroles. Volgens Filip is dat geen technisch probleem, maar een leiderschapsuitdaging. “De enorme mogelijkheden van agentic AI vragen van C-level beslissers om hun business opnieuw uit te vinden.”
“De beslissingen die zij nemen rond verantwoordelijkheid, besluitvorming en werkprocessen bepalen uiteindelijk het succes”, vervolgt Filip. “De kernvraag is daarom niet hoe intelligent AI-agents worden, maar of leiders in staat zijn om organisaties aan te sturen waarin mensen en machines besluitvorming, verantwoordelijkheid en vertrouwen gaan delen.”
Filip heeft met ruim 15 jaar ervaring alss data- en AI leader met ruim vijftien jaar ervaring in de financiële sector recht van spreken. Tot oktober 2025 was zij Chief Data & Analytics Officer bij Knab, waar zij de data- en AI strategie formuleerde en data- en analytics organisatie vorm gaf.
Daarvoor was ze Head Data Management & Analytics bij FMO – Dutch Development Bank. Ze volgde executive-programma’s bij onder meer Saïd Business School (University of Oxford) en Rotterdam School of Management, en werd recent opgenomen in de Top 100 Global Women to Watch in Data, Analytics & AI.
Operationeel risico
Op het moment dat AI-agents zelfstandig mogen handelen, wordt het datafundament volgens Filip een operationeel risico. Dat dwingt organisaties om anders te denken over datakwaliteit en governance. "Gelukkig hoeft niet alle data perfect te zijn. Maar als agents die data gebruiken voor autonome beslissingen, moet die data wél aan duidelijke standaarden voldoen. De kernvraag wordt dan: is mijn data goed genoeg voor deze specifieke actie, in deze context, met dit impactniveau?"
Wie agentic AI schaalbaar wil maken, moet de spelregels daarom volgens Filip direct inbouwen in de AI-systemen zelf. Beleidsdocumenten zijn simpelweg te traag voor systemen die op machinesnelheid opereren. "Als je AI-systeem je regels niet kan afdwingen, werken ze niet bij autonoom gedrag", stelt ze. “Daarnaast moet altijd uitlegbaar zijn waarom een AI-agent een bepaalde beslissing nam. “Welke data gebruikte het systeem? Welke aannames speelden mee? Zonder dat inzicht worden autonoom werkende systemen al snel onbestuurbaar.”
De Replit-waarschuwing
Filip verwijst naar de veelbesproken Replit-case, waarin een ‘op hol geslagen agent’ de gehele database van een bedrijf wiste en vervolgens misleidende outputs genereerde om de schade te verhullen. "Die case snijdt dwars door alle abstracte discussies over AI-risico. Het gevaar zit niet in één verkeerde beslissing. Het zit in de combinatie van snelheid, schaal en gebrekkig zicht op wat er gebeurt."
De agent gedroeg zich volgens Filip binnen de grenzen die het van de designer meekreeg. “Of beter gezegd: níet meekreeg”, lacht ze. “Het probleem was de afwezigheid van harde grenzen: geen scheiding tussen test- en productieomgevingen, geen duidelijke regels, onvoldoende mogelijkheden om schade te herstellen.”
In de financiële sector is dat uiteraard al snel funest. Stel dat een AI-agent door onduidelijke afspraken rekeningen blokkeert, kredieten afwijst of overtredingen meldt bij de toezichthouder. Omdat zo’n systeem op grote schaal werkt, verspreiden die acties zich razendsnel door de hele organisatie. "Tegen de tijd dat je het probleem ontdekt, zijn klanten al geraakt en staat de toezichthouder op de stoep. Dan heb je geen technisch incident meer — dan heb je een vertrouwenscrisis."
Governance als versneller
Veel managers ervaren embedded governance als rem op innovatie. Volgens Filip is het tegendeel waar. "Zonder embedded governance komt de meeste AI-innovatie nooit voorbij de experimenteerfase. Wanneer de spelregels onduidelijk zijn, wordt een organisatie automatisch voorzichtig. Je beperkt de autonomie, houdt overal humans in the loop, en AI blijft een pilotproject dat indrukwekkend uitziet maar nooit opschaalt."
Door vooraf duidelijk te maken wat wel en niet mag, krijgen teams juist het vertrouwen om méér aan AI over te laten. Ze kunnen veilig experimenteren en sneller opschalen. "Governance voelt alleen als rem wanneer je C-level management het voorwerk niet heeft gedaan. Wie niet helder heeft nagedacht over verantwoordelijkheden en risicobereidheid, ervaart elke regel als obstakel."
Autonomie en verklaarbaarheid
De spanning tussen autonomie en verklaarbaarheid is reëel, maar wordt vaak verkeerd geframed. "De fout is om álles op modelniveau te willen uitleggen. Dat is niet realistisch, en het is ook niet wat toezichthouders verwachten. Waar het om gaat is dat je beslissingen kunt uitleggen op het niveau waarop ze klanten, risico’s en verantwoordelijkheden raken."
De oplossing begint volgens Filip met decision scoping: welke beslissingen laat je aan machines over, en hoe kritiek zijn die? “Bij activiteiten met grote impact, zoals kredietbeslissingen, fraudedetectie, het blokkeren van rekeningen, gelden strengere eisen en duidelijke escalatiepaden naar mensen. Bij minder impactvolle beslissingen is meer autonomie mogelijk.”
Nieuw operating model
De interessantste toepassingen van Agentic AI liggen volgens Filip bij beslissingen die vaak voorkomen, grote impact hebben, en inconsistent uitvallen wanneer je ze overlaat aan menselijke medewerkers: risicomanagement, fraudebestrijding, kredietbeoordeling, pricing en compliance. Voorzien van heldere regels kunnen agentic AI-systemen voortdurend context beoordelen, beleid toepassen en binnen heldere grenzen handelen.
“Dit verandert het hele operationele model. In plaats van grote delen van de organisatie in te richten op het beoordelen van routinezaken, handelen systemen af wat helder is. Mensen richten zich op uitzonderingen, grijze gebieden en verantwoording.”
“De menselijke rol verdwijnt niet, maar verschuift naar de voorkant van het proces”, vervolgt ze. “Je bepaalt de beslislogica, stelt grenzen en neemt verantwoordelijkheid voor de uitkomsten. De echte winnaars zijn straks niet de banken met de slimste modellen. Het zijn de banken met de helderste ownership van elke beslissing, die daardoor het sterkste vertrouwen van klanten én toezichthouders kunnen opbouwen.”
Gabriela Filip eregast tijdens nieuwe editie Data Leadership Roundtable
AI-consultant Rewire organiseert op 5 februari 2026 de eerste in een nieuwe serie Data Leadership Roundtables. Die zijn specifiek bestemd voor Chief Data & Analytics Officers, CIO’s, Heads of Data & AI en andere data leaders. Tijdens deze editie spreekt Gabriela Filip o.a. over het belang van ontologie: het opstellen van een gemeenschappelijk woordenboek dat ervoor zorgt dat mens én machine dezelfde taal spreken. “In plaats van AI-gedrag achteraf te corrigeren, leg je hiermee vooraf vast hoe de AI de wereld moet interpreteren.”
