Digitale collega’s in de hypotheekketen: autonomie vraagt om verantwoordelijkheid
Ook in de hypotheeksector maakt de digitale collega zijn intrede. De keten staat duidelijk op een kantelpunt. Waar we tot voor kort vooral spraken over AI en agentic AI als belofte, zien we nu versneld de eerste toepassingen live gaan in productie. Toepassingen die de manier van werken fundamenteel veranderen.
Use cases die we drie jaar geleden nog als baanbrekend zouden zien, zijn inmiddels onderdeel van het dagelijks werk geworden. En daarmee verschuift de aandacht alweer naar de volgende stap: AI-systemen die zelfstandig redeneren, taken verdelen en beslissingen voorbereiden binnen vooraf vastgestelde kaders.
Dat klinkt als ‘game changing’. En dat is het ook. Maar de vraag die ik mezelf stel is niet óf het kan. De vraag is wel: hoe ontwerpen we het verantwoord?
Autonomie, maar mét controle
Een agentic AI-systeem is geen slimme assistent die alleen braaf antwoorden geeft. Het zijn digitale collega’s die plannen, handelen en beslissingen voorbereiden binnen duidelijke ‘guardrails’ (vaste kaders). Meerdere agents kunnen daarbij samenwerken, elkaar controleren en taken overdragen; vergelijkbaar met een team van menselijke specialisten. Denk aan een agent die beleid toepast, een agent die inkomensgegevens valideert, een agent die KYC-consistentie bewaakt, enzovoort.
Een klantdossier wordt dynamisch verwerkt door een team van digitale collega’s. Efficiënt, schaalbaar en potentieel veel consistenter. Maar precies hier ontstaat het echte ontwerpvraagstuk.
Vier ontwerpvraagstukken: van conflicten tot controleerbaarheid
Wat gebeurt er als agents het oneens zijn? Als de beleid-agent akkoord geeft en de risico-agent een uitzondering markeert, wie beslist dan? De orkestratie-laag die dat oplost bestaat, maar is nog fragiel bij de ‘edge cases’ die in de hypotheekpraktijk geregeld voorkomen.
Dan is er uitlegbaarheid. Onder de EU AI Act en de bestaande AFM-kaders moet altijd te herleiden zijn waarom een beslissing is genomen. Bij multi-agentsystemen is dat geen vanzelfsprekendheid. Een agent die dynamisch afwegingen maakt, levert niet automatisch een redenering die je één-op-één in een klantdossier of richting toezichthouder kunt verantwoorden. Uitlegbaarheid is hier geen ‘nice to have’, maar een randvoorwaarde – en tegelijkertijd nog een actief onderzoeksgebied.
En foutpropagatie, oftewel de doorwerking van fouten. In een lineaire workflow stopt een fout op de plek waar die ontstaat. In een parallel systeem wordt de fout van agent A de input van agent B en C, onzichtbaar voor de mens. Een controlerende agent bovenop zetten lost dat niet op. Die maakt ook fouten.
"Organisaties die governance serieus nemen als ontwerpvraagstuk, en niet als juridische exercitie achteraf, bepalen straks de standaard voor de hele keten."
Achter deze drie vraagstukken schuilt een vierde dat ze allemaal raakt: kun je eigenlijk zien wat er binnenin het systeem gebeurt? Niet alleen wat er in- en uitkomt, maar welke agent welke redenering maakte, op welk moment, op basis van welke input.
Dat vermogen heet observability; begrijpen wat een systeem doet op basis van wat het naar buiten geeft via logs, traces en metrics. Het is onderdeel van een bredere praktijk om AI-systemen in productie te beheren en te monitoren. Zonder dat zicht kun je conflicten niet detecteren, beslissingen niet verantwoorden en fouten niet tijdig onderscheppen.
Er zijn platforms die steeds meer van dit gedrag zichtbaar maken, maar de standaarden voor gereguleerde sectoren ontbreken nog. Wat moet je loggen? Hoe lang bewaar je het? En telt een AI-systeemlog juridisch als audit-trail? Die vragen zijn nog onbeantwoord. Dat maakt dit geen technisch detail, maar een compliance-vraagstuk dat nu al op tafel moet liggen.
Governance is geen rem, het is een ontwerpbeslissing én het fundament
Onder de EU AI Act worden veel agentic systemen in de mid-office waarschijnlijk geclassificeerd als ‘high-risk’. Dat betekent traceerbaarheid, modelvalidatie, audit-trails en duidelijke verantwoordelijkheidslijnen.
De aansprakelijkheidsvraag is concreter dan hij lijkt. Als een agent een fout maakt in een KYC-check en die fout stroomafwaarts door het systeem beweegt, wie is dan verantwoordelijk? De technologie-leverancier? De compliance-officer die de guardrails heeft gedefinieerd? De directie die het systeem heeft geaccordeerd?
Het antwoord is: dat moet je vooraf vastleggen, niet achteraf reconstrueren.
Hoe ontwerp je governance rond digitale collega’s? Hoe behoud je uitlegbaarheid richting toezichthouders? En hoe borg je dat de menselijke maat, die van de adviseur, de acceptant én de klant, overeind blijft?
De volgende stap is een ‘governance-architectuur’ die mens en digitale collega’s gelijktijdig aanstuurt. Niet als sluitstuk, maar als fundament.
Mijn stelling
De koplopers definiëren binnen drie jaar de standaard. Niet noodzakelijk omdat zij de snelste technologie hebben, maar omdat zij nu al nadenken over de essentiële vraagstukken in het ontwerp. De organisaties die governance behandelen als een echte ontwerpkeuze zetten straks de norm voor de hele keten.
De technologie is er. De echte uitdaging is durven bouwen aan een mid-office waarin mens en digitale collega’s elkaar versterken – en waarin we richting klanten, partners en toezichthouders helder kunnen uitleggen hoe en waarom beslissingen tot stand komen.
Bij Quion nemen we die verantwoordelijkheid, juist omdat we geloven dat dit de basis is voor duurzame innovatie in de hypotheekketen.
Een artikel van Mirjam Fuchs, Programmadirecteur AI, Director Transformatie & Innovatie (Blauwtrust Groep, Quion, DMPM, Romeo). Benieuwd hoe Quion deze transformatie vormgeeft? Neem contact op.
