In de afgelopen twee jaar hebben large language models (LLM’s) onze kijk op kunstmatige intelligentie drastisch veranderd. Deze modellen leren de structuur van menselijke taal door miljarden zinnen te analyseren. Daardoor kunnen ze niet alleen tekst genereren en vragen beantwoorden, maar ook geheel nieuwe vormen van digitale interactie mogelijk maken.
Maar taal is niet het enige domein waarin reeksen informatie betekenis onthullen. Menselijk gedrag – de manier waarop we typen, swipen, pauzeren, aarzelen en ons door digitale omgevingen bewegen – vormt óók een taal. Het begrijpen van die taal is cruciaal voor het voorkomen van fraude.
De volgende grens van AI in fraudedetectie ligt in het toepassen van de kracht van LLM-achtige modellen op gedragsdata. Bij BioCatch noemen we dit een gedragsmatig taalmodel, ofwel een Behavioral Language Model (BeLM).
Hoewel we ons nog in een vroeg stadium van onderzoek en ontwikkeling bevinden, vormt dit concept een logische volgende stap na tien jaar leiderschap van BioCatch op het gebied van gedragsintelligentie.
Deze blog introduceert het idee van een gedragsmatig LLM, legt uit waarom dit het juiste moment is en laat zien waarom BioCatch uniek gepositioneerd is om deze nieuwe golf van innovatie aan te voeren.
Gedrag als taal
Elke digitale interactie – het indrukken van een toets, het wisselen van focus tussen velden, het scrollen van een pagina of het enkele milliseconden wachten vóór een klik – vormt onderdeel van een gedragsmatige zin.
Net zoals gesproken taal grammatica en ritme kent, vertonen echte gebruikers gedragsmatige patronen die worden beïnvloed door gewoontes, motorische vaardigheden, cognitieve belasting en context.
Fraudeurs gedragen zich daarentegen anders. Ze haasten zich of aarzelen juist, plakken gestolen informatie, gebruiken automatisering, wisselen vaak tussen vensters of vullen formulieren in op een manier die niet past bij normaal gebruikersgedrag. Deze afwijkingen zijn vaak subtiel en verspreid over honderden microgebeurtenissen.
Traditionele machinelearningmodellen bekijken gedragsmatige signalen vooral in samenhang of aggregatie. Grote taalmodellen excelleren juist in iets waar machines tot nu toe moeite mee hadden: het leren van patronen over lange reeksen, waarbij betekenis niet in één gebeurtenis ligt, maar in de samenhang tussen gebeurtenissen.
Precies daarom vertegenwoordigen LLM’s een belangrijke doorbraak voor gedragsintelligentie.
De BeLM
Een gedragsmatig LLM is geen tekstmodel. Het wordt getraind op reeksen van interacties tussen mens en apparaat, die zo gecodeerd zijn dat het model de ‘grammatica’ van authentiek digitaal gedrag leert begrijpen. Het ontdekt hoe micro-interacties over langere tijd samenhangen, hoe normaal gedrag eruitziet bij miljoenen gebruikers en wanneer gedrag afwijkt van die aangeleerde norm.
In plaats van woorden verwerkt een gedragsmatig LLM gedragsgebeurtenissen zoals toetsaanslagen, muisbewegingen, scrollgedrag, aarzelingen, apparaatcontext en timingpatronen. Waar een traditioneel LLM het volgende woord in een zin voorspelt, leert een BeLM herkennen of een reeks acties past binnen de structuur van werkelijk gebruikersgedrag.
Het principe is eenvoudig: als taalmodellen kunnen leren hoe mensen communiceren, kunnen ze ook leren hoe mensen zich gedragen.
Waarom nu?
Het fraudelandschap verandert razendsnel. Social-engineeringaanvallen ontwikkelen zich voortdurend en verspreiden zich steeds verder. Klanten van BioCatch rapporteerden het afgelopen jaar een stijging van 65% in scam-pogingen.
Tegelijkertijd wordt automatisering steeds laagdrempeliger, waardoor fraudeurs vaker legitieme informatie kunnen nabootsen of hergebruiken. Wat kwaadwillenden echter nauwelijks kunnen imiteren, is echt menselijk gedrag.
Transformers – de modelarchitectuur die ten grondslag ligt aan moderne LLM’s – zijn juist in dit domein bijzonder krachtig. Ze kunnen lange reeksen van duizenden gebeurtenissen analyseren, verbanden leggen tussen acties die ver uit elkaar liggen in de tijd, subtiele temporele patronen herkennen en leren generaliseren over diverse populaties en scenario’s.
Voor fraudedetectie betekent dit: een dieper begrip van intentie, sterkere afwijkingsdetectie en een grotere kans om signalen op te vangen die traditionele modellen missen.
BeLM’s en BioCatch
Hoewel we ons nog in een vroeg stadium bevinden, richten onze R&D-activiteiten zich al op enkele fundamentele onderzoeksvragen. We onderzoeken hoe gedragsreeksen kunnen worden gecodeerd tot een gestructureerde gedragsmatige taal en welke tokenisatiebenaderingen de semantiek van gedrag het best behouden.
Ook kijken we hoe goed een transformer in staat is om consistente, authentieke patronen te leren; of afwijkingen in deze aangeleerde structuur fraude of risicovolle gebeurtenissen kunnen voorspellen; en hoe een gedragsmatig LLM zich verhoudt tot traditionele gedragsmodellen.
We investeren in experimenten, bouwen prototypes en toetsen de haalbaarheid van deze aanpak voordat we richting productontwikkeling gaan.
We zien een toekomst waarin BeLM’s afwijkingen in gebruikersgedrag detecteren, nieuwe gedragsinzichten mogelijk maken en gebruikersintenties in realtime herkennen. Daarmee versterken ze alle bestaande BioCatch-oplossingen.
Gedragsmatige LLM’s ontsluiten mogelijkheden ver voorbij onze huidige technologie-stack. Door rechtstreeks te leren van het ruwe ritme en de structuur van gebruikersacties kan een BeLM patronen ontdekken die wij niet expliciet aanleren en inzichten blootleggen die vandaag nog verborgen blijven voor feature-gebaseerde benaderingen.
In plaats van te vertrouwen op eerder waargenomen patronen, leert het model van de volledige stroom van digitaal gedrag. Daardoor kunnen we ons sneller aanpassen aan nieuwe fraudetactieken zodra die opduiken.
Zo bereiden we BioCatch voor op het leveren van baanbrekende bescherming die meebeweegt met de toekomst van digitale interacties – inclusief de opkomst van agentic browsers en door AI ondersteunde interfaces.
Voor nu ligt de focus op experimenteren, leren en verantwoorde innovatie. De taal van gedrag is rijk, complex en uniek menselijk.
En binnenkort leren machines die taal misschien ook te begrijpen.
Een artikel van Tomer Segall, Director of Data Science bij BioCatch.