København
Landemærket 10, 6. sal1119 København
Danmark+45 33 36 44 44hello@kruso.dk
The leap from LLMs to AI Agents
Forestil dig en ordbog så kraftfuld, at den ikke blot kan færdiggøre dine sætninger, men også forudsige de næste. Det er i bund og grund, hvad en Large Language Model (LLM) gør. Den genererer tekst, besvarer spørgsmål og hjælper dig med at skrive hurtigere.
Forestil dig nu noget endnu klogere. I stedet for blot at foreslå ord booker den din flyrejse, styrer din indbakke eller udfører et compliance-tjek. Det er en AI-agent. Ikke bare sprog, men handling. Og det er her, det for alvor bliver interessant i finansverdenen, for handlinger har konsekvenser.
Banker, forsikringsselskaber og betalingsudbydere kører alle på enorme digitale systemer. Med AI-agenter i spil er mulighederne enorme. Forestil dig kundeservice-bots, der løser problemer på få sekunder, assistenter der overvåger handler døgnet rundt, eller værktøjer der kan scanne tusindvis af kontrakter og næsten øjeblikkeligt fremhæve risici. Disse agenter kan revolutionere effektiviteten og skabe ny værdi.
Men den samme styrke åbner også for nye sårbarheder. Hvad sker der, hvis en AI-agent træffer den forkerte beslutning? Hvis den sender data de forkerte steder hen? Eller hvis den går offline midt i en kritisk proces? Det er ikke længere blot en lille IT-fejl, men en potentiel trussel mod den finansielle stabilitet. Netop den udfordring er kernen i Europas nye regulering, Digital Operational Resilience Act (DORA).
DORA er EU’s måde at sige: ”Innovation er velkommen, men robusthed er ikke til forhandling.” Siden januar 2025 er alle finansielle virksomheder i Europa forpligtet til at leve op til de samme standarder for digital robusthed.
I sin kerne handler DORA om forberedelse. Kan din virksomhed fortsætte driften, hvis de digitale systemer svigter? Har I evnen til hurtigt at opdage problemer, reagere effektivt og rapportere alvorlige hændelser til myndighederne? Og er de teknologipartnere, I er afhængige af, hvad enten det er cloud-platforme, dataleverandører eller AI-udbydere også i stand til at leve op til de samme standarder? Ved at indføre ét klart regelsæt på tværs af alle medlemslande sikrer DORA, at robusthed ikke længere er et kludetæppe af nationale regler, men et fælles fundament for Europas finansielle system.
AI-agenter er netop så kraftfulde, fordi de kan handle. Men det gør dem samtidig til en del af en virksomheds operationelle risiko. Under DORA skal de behandles på linje med alle andre kritiske ICT-systemer. Det betyder, at virksomheder skal opsætte klare grænser, så agenterne ikke kan handle uden for sikre eller compliant rammer. Det betyder også, at hvis en AI-drevet proces lækker følsomme data eller udløser en fejl, skal det logges og rapporteres som en digital hændelse. Og det betyder, at enhver ekstern AI-model eller API, virksomheden bruger, bliver en del af det tredjeparters-økosystem, der skal overvåges og testes nøje.
Med andre ord: AI-agenter ligger ikke uden for rammerne af robusthedsplanlægning, de står lige i centrum af den.
Der er dog også en anden side af historien. De samme agenter, der skaber nye risici, kan hjælpe finansielle virksomheder med at opfylde deres forpligtelser under DORA. Forestil dig en assistent, der aldrig sover, og som konstant overvåger systemer for svagheder og markerer problemer, før de vokser sig store. Eller en, der automatisk udarbejder rapporter til myndighederne under en krise og dermed sparer værdifuld tid. Eller endda en, der simulerer cyberangreb og tester jeres digitale forsvar. På den måde er AI-agenter ikke kun en udfordring under DORA, men også et af de stærkeste redskaber, virksomhederne får til at efterleve reglerne.
LLM’er forudsiger. AI-agenter handler. Og i finans har handlinger vægt. DORA sikrer, at når branchen tager AI til sig og omfavner nye former for digital automation, bliver robusthed og sikkerhed ikke efterladt på perronen. Fremtidens finansielle sektor bliver ikke kun digital, den bliver robust fra start.