AI-agenter: Fra løfter til virkelighed
16. jan. 2026
Et år med AI-agenter: Fra løfter til virkelighed
For et år siden skrev vi om AI-agenter som et af de mest lovende koncepter i den seneste AI-bølge. Siden da har vi bygget dem. Sat dem i drift. Set dem fejle. Og set dem skabe reel værdi. I mellemtiden er interessen kun vokset: AI-agenter bliver i dag præsenteret som løsningen på alt fra ineffektivitet og flaskehalse til mangel på arbejdskraft og stigende kompleksitet.
Men virkeligheden er mere jordnær. På tværs af organisationer er AI-agenter begyndt at vise, at de kan skabe værdi. Men endnu langt fra i det omfang, som mange havde håbet, og forventningerne er fortsat højere end de resultater, der kan dokumenteres i drift. Man oplever, at agenter går i stå, tager forkerte beslutninger eller er svære at vedligeholde, når datagrundlaget er rodet, processerne er uklare, eller en ny version af en sprogmodel ændrer adfærd fra den ene dag til den anden.
Motiveret af disse erfaringer er denne artikel ikke endnu et indlæg om, hvad AI-agenter kunne blive, men et ærligt blik på, hvad de er i praksis. Vi ser på, hvor de rent faktisk skaber værdi, hvor de bryder sammen, og hvad det kræver at få dem til at fungere stabilt i en virkelig organisation, langt væk fra AI James Bond-fantasier, men tæt på den daglige drift.
En AI-agent er et digitalt menneske – ikke en magisk motor
I praksis har vi lært, at den måde, det oftest giver bedst mening at forstå en AI-agent på, ikke er som et stykke software, men som en ny slags digital medarbejder. Det lyder måske kontraintuitivt, når man er vant til at tænke IT som noget deterministisk og forudsigeligt - men AI-agenter opfører sig ikke som klassisk software. De ræsonnerer, fortolker, prioriterer og vælger handlinger på en måde, der minder langt mere om et menneske end om en regelmotor.
Det betyder også, at de deler mange af de samme begrænsninger. En AI-agent kan læse, forstå og handle, men kun inden for den kontekst, den har adgang til. Den kan ikke “se” hele organisationen, ligesom et menneske heller ikke kan. Den arbejder ud fra de data, dokumenter og systemer, den er koblet på, og alt udenfor eksisterer reelt ikke for den.
Og præcis som med mennesker bliver kvaliteten af det arbejde, en agent leverer, fuldstændig bestemt af kvaliteten af det miljø, den arbejder i. Giv en agent rodede data, uklare begreber og inkonsistent navngivning, og den vil producere rodede beslutninger – bare hurtigere. Hvor et menneske ofte stopper op og siger “det her giver ikke mening”, vil en AI-agent typisk forsøge at finde en forklaring og handle ud fra den, selv når grundlaget er forkert. Det er præcis dét, den er trænet til. Det gør dårlige data langt farligere i en agent-drevet verden, end de var før.
Det samme gælder rammer og ansvar. En menneskelig medarbejder kan ofte navigere i uklare regler, bruge sund fornuft og spørge, når noget er tvetydigt. Det kan AI-agent ikke, hvorfor den har brug for ekstremt klare rammer for, hvad den må gøre, hvad den ikke må gøre og især hvordan den skal reagere, når den er i tvivl.
Set på den måde er en AI-agent hverken et mirakelværktøj eller en autonom superintelligens. Den er noget langt mere jordnær og langt mere krævende: en digital medarbejder, der kan arbejde hurtigt og billigt, men som kræver rammer, struktur og vejledning for at skabe værdi.
Data-illusionen: AI gør ikke rodede organisationer rene
En af myterne i AI-bølgen er forestillingen om, at “AI bare kan læse alt og forstå det”. I præsentationer og demos ser det ofte sådan ud: modellen kan svare på spørgsmål på tværs af dokumenter, mails, databaser og systemer. Så hvorfor skulle datakvalitet stadig være et problem?
I praksis er det næsten altid det stik modsatte. Hvis dine data er rodet, modstridende eller ufuldstændige, kan en AI-agent ikke navigere i dem. Den kan ikke skelne mellem sandhed og støj. Den kan kun skelne mellem mønstre. Og når mønstrene i dine data afspejler organisatorisk rod, historiske kompromiser og uformelle sandheder, vil agenten lære præcis det samme.
Store sprogmodeller er ekstremt dygtige til at fortolke det, de ser. De er gode til at udfylde huller, skabe sammenhæng og formulere plausible forklaringer. Men de er ikke gode til at opdage, når grundlaget i sig selv er forkert. Det betyder, at de ikke bare bruger dine data, men at de forstærker dem. En organisation med høj datamodenhed får en kraftig multiplikator. En organisation med lav datamodenhed får sine problemer skaleret.
Det bliver hurtigt tydeligt i praksis:
Hvis dine kunder findes tre steder, vil agenten vælge én; den mest sandsynlige, men ikke nødvendigvis den rigtige.
Hvis navngivningen ikke er entydig, vil agenten opfinde en fortolkning, der lyder overbevisende.
Hvis dit CRM er politisk i stedet for sandt, vil agenten tage udgangspunkt i politikken, som om det var virkelighed.
Den brutale sandhed er derfor, at AI-agenter ikke rydder op i din organisation. De tænder lyset. De gør dårlige data mere synlige, processer mere gennemskuelige og uenigheder mere åbenlyse. Og for mange organisationer er det langt mere konfronterende end forventet.
Den del ingen taler om: LLM-leverandørrisiko
Leverandørrisikoen er en af de erkendelser, man først får, når man har haft AI-agenter i produktion. I modsætning til det meste anden software bygger AI-agenter på en komponent, man ikke selv kontrollerer: en stor sprogmodel. Medmindre den store sprogmodel er Open Source i virksomhedens eget IT-miljø, vil modellens livscyklus opdateres og ændres løbende. Også uden at det er kommunikeret forud.
Det betyder at AI-agenters livscyklus har en variabel side, der ikke kan kontrolleres. Modellen kan få nye evner, nye begrænsninger, ny tone eller nye fejl, uden at du har bedt om det. Og fordi agentens ræsonnering og beslutninger er direkte afhængige af modellens adfærd, kan selv små ændringer få store konsekvenser i drift. Det er selvsagt et kæmpe udfordring, når systemet er forretningskritisk.
I klassisk software vælger man selv, hvornår man opgraderer. Ændringerne testes og først derefter udrulles de. I agent-verdenen er det ofte omvendt. En leverandør som OpenAI opgraderer modellen i takt med deres eget ukendte roadmap. Det betyder at modellerens adfærd ændrer sig over tid.
Ofte er ændringerne subtile. En model kan blive lidt mere “kreativ”, lidt mindre tilbøjelig til at følge instruktioner slavisk eller lidt mere villig til at udfylde manglende information. Men for en agent, der handler på vegne af en virksomhed, kan den slags forskydninger være forskellen på korrekt udførelse og systematiske fejl.
Det betyder, at det at bygge AI-agenter i praksis ikke kun er et spørgsmål om AI-engineering. Det er i lige så høj grad et spørgsmål om leverandør strategi, arkitektur og processer. AI-agenter der er baseret på ”kommercielle sprogmodeller” vil have en afhængighed til en aktør, der optimerer efter sine egne mål - ikke efter stabiliteten i netop ens specifikke agent.
Derfor bliver klassiske softwarediscipliner pludselig afgørende: at kunne fastholde bestemte modelversioner, løbende teste agentens adfærd og have klare rollback-strategier, når noget ændrer sig uventet. Uden det risikerer man at bygge systemer, der fungerer fremragende i dag og uforudsigeligt i morgen.
Opsummerende tanker: Agenter er ikke hype – men de er heller ikke plug-and-play
AI-agenter er ikke AI James Bond-fantasier. Men de er heller ikke bare chatbots. De er noget langt mere interessant og langt mere krævende: autonome digitale medarbejdere, der kan læse, forstå, ræsonnere og handle på vegne af en organisation. Når de virker, kan de overtage opgaver, der før krævede mennesker, og gøre dem hurtigere, billigere og mere konsistente.
Et år med virkelige projekter har dog gjort én ting tydelig: AI-agenter skaber ikke værdi i kraft af deres teknologi alene. De skaber værdi, når de sættes ind i de rigtige opgaver, med det rigtige datagrundlag og de rigtige rammer. Nogle opgaver egner sig naturligt til autonomi, og andre gør ikke. Nogle processer er klar til at blive automatiseret, mens andre er stadig for uklare, for politiske eller for rodede.
Derfor bliver vindere ikke dem, der blot ruller flest agenter ud, men dem der forstår, hvor agenter faktisk kan gøre en forskel. Det handler om at vælge de opgaver, hvor en digital medarbejder giver mening, sikre at de data, agenten ser, er retvisende, og tage højde for de teknologiske risici, der følger med at lade eksterne modeller træffe beslutninger.
AI-agenter er dermed hverken en mirakelkur eller en midlertidig trend. De er en ny grad af digitalisering. Et værktøj til at øge produktiviteten i organisationer. En mulighed med enormt potentiale, men også med klare begrænsninger.
