Agentisk AI

ai
ki
agents
data science
agentic ai
Author

André Waage Rivenæs

Published

September 21, 2025

Agentisk AI - hva er det egentlig?

Illustrasjonsbilde laget med Google Imagen 4.

Innen AI-landskapet er det liten tvil om at “agentisk AI” og “AI-agenter” er årets mest hypede begreper, men det hersker stor uenighet om hva disse begrepene faktisk innebærer. Markedet preges av at enkelte kommersielle aktører tilsynelatende ukritisk har omdøpt eksisterende AI-løsninger til “agenter”, mens andre bruker agent-begrepet mer restriktivt. Dette minner meg litt om tidsperioden rundt 2016 da “AI” ble et markedsføringsbegrep for alt fra enkle lineære regresjonsmodeller til dype nevrale nettverk - uten at det fantes en bred enighet om den faktiske definisjonen.

I dette blogginnlegget foreslår jeg en praktisk kategorisering av AI-systemer, definerer hva AI-agenter er - etter min oppfatning - og illustrerer med konkrete eksempler. Merk at fokuset er på generelle AI-systemer basert på språkmodeller.

Inndeling av AI-systemer

LLM-baserte AI-systemer i organisasjoner kan grovt deles inn i tre kategorier – basert på grad av tilpasning og autonomi:

  1. Generisk AI-assistent: Bruk av AI-modeller som f.eks. ChatGPT og Claude “ut av boksen”, med liten grad av tilpasning. Brukes til oppgaver som tekstgenerering, kodebistand og Q&A.

  2. Tilpasset AI-assistent: Man utvider anvendelsesområdet til AI-assistenten med å gi den tilgang til nye systemer, datakilder og/eller verktøy. Resultatet er en AI-assistent som kan gi mer relevante og kontekstuelle svar basert på organisasjonens spesifikke informasjon og behov.

  3. AI-agent: AI-agenter kjennetegnes ved deres evne til autonom planlegging og gjennomføring av handlinger. En slik agent kan motta en forespørsel fra en kunde og aktivt utføre nødvendige handlinger som å oppdatere abonnementsdetaljer, bestille produkter eller koordinere med andre systemer. Det som skiller agenten fra en tilpasset assistent er dens evne til selv å planlegge hvilke steg som må tas, velge riktige verktøy og utføre disse handlingene mer eller mindre autonomt.

Min opplevelse er at de fleste selskap har kommet et stykke med punkt 1 og delvis punkt 2, men veldig få har lykkes med punkt 3. Likevel er det nettopp her det største kommersielle potensialet ligger.

AI-systemer, illustrert av Claude Opus 4.1 med SVG-kode.

En lignende, alternativ inndeling av AI-systemer kan man finne i veilederen til bruk av KI-assistenter, publisert av Digitaliserings- og forvaltningsdepartementet1. Dette er en svært god oversikt med konkrete eksempler på bruk, men veilederen fokuserer i hovedsak på assistenter og ikke agenter.

Definisjon på AI-agent og eksempler

For å være presis kan vi definere AI-agenter som:

Definisjon

“AI-agenter er AI-baserte systemer som proaktivt forsøker å oppnå mål og fullføre oppgaver på vegne av brukeren. AI-agenter kan planlegge, resonnere, teste og utføre komplekse arbeidsflyter autonomt”

Inspirert av Google sin definisjon2, men tilpasset og oversatt

La oss se på noen konkrete eksempler for å skille mellom AI-assistenter og AI-agenter:

  • Du har laget en AI-chatbot hvor du har lastet opp noen dokumenter som den bruker som kunnskapsgrunnlag når den svarer på spørsmål. Er dette en agent? Jeg vil si nei - den planlegger ikke, kan ikke utføre handlinger eller tilpasse seg. Den handler åpenbart ikke autonomt på vegne av brukeren. Dette vil jeg kalle generisk bruk av språkmodeller.

  • Du har laget en AI-chatbot som er koblet opp mot datavarehuset ditt. Når du stiller spørsmål, utfører den SQL-spørringer og returnerer ønsket data. Er dette en AI-agent? Her befinner vi oss mer i grenseland, men jeg vil likevel kalle dette en tilpasset AI-assistent. Den har minimal autonomi, tilpasser seg ikke proaktivt, og har et svært begrenset handlingsrom. Den utfører handlinger, men kun på direkte forespørsel og innenfor strengt definerte rammer.

  • Du har laget et AI-system som sjekker og kontrollerer mottate fakturaer. AI-systemet kan bruke verktøy for å validere faktura opp mot prosjektdatabasen, gjøre vurderinger av beløpsstørrelser, kontrollere at alle felter er med, oppdatere regnskapssystemet og eskalere ved avvik. Dette er, etter min mening, et godt eksempel på en AI-agent. Systemet opererer autonomt, tar beslutninger basert på instrukser og egne vurderinger, og utfører handlinger på vegne av brukeren – uten at brukeren må initiere hver enkelt operasjon.

Her må det bemerkes at det finnes gråsoner, og mange systemer vil nok befinne seg i grenseland mellom en tilpasset assistent og en AI-agent.

Visualisering av arbeidsflyter

En ikke-agentisk arbeidsflyt vil typisk se noe slik ut:

graph LR
    Bruker(["Bruker"]) <-.->|Forespørsel/<br/>Respons| LLM
    LLM -.->|Kall | Tools[Tools]:::toolsNode
    Tools -.->|Resultat | LLM

Et sentralt kjennetegn med en agentisk AI-flyt er at den utfører et ikke-forhåndsbestemt antall oppgaver som påvirker miljøet, observerer utfall og selv avgjør når den er ferdig. 3 En agentisk arbeidsflyt kan se slik ut:

graph LR
    Bruker(["Bruker"]):::bruker
    LLM["LLM"]:::llm
    Miljø(["Miljø"]):::env
    Stopp["Stopp"]:::stopp
    
    Bruker <-.->|Forespørsel/<br/>Respons| LLM
    LLM -->|Handling| Miljø
    Miljø -->|Tilbakemelding| LLM
    LLM -.-> Stopp
    
    classDef stopp fill:#ffccbc,stroke:#ff5722,stroke-width:2px

Det er vanlig at AI-agenter deles opp i sub-agents, som har mindre og mer konkrete oppgaver. AI presterer generelt bedre med konkrete oppgaver og uten irrelevant kontekst, så en “orkestrator-agent” kan tildele oppgaver til mer spissede sub-agenter, som igjen har tilgang på egne verktøy. Et AI-system som benytter sub-agents kan se noe slik ut:

graph LR
    Bruker(["Bruker"]):::bruker
    LLM["Koordinator LLM"]:::llm
    Miljø(["Miljø"]):::env
    Stopp["Stopp"]:::stopp
    
    %% Sub-agents
    Agent1["Sub-Agent 1<br/>Analyse"]:::agent
    Agent2["Sub-Agent 2<br/>Planlegging"]:::agent
    Agent3["Sub-Agent 3<br/>Utførelse"]:::agent
    
    %% Tools/Actions for each agent
    Tool1["Verktøy/<br/>Databaser"]:::tool
    Tool2["Ressurs-<br/>allokering"]:::tool
    Tool3["API/<br/>Integrasjoner"]:::tool
    
    %% Main flow
    Bruker <-.->|Forespørsel/<br/>Respons| LLM
    LLM -.-> Stopp
    
    %% LLM to Sub-agents
    LLM -->|Delegerer| Agent1
    LLM -->|Delegerer| Agent2
    LLM -->|Delegerer| Agent3
    
    %% Sub-agents feedback to LLM
    Agent1 -->|Resultater| LLM
    Agent2 -->|Resultater| LLM
    Agent3 -->|Resultater| LLM
    
    %% Sub-agents to Tools
    Agent1 <-->|Spørring| Tool1
    Agent2 <-->|Koordinering| Tool2
    Agent3 <-->|Kommandoer| Tool3
    
    %% Actions to Environment
    Tool1 -->|Handling| Miljø
    Tool2 -->|Handling| Miljø
    Tool3 -->|Handling| Miljø
    
    %% Environment feedback
    Miljø -->|Tilbakemelding| LLM
    
    classDef stopp fill:#ffccbc,stroke:#ff5722,stroke-width:2px

Merk at “brukeren” i et slikt system ikke nødvendigvis er i form av en chat-forespørsel, agenten kan også trigges automatisk av f.eks. et saksbehandlingssystem eller en mottatt e-post.

Bruk av AI-agenter i praksis

Den klart vanligste og mest verdiskapende use-casen for AI-agenter per i dag er nok innen koding. Claude Code, OpenAI Codex og Gemini CLI er eksempler på AI-agenter som er spesielt utviklet for å bistå med koding og programmering. Disse agentene mottar generelle eller spesifikke instruksjoner og kan deretter autonomt opprette filer, skrive, teste og redigere kode. Disse agentene har allerede blitt enormt populære, og de har allerede endret måten mange team utvikler programvare på.

Utover koding finnes det en rekke ferdiglagde AI-agenter for ulike formål. ChatGPT Agent kan for eksempel kontrollere en nettleser og fullføre ulike typer oppgaver (med varierende grad av suksess). Manus er en annen generell AI-agent som kan utføre et bredt spekter av oppgaver. Her kommer det stadig flere aktører på markedet, enten med spisse løsninger for spesifikke områder eller mer generelle løsninger.

For mer spesifikke eller komplekse bruksområder kan det lønne seg å bygge egne AI-agenter. Dette gir full kontroll over funksjonalitet, integrasjoner og sikkerhet. Utviklingen av skreddersydde agenter gjøres ofte med open source-verktøy, f.eks. LangGraph i Python, kombinert med egne eller ferdiglagde MCP-servere. Alternativt kan man benytte kommersielle verktøy og plattformer. Azure AI Foundry Agent Service, Copilot Studio, Vertex AI Agent Builder og Amazon Bedrock Agents er bare noen eksempler på slike kommersielle løsninger som tilbyr slike plattformer for utvikling og produksjonssetting av AI-agenter, typisk med muligheter for grafiske brukergrensesnitt og forhåndsbygde integrasjoner.

Er teknologien klar?

Min mening er at teknologien per i dag bare delvis er klar for autonome AI-agenter. Det finnes isolerte bruksområder der agentene fungerer godt - forutsatt strenge kontrollmekanismer. Men for de fleste komplekse oppgaver vil det være behov for bedre og mer presise språkmodeller før AI-agentene kan slippes løs i produksjon.

Selv om svært mange snakker om AI-agenter og har bygget ulike Proof of Concepts, er det etter min erfaring få selskap i Norge som i dag bruker teknologien til å automatisere kritiske prosesser i stor skala.

Det store problemet er fortsatt hallusinering. AI-agenter feiler fortsatt for ofte på overraskende og uforutsigbare måter. Jeg har f.eks. opplevd at ChatGPT Agent brukte over 30 minutter på å forsøke å bestille en pizza for meg - før den svarte at det ikke var noen åpne pizza-restauranter i nærheten (i realiteten var nærmeste åpne pizza-restaurant under 100 meter unna). Det finnes også tallrike eksempler på kodeagenter som har handlet destruktivt, som når de har slettet databaser eller opplevd systemkollaps som kan ligne på mentale sammenbrudd.

OpenAI skrev nylig en forskningsartikkel på hvorfor språkmodeller hallusinerer. 4 En av årsakene de trekker frem er at AI-modellene blir evaluert på et sett med tester. Hvis man tar en eksamen, har man typisk høyere sannsynlighet for å få rett svar ved å tippe enn ved å svare blankt. Dette har AI-modellene også plukket opp, og har dermed lært seg at gjetting er gunstig. Å lære AI å innrømme når den er usikker, vil være sentralt i videre utvikling. GPT-5 (i “thinking”-modus) var for eksempel et steg i riktig retning, men det er fortsatt et godt stykke igjen. En nylig artikkel fra Nvidia konkluderte med at mindre og mer spissede språkmodeller kan være fremtiden for agentisk AI, istedenfor å bruke én enorm “generalist” modell som vi gjør i dag.5

Det finnes derimot mange gode bruksområder hvor AI-agenter kan være verdiskapende - så lenge man har en “human in the loop”. For eksempel kan en AI-agent autonomt hente inn beslutningsgrunnlag til en saksbehandler, men et menneske vurderer informasjonen og gjør den endelige beslutningen. Dette vil redusere risikoen betydelig, samtidig som effektivitetsgevinstene fortsatt er høy. Tilsvarende brukes de fleste kode-agenter på samme måte, hvor programmerere jobber tett sammen med AI-agenten, vurderer koden, tester og itererer.

Selv om teknologien fortsatt er noe umoden, vil jeg anbefale å begynne å eksperimentere med agentisk AI og kartlegge potensielle bruksområder på kort (typisk med “human-in-the-loop”) og lengre sikt (mer autonome). Dermed kan man begynne å få gevinst av de lavthengende fruktene, mens når dagen kommer hvor språkmodellene har blitt mer pålitelige og intelligente, vil man raskere være i stand til å hente ut vesentlige effektiviseringsgevinster.