Intent engineering: det saknade lagret i din AI-strategi

Tre staplade lager som representerar Prompt Engineering, Context Engineering och Intent Engineering — med intent-lagret markerat som det kritiska saknade lagret i företags AI-strategi

Klarnas AI-agent hanterade 2,3 miljoner kundkonversationer under sin första månad. Handläggningstiderna föll från 11 minuter till två. VD:n prognostiserade 40 miljoner dollar i besparingar. Sedan började kunderna klaga. AI:n fungerade lysande. Det var precis problemet.

Historien alla läser fel

Den vanliga tolkningen av Klarnas AI-utrullning är att AI inte kan hantera nyanser. Det var en tröstande läsning i början av 2025. En mer korrekt tolkning, i efterhand, är att agenten var extraordinärt bra på att lösa ärenden snabbt — och det var fel mål att ge den.

Klarnas faktiska organisatoriska avsikt var inte "lös ärenden snabbt". Den var "bygg varaktiga kundrelationer på en starkt konkurrensutsatt fintech-marknad". Det är fundamentalt olika mål. En handläggare med fem år på bolaget vet skillnaden intuitivt: när man böjer en policy, när man lägger tre extra minuter för att kundens ton signalerar att de är på väg att lämna. AI-agenten hade inget av det. Den hade en prompt. Den hade kontext. Den hade inte avsikt.

I mitten av 2025 berättade VD Sebastian Siemiatkowski för Bloomberg att kostnad var den dominerande utvärderingsfaktorn men resultatet blev lägre kvalitet. Klarna började återanställa handläggarna man sagt upp. De 60 miljoner dollar i ackumulerade besparingar räckte inte för att täcka det ryktesskador som kom av att bli det offentliga exemplet på AI som optimerar för det mätbara på bekostnad av det meningsfulla.

Tre discipliner, en saknas

De senaste tre åren av AI i företag har producerat två meningsfulla discipliner. Prompt engineering kom först: individuell, synkron, sessionsbaserad. Du sitter framför ett chattfönster, formulerar en instruktion, itererar resultatet. Det är en personlig kompetens med personligt värde.

Context engineering följde. Anthropic definierade det i september 2025 som skiftet från att formulera isolerade instruktioner till att designa hela det informationstillstånd ett AI-system opererar inom. RAG-pipelines, MCP-servrar, strukturerade kunskapsbaser. Det är var branschen befinner sig nu, och det är genuint viktigt arbete.

Men ingen av dessa discipliner löser det Klarna stötte på. Context engineering berättar för agenter vad de ska veta. Intent engineering berättar för agenter vad de ska vilja. Det är disciplinen att göra organisationens syfte maskinläsbart och maskinhandlingsbart: inte som prosa i en systemprompt, utan som strukturerade parametrar som styr hur agenter fattar beslut när de kör autonomt under dagar, veckor eller månader.

Vad intent engineering faktiskt innebär

OKR:er skapades för människor. De kodar mänskligt läsbara mål och förutsätter mänskligt omdöme om avvägningar, prioriteringar och undantag. En chef kan berätta för en medarbetare vad som spelar roll det här kvartalet och lita på att medarbetaren tolkar det genom månader av institutionell kontext, yrkesnormer och tyst kunskap uppbyggd över tid.

Agenter har inget av det. En agent vet inte vad ditt bolags OKR:er är om du inte lägger dem i kontextfönstret. Den vet inte vilka avvägningar din ledning föredrar om du inte kodar in de preferenserna på ett sätt den kan agera på. Den vet inte när den ska eskalera kontra när den ska besluta autonomt om du inte definierar den gränsen explicit.

När en människa börjar på ett bolag sker alignmentet genom hundra informella mekanismer: wikin, onboardingen, Slack-konversationer, att se seniora kollegor hantera tvetydiga situationer. Inget av det fungerar för agenter. Agenter behöver explicit alignment, och de behöver det innan de börjar arbeta — inte sex månader senare.

Det betyder att organisationer behöver producera något de flesta aldrig behövt skapa: maskinläsbara uttryck för organisatorisk avsikt. Inte "öka kundnöjdheten" — det är ett mänskligt läsbart mål. En agent behöver en strukturerad definition: vilka signaler indikerar kundnöjdhet i just det här sammanhanget, vilka datakällor innehåller de signalerna, vilka åtgärder är agenten bemyndigad att vidta, vilka avvägningar kan den göra och var är de hårda gränserna.

De tre lagren ingen har byggt

Intent engineering opererar i tre infrastrukturlager, vart och ett på en annan höjd.

Det första är enhetlig kontextinfrastruktur — systemen som gör organisationens kunskap agentåtkomlig. De flesta team bygger detta ad hoc: ett team kopplar Slack till en RAG-pipeline, ett annat exporterar Google Docs till ett vektorlager, ett tredje byggde en MCP-server som kopplar till Salesforce men inte Jira, och ett fjärde vet inte att de tre andra finns. Model Context Protocol, som Anthropic introducerade i slutet av 2024 och donerade till Linux Foundation 2025, är det mest lovande standardiseringsförsöket — men protokolladoption är inte organisatorisk implementation. Vilka system blir agentåtkomliga? Vem bestämmer vilken kontext en agent kan se över avdelningsgränser? Hur versionshanterar man kunskap så att agenter inte opererar på inaktuell information? En standard svarar inte på de frågorna.

Det andra lagret är arbetsflödesalignment — en gemensam förståelse av vilka processer som är agentklara, vilka som kräver en människa i loopen och vilka som förblir helt mänskliga. Just nu bygger varje medarbetare sina egna AI-flöden. Skillnaden mellan individuell AI-användning och organisatorisk AI-hävstång är skillnaden mellan att ha en bra nyanställd och att ha ett system som gör alla bättre.

Det tredje lagret är intent-kodning: att översätta mänskligt läsbara organisatoriska mål till agenthandlingsbara parametrar. Beslutsgränser. Eskaleringströskar. Värdehierarkier för att lösa avvägningar. Feedbackloopar som mäter alignment-drift över tid. Det är vad nästan inga bolag har byggt. Det är också vad som avgör om en långkörande agent opererar i linje med vad organisationen faktiskt behöver — eller optimerar sig in i ett kommunikationsproblem.

Loppet handlar inte längre om modellen

Deloittes 2026-undersökning av AI i företag visade att 84% av bolagen inte har omdesignat arbeten kring AI-kapaciteter och bara 21% har en mogen modell för agent-governance. Det är inte teknikgap. Det är intent-gap.

Samtidigt rapporterar 74% av bolagen globalt att de ännu inte sett påtagligt värde från AI. McKinsey fann att 30% av AI-piloter misslyckades med att nå skalad effekt. Investeringssiffrorna säger något annat: 57% av digitaliseringsbudgetar som flödar till AI-automation, 700 miljoner dollar i genomsnitt för bolag med 13 miljarder dollar i omsättning. Stora siffror, blandade resultat. Mönstret är inte att modellerna är svaga. Modellerna är inte flaskhalsen. En medioker modell med tydlig, strukturerad, målinriktad intent-infrastruktur slår en frontier-modell i en organisation med fragmenterad, otillgänglig, omissad organisatorisk kunskap varje gång.

AI-loppet har i tre år framställts som ett intelligenslopp: vem har den bästa modellen, det största kontextfönstret, de högsta benchmark-poängen. Det ramverket var relevant när modellerna var flaskhalsen. Det är de inte längre. Loppet är nu ett intentionslopp.

Vad det innebär i praktiken

Bolagen som lyckas med det här kommer att behandla kontextinfrastruktur som de behandlade data warehouse-strategin: som en strategisk kärninvestering, inte ett IT-projekt. De kommer att bygga en levande organisatorisk AI-kapabilitetskarta — en gemensam förståelse av vilka flöden som är agentklara, vilka som är agent-augmenterade med mänsklig tillsyn och vilka som är helt mänskliga. Och de kommer att skapa målöversättningsinfrastruktur som konverterar mänskligt läsbara organisatoriska mål till agenthandlingsbara parametrar.

För back office-operationer är implikationen direkt. En AI-agent som kör inköp, orderhantering eller kundtjänst utan intent-infrastruktur gör exakt det Klarnas agent gjorde: optimerar för det mätbara på bekostnad av det meningsfulla. Lösningstiden sjunker. Relationskostnaden ökar.

Att bygga det intentionslagret är det arbete som avgör om AI-automation levererar på sina löften om kostnadsminskning och skala — eller bara flyttar kostnad från en kolumn till en annan. Modellerna fungerar. Kontextpipelines blir bättre. Det som återstår är den organisatoriska infrastruktur som kopplar AI-kapacitet till organisatoriskt syfte.

Det är inte ett ingenjörsproblem. Det är ett strategiproblem som kräver ingenjörskonst för att implementera. Och det är gapet som skiljer organisationer som har AI-verktyg från organisationer där AI fungerar som genuin infrastruktur.