Den 2 februari 2026 markerade en viktig milstolpe i implementeringen av EU:s AI-förordning, där EU-kommissionen skulle utfärda vägledning om hur man identifierar och följer upp högrisk AI i praktiken. Detta har dock inte hänt och bristen på vägledning har skapat osäkerhet kring tolkning och ansvar, särskilt för företag som redan använder AI i affärskritiska processer. Samtidigt närmar sig nästa stora dag. Den 2 augusti 2026 träder de mest omfattande kraven för högrisk AI i kraft, och företag måste kunna visa att styrning, tillsyn och ansvarsskyldighet fungerar i praktiken.
Företag som använder AI i affärskritiska eller personliga situationer har praktiskt taget ingen valfrihet. Att anpassa sig till regelverk är en nödvändighet, inte ett val. Organisationer kan inte välja bort ansvar för kunder, anställda eller AI-system som påverkar affärsbeslut lika mycket som de kan välja bort ansvar för andra delar av sin verksamhet. Det verkliga valet är hur man uppfyller kraven: om man ska uppfylla dem i efterhand eller strukturellt.
Idag distribueras AI ofta som en separat lösning, såsom ett pilotprojekt, upphandlat verktyg eller punktintervention, utan långsiktigt engagemang, uppföljning och kontroll inbyggd i affärsprocesser. I takt med att nya krav som kontinuerlig övervakning, dokumentation och avvikelseåtgärder blir verklighet finns det en risk att stora praktiska frågor uppstår. Styrningsansvar uppstår när ingen har en fullständig bild av vilka AI-system som kommer att användas, vem som kommer att äga dem när de väl har installerats och hur risker kommer att följas. Om detta händer blir det svårt att hantera varje gång en ny regel skapas och belastningen ökar för varje granskning.
Till skillnad från den offentliga sektorn har många företag inte etablerade strukturer för spårbarhet och övervakning i sina affärsprocesser. Samtidigt har företag andra fördelar. Det handlar om att snabbt standardisera, integrera och utöka ditt sätt att arbeta. Utmaningen ligger inte i att förstå bestämmelserna, utan i att implementera dem. Om styrning finns kvar i policydokument riskerar det att bli en stötesten. Det blir en möjliggörare när det ingår i arbetsflöden, systemhantering och beslutsprocesser.
Att ta ansvar efter att ha implementerat AI betyder inte att alltid göra manuella granskningar eller bromsa innovationen. Det innebär att veta vilka AI-system som finns, förstå hur risker förändras över tid och ha tydliga processer för uppföljning, incidenthantering och åtgärdande. Framför allt betyder det att ansvarsområden är identifierade och genomförbara, vilket innebär att det inte finns någon sammanblandning mellan IT, juridiska, riskavdelningar och verksamheter.
Därför ska EU:s AI-regelverk inte ses som ett hinder för innovation, utan som ett ramverk som kan stärka förtroendet för företagens användning av AI. God styrning gör att du kan distribuera AI snabbare, säkrare och med större förtroende från kunder, partners och tillsynsmyndigheter.
Anpassning är ett måste. Frågan är inte om företag ska anpassa sig, utan hur. Avgörande är om det är styckevis och defensivt, eller strukturerat, långsiktigt och affärsmässigt. EU:s AI-regler kräver liknande ambitioner i näringslivet. De vill att deras ambitioner ska backas upp av styrning som faktiskt fungerar. Specifikt innebär detta att företag behöver etablera ett tydligt ägande av AI-system, skapa en enhetlig översikt över deras användning och integrera uppföljning och riskhantering i affärs- och styrprocesser på ett sätt som är skalbart över tid.
Marielle Lindgren, chef för ServiceNow Northern Europe
