Till innehåll på sidan

Möjligheter och risker med AI diskuterades på årets förvaltningspolitiska dag

2026-04-23 | Nyhet

På årets upplaga av Förvaltningspolitisk dag diskuterades regeringens AI-politik, AI och rättssäkerhet samt hur statsförvaltningens AI-användning kan ta ett större kliv framåt. Erfarenheterna från myndigheterna som deltog i programmet visar att det finns möjligheter att utveckla verksamheten med hjälp av AI, men att riskerna ställer krav på tydlig styrning och kontroll.

Bild på scenen och publiken från Förvaltningspolitisk dag.

Den 21 april 2026 anordnade Statskontoret den årliga konferensen Förvaltningspolitisk dag för femtonde gången i ordningen. Drygt 160 personer, framför allt myndighetschefer och andra ledare i staten, deltog under dagen på temat möjligheter och risker med AI i statsförvaltningen.

Regeringens AI-politik och förvaltningspolitik

Civilminister Erik Slottner inledde med att presentera delar av regeringens AI-strategi och regeringens effektivisering och omprövning av statsförvaltningen. Regeringen ser stor potential att effektivisera processer, spara resurser och öka service med hjälp av AI. Regeringen har därför fattat beslut om en AI-strategi och en digitaliseringsstrategi, som utgör en långsiktig inriktning för att Sverige ska bli bäst i världen på att använda AI i offentlig sektor.

Slottner underströk också att det i arbetet med AI i staten är viktigt att vi hanterar data på ett säkert och korrekt sätt, samt värnar demokratiska värden och rättssäkerheten. Men vi behöver samtidigt vara modiga i arbetet.

För att driva på och underlätta arbetet har regeringen vidtagit en rad åtgärder:

  • Tagit initiativ till att införa sekretessbrytande bestämmelser för att möjliggöra delning av data mellan vissa myndigheter.
  • Tagit initiativ till en översyn av de 400 registerlagar som finns som är hinder för att få tillgång till data.
  • Gett Integritetsmyndigheten i uppdrag att tillsammans med Post- och telestyrelsen ta fram riktlinjer för användning av AI.
  • Gett Skatteverket och Försäkringskassan i uppdrag att utveckla en miljö för AI-innovation.

AI i beslutsprocessen – hur påverkar det rättssäkerheten?

På temat rättssäkerhet med AI i beslutsprocessen lyfte Vanja Carlsson, universitetslektor vid Göteborgs universitet, insikter från sin forskning om beslutsfattande i offentlig förvaltning. Hon berättade bland annat om hur arbetsförmedlare uppfattar att handläggningen påverkades när man använde sig av AI för att göra bedömningar. Handläggarna upplevde ofta att besluten blev mer rättssäkra, men att de samtidigt oftare blev felaktiga. Förklaringen är att AI uppfattas stärka likabehandlingen, men har svårare att ta hänsyn till individers förutsättningar och rättigheter. Individuellt inflytande, att ta tillvara på handläggares professionella kunskap och att organisationer har kontroll över sina system är viktiga nycklar för detta område framöver.

Rebecka Lönnroth, Head of AI Adoption Public Sector på AI Sweden, efterlyste i samma anda verksamhetsnära AI utveckling där myndigheter själva kan utveckla och styra sina system, med tydlig förståelse för både modellerna och de konkreta verksamhetsbehoven.

Hur ser vi till att AI förstärker snarare än utmanar rättssäkerheten och transparensen?

Tre myndigheter delade med sig av sina praktiska erfarenheter av att använda AI. Klara Lutti, utvecklingsdirektör på Domstolsverket, beskrev hur myndigheten använder AI för att ge stöd till domstolarna, genom bland annat VR-stöd i notariernas utbildning och AI-stöd för att maska sekretessbelagda uppgifter i handlingar (där domare kontrollerar resultatet).

Johan Gabrielsson, verksamhetsområdeschef för information, data och AI på Försäkringskassan, berättade om att myndigheten har utvecklat AI-lösningar som kan bidra till kvalitet och likabehandling med hjälp av bland annat textanalys och som beslutsstöd till handläggare. Christina Henryson, generaldirektör på CSN, lyfte att myndigheten har rullat ut en intern AI-assistent som ska stödja bland annat utvecklare och HR.

Erfarenheterna från dessa exempel visar att AI kan öka kvaliteten och effektiviteten i verksamheten. Men för att stärka rättssäkerheten krävs tydlig styrning så det framgår vad medarbetare får och inte får göra med hjälp av AI. Spårbarheten är också viktig när man använder AI. Särskilt för generativ AI krävs tydliga krav på dokumentation och kontroll. Rätt kompetens och löpande förvaltning är också nödvändigt, eftersom AI i produktion kräver kontinuerlig utveckling och tydligt it-ansvar.

Vad krävs för att staten ska ta större kliv i sin AI-användning?

Dagen avslutades med en paneldiskussion om vad som krävs för att staten ska ta ett större kliv i sin AI-användning. Panelen var enig om att myndighetsledningarna behöver ta ett större ansvar. Men det förutsätter att ledningen ser till att få den kompetens som krävs. AI är inte längre bara ett verktyg för att effektivisera utan förändrar verksamheter i grunden. Utvecklingen går från AI-assistenter till självständigt arbetande AI-agenter, vilket ställer andra krav på riktlinjer och kontroll.

Några medskick från panelen för att staten ska öka sin AI-användning var att ledningen behöver förstå tekniken. Myndigheterna bör också lära av varandra och se staten som en koncern. Samverkan mellan myndigheterna behöver styras tydligare med gemensamma standarder.

Panelen bestod av Rikard Jermsten, generaldirektör Ekobrottsmyndigheten, Anna Eriksson, generaldirektör Digg, Christina Gellerbrant Hagberg, riksrevisor Riksrevisionen, Johan Magnusson, professor Göteborgs universitet och Sara Öhrvall, senior advisor i AI-relaterade frågor samt styrelseledamot i bland annat Axfood, Verisure och Investor.

Dela