Till huvudinnehåll

Myndigheterna och AI - En studie om möjligheter och risker med att använda AI i statsförvaltningen

Sammanfattning

Teknikutvecklingen inom artificiell intelligens (AI) har accelererat de senaste åren. Tekniken väcker många frågor, förhoppningar och farhågor. Statskontoret har genomfört en studie om hur AI används i statsförvaltningen.

Studien är egeninitierad av Statskontoret och ingår i skriftserien Om offentlig sektor. Statskontoret ska enligt sin instruktion leverera underlag för regeringens arbete med att utveckla förvaltningspolitiken samt främja en god förvaltningskultur i staten. Syftet med studien är därför att bidra till diskussionen om möjligheter och risker med att använda AI inom offentlig förvaltning. Vi har analyserat hur statliga myndigheter använder AI som ett verktyg för att genomföra sitt uppdrag, i relation till den statliga värdegrunden.

Myndigheterna har kommit olika långt

Vår studie visar att det finns en stor variation i hur långt de statliga myndigheterna har kommit när det gäller användningen av AI. Statsförvaltningen är heterogen och alla myndigheter har olika behov av tekniska lösningar. Vissa myndigheter har valt att gå snabbare fram, medan andra är medvetet försiktiga och befinner sig i ett utforskande läge. Bland de största myndigheterna använder sig de flesta av AI på något sätt, eller har planer på att börja använda tekniken.

Det varierar också på vilket sätt som myndigheterna använder sig av AI. Det vanligaste användningsområdet handlar om att spara resurser i verksamhet av mer administrativ karaktär. Det kan exempelvis handla om en funktion för att sortera och kategorisera ärenden. Ett annat användningsområde handlar om att effektivisera kommunikationen med allmänheten, exempelvis genom så kallade chattbotar. Några myndigheter använder AI för att göra riskbedömningar av ärenden för att upptäcka fel eller brottslig verksamhet. Det finns ett fåtal exempel på att myndigheter använder AI som ett beslutsstöd vid myndighetsutövning. AI kan också användas på andra sätt inom myndigheters kärnverksamheter, men som inte handlar om just myndighetsutövning. Det kan handla om alltifrån SMHI:s väderprognoser till analys av bildmaterial i Polisens utredningar.

Myndigheterna ser stor potential med AI men det finns risker

Myndigheterna som vi har varit i kontakt med anser att AI har stora möjligheter att bidra till att öka effektiviteten och rättssäkerheten i deras verksamheter. De ser också möjligheter till att förbättra både service och tillgänglighet.

Samtidigt finns det flera risker med att använda AI som rör myndigheternas möjligheter att leva upp till den statliga värdegrunden. Det handlar bland annat om risken för att myndigheterna agerar rättsosäkert om den data som AI-lösningarna tränas på är snedvriden eller otillräcklig. Ett annat problem är att det är svårt för allmänheten att ha insyn i beslut där AI används som stöd. Det finns också risker kopplade till den personliga integriteten.

Vår studie visar att risken med att använda AI kan vara olika stor för myndigheterna beroende på hur de använder tekniken. Myndigheterna verkar generellt sett vara försiktiga med att använda AI inom riskfyllda områden. De flesta AI-satsningar sker inom den interna administrationen och då är riskerna förhållandevis små. Men det finns exempel på mer riskfyllda satsningar, framför allt i de fall då myndigheterna använder AI inom verksamheter som påverkar enskilda.

Myndigheterna behöver hantera riskerna och tänka strategiskt

Vår studie visar att myndigheterna är medvetna om riskerna men att det är en utmaning för myndigheterna att hantera dem och tänka strategiskt kring AI. Alla myndigheter behöver sträva efter att uppnå en effektiv verksamhet och att hushålla väl med statens resurser. Det kräver kontinuerlig utveckling av arbetssätt och en ständig öppenhet för att dra nytta av de möjligheter till effektivisering som finns.

Därför behöver alla myndigheter tänka strategiskt kring användningen av AI, oavsett om de använder tekniken eller inte. Med detta menar vi att myndigheterna behöver förstå och förhålla sig till teknikutvecklingen och analysera om och på vilket sätt AI kan vara – eller inte vara – ett verktyg för att på ett bättre sätt genomföra sitt uppdrag. Det handlar också om att identifiera de risker som användningen av AI i den egna verksamheten kan innebära.

För de myndigheter som redan använder AI är det viktigt att dessa arbetar aktivt med att säkerställa att de lever upp till principerna i den statliga värdegrunden när de använder AI. De behöver till exempel arbeta med att öka transparensen och insynen i hur de använder AI. Myndigheterna behöver också dokumentera, följa upp och utvärdera AI-satsningarna i större utsträckning än vad de gör i dag. Det är viktigt för att säkerställa att det inte uppstått några fel, men även för att bedöma om satsningarna har lett till förväntade effektiviseringar och ökad rättssäkerhet.

Regeringen har en viktig roll att driva utvecklingen

Vår bild är att statsförvaltningen som helhet befinner sig i ett slags vänteläge i förhållande till den tekniska utvecklingen inom AI. Myndigheterna skyndar över lag långsamt. Det kan vara ett uttryck för att myndigheterna är medvetna om de risker som finns med AI. Men det kan också bero på att myndigheterna är osäkra på vilka förutsättningar som kommer att finnas för att använda AI i framtiden. Det handlar bland annat om osäkerhet kring rättsläget, tillgång till rätt kompetens och behov av samordning i AI-frågor.

Samtidigt får myndigheternas vägval konsekvenser både för dem och för statsförvaltningen som helhet, oavsett om det handlar om att avvakta eller om att ta sig an utvecklingen fullt ut. Myndigheterna riskerar att missa potentialen med AI om de avvaktar, men även möjligheten att skaffa sig viktig kunskap och erfarenhet inför framtiden.

Statskontoret bedömer därför att regeringen kan underlätta för myndigheterna genom att fortsätta att fånga in signaler från myndigheterna om regelverk som behöver ses över och anpassas så att dessa inte står i vägen för att de ska kunna använda AI på ett ändamålsenligt sätt. Vi bedömer också att det finns skäl för regeringen att förtydliga styrningen av myndigheternas roll inom området. Hit hör exempelvis att tydliggöra vilken eller vilka myndigheter som bör ansvara för att samordna eventuella gemensamma AI-satsningar i statsförvaltningen.

Inledning

Teknikutvecklingen inom artificiell intelligens (AI) har accelererat de senaste åren. Ännu kan vi inte överblicka konsekvenserna av utvecklingen, men det har sedan länge stått klart att AI kommer att bli alltmer centralt i samhällets digitalisering. Därmed kommer det också att bli centralt i statsförvaltningens förändringsarbete.[1]

Regeringens ambition är att Sverige ska vara ledande i att ta till vara möjligheterna som användning av AI kan ge, med syftet att stärka både den svenska välfärden och den svenska konkurrenskraften.[2] Ambitionen är att svenska statliga myndigheter ska vara bäst i världen på att använda digitaliseringens möjligheter. Regeringen har tidigare framhållit att offentlig sektor ska öka sin effektivitet genom gemensamma digitala lösningar, som också ska kunna skapa en enklare vardag för privatpersoner och företag.[3] I budgetpropositionen för 2024 aviserade regeringen att den planerar att stärka arbetet med AI och i december 2023 tillsatte regeringen en AI-kommission för att stärka svensk konkurrenskraft.[4]

Syfte och frågeställningar

Syftet med denna studie är att bidra till diskussionen om möjligheter och risker med AI-användning inom offentlig förvaltning. Den övergripande frågan handlar om att analysera hur myndigheterna använder AI som ett verktyg för att genomföra sitt uppdrag, i relation till den statliga värdegrunden. Statskontoret ska enligt sin instruktion leverera underlag till regeringen för omprövning och effektivisering, utreda övergripande frågor om den offentliga förvaltningens funktionssätt och främja och samordna arbetet för en god förvaltningskultur i staten.

Flera utredningar har också pekat på behovet av och efterfrågan på förvaltningsgemensamt stöd och vägledning kring AI och automatisering.[5] Vi hoppas därför att studien ska fungera som ett underlag för att ge myndigheterna bättre förutsättningar att använda AI effektivt och rättssäkert. Studien syftar även till att bidra till regeringens förståelse för hur AI kan användas i statsförvaltningen. Den kan därmed vara ett kunskapsunderlag för regeringen i styrningen av myndigheterna i dessa frågor.

Denna studie svarar på följande frågor:

  • Hur använder sig statliga myndigheter av AI?
  • Vilken potential finns det när det gäller myndigheternas användning av AI?
  • Vilka risker och utmaningar medför användningen av AI?
  • Hur hanterar myndigheterna de risker och strategiska utmaningar som finns?

Vi fokuserar på den statliga värdegrunden

Vi fokuserar främst på hur användningen av AI påverkar möjligheterna för myndigheterna att leva upp till den statliga värdegrunden. Den statliga värdegrunden består av ett antal principer som syftar till att säkerställa en god förvaltningskultur. Dessa principer utgår från grundlagen och andra lagar och föreskrifter. De beskriver hur de anställda i staten ska agera för att säkerställa en förvaltning som är effektiv, rättssäker och fri från korruption och maktmissbruk.[6]

Den statliga värdegrunden inkluderar följande principer. Samtliga har bäring på vår studie, om än i varierande grad.

  • Demokratiprincipen innebär att alla statsanställa är en del i den demokratiska styrkedjan och därmed arbetar på medborgarnas uppdrag. Alla statsanställda ska i sina uppdrag främja demokratiska värderingar.
  • Legalitetsprincipen innebär att myndigheternas verksamhet måste ha stöd i rättsordningen. Statsanställda ska känna till och följa de regler som gäller myndighetens verksamhet och allmänheten ska vara säker på att myndigheterna följer reglerna.
  • Objektivitetsprincipen innebär att alla statsanställda i alla lägen ska agera sakligt och opartiskt. Det bidrar till att upprätthålla förtroendet för myndigheterna och staten.
  • Anställda i staten ska sträva efter att utöva sin tjänst med respekt för den enskilda människan och uppfylla kraven på icke-diskriminering och hänsyn till den personliga integriteten.
  • Myndigheterna ska sträva efter att ge ett gott bemötande, vara tillgängliga och på ett effektivt sätt ge allmänheten service. Effektivitet handlar om att hushålla med statens resurser och om att handlägga ärenden snabbt, enkelt och med tillräcklig kvalitet.
  • I principen om fri åsiktsbildning ingår förutom våra fri- och rättigheter även offentlighetsprincipen som innebär att alla har rätt till insyn för att granska myndigheterna.

Anledningen till att vi fokuserar på dessa principer är att användningen av AI i statsförvaltningen för med sig både utmaningar och möjligheter när det handlar om att nå verksamheternas mål. AI kan till exempel både hjälpa och utmana myndigheternas möjligheter att nå de olika värdena i det förvaltningspolitiska målet. Efterlevnaden av principerna har i sin tur stor betydelse för hur myndigheternas verksamhet påverkar medborgarna. Att principerna efterlevs kan också påverka statsförvaltningens kostnader och förtroendet för statsförvaltningen.

Värt att notera är att ”etisk AI” är ett begrepp som också används i olika sammanhang. Det är ett begrepp som används i EU:s riktlinjer kring AI och som även vissa svenska myndigheter använder. Etisk AI handlar om att ta hänsyn till värden om transparens, integritet och demokrati. Vi uppfattar att begreppet i många delar överensstämmer med de värden som uttrycks i den statliga värdegrunden.

Hur vi har genomfört studien

För att fånga och beskriva frågan om hur myndigheterna använder sig av AI i relation till värdegrundens principer så har vi behövt få en bild av både hur myndigheterna använder sig av AI och hur de resonerar och förhåller sig till de möjligheter och utmaningar som AI innebär för genomförandet av det egna uppdraget. Vi har också behövt skaffa oss en övergripande förståelse för hur utvecklingen inom området ser ut i ett större sammanhang, till exempel när det gäller regeringens styrning och pågående EU-initiativ.

Vi har tagit del av forskning, utvärderingar och rapporter som behandlar användningen av AI i statsförvaltningen. Vi har också intervjuat sju myndigheter för att få en närmare inblick i hur de använder sig av AI. Dessutom har vi sökt efter exempel på användning av AI på myndigheters webbplatser och i årsredovisningar. I några fall har det lett till ytterligare kontakter. Ambitionen har varit att få en överblick över i vilken omfattning och på vilket sätt som statsförvaltningen använder AI.

Några av de myndigheter som vi har intervjuat ägnar sig åt myndighetsutövning med inslag av AI i någon del av beslutsfattandet. De beslut som myndigheterna fattar har en direkt påverkan på enskilda. Användningen av AI kan därmed medföra särskilda risker som har att göra med den statliga värdegrunden. Men vi är också intresserade av hur myndigheter använder AI för att effektivisera eller förbättra kvaliteten i sin verksamhet även i andra avseenden. De myndigheter som vi har intervjuat är Arbetsförmedlingen, Kronofogden, Pensionsmyndigheten, Skatteverket, Lantmäteriet, Domstolsverket och Kriminalvården.

Vid intervjuerna har vi träffat en eller två representanter från respektive myndighet. Det har främst varit en AI-strateg eller liknande funktion och i vissa fall även en ansvarig chef. Men det kan finnas flera olika uppfattningar inom myndigheten i de frågor som vi har diskuterat, vilket innebär att våra intervjuer inte nödvändigtvis representerar hela myndighetens inställning.

Vi har även genomfört orienterande intervjuer med Myndigheten för digital förvaltning (Digg), Riksrevisionen och Diskrimineringsombudsmannen (DO) samt representanter för det myndighetsgemensamma samverkansprogrammet eSam. Vi har också intervjuat Stefan Larsson, lektor och docent vid Lunds universitet som leder forskarnätverket AI Lund.

Vi fokuserar på statsförvaltningen

Studiens fokus ligger på AI i statsförvaltningen. Det innebär att vi inte undersöker hur AI används i hela den offentliga förvaltningen. Det är dock värt att notera att det även pågår mycket användning av AI i kommuner och regioner, inte minst inom hälso- och sjukvården.

Vi fokuserar på att analysera myndigheternas användning av AI i relation till den statliga värdegrunden. Vi fördjupar oss inte i samtliga myndigheters arbete med AI, däremot använder vi exempel från olika myndigheter för att illustrera våra iakttagelser.

Vårt fokus ligger på de AI-lösningar som myndigheterna själva utvecklat eller köpt in. Vi har däremot inte analyserat hur den AI som anställda har tillgång till i sina datorer och mobiler används på myndigheterna, till exempel ChatGPT, Google assistant eller Co-pilot.

AI är komplext och har olika betydelse beroende på vilken aktör vi pratar med. Det innebär att det finns metodologiska utmaningar när vi studerar myndigheternas användning av AI, eftersom det finns en risk att vi talar förbi varandra. Det kan till exempel finnas olika uppfattningar om var gränsen går för när en automatisering verkligen innehåller AI eller bara är en mer traditionell digitalisering av verksamheten. Vi återkommer till begreppsdiskussionen i kapitel 2.

Projektgrupp och kvalitetssäkring

Studien har genomförts av Magnus Medelberg, Martin Snygg-Söder, Lisa Hörnström Bokerud och Charlotte Despres (projektledare). Rasmus Firon genomförde en förstudie som låg till grund för denna rapport. En intern referensgrupp har bistått projektgruppen med synpunkter på utkastet. De intervjuade personerna har fått möjlighet att faktagranska delar av rapportutkastet.

Läsanvisningar

I kapitel 2 beskriver vi vad som menas med AI, och ger exempel på hur myndigheterna använder sig av AI.

I kapitel 3 analyserar vi vilken potential samt risker som användningen av AI i statsförvaltningen för med sig när det gäller myndigheternas möjligheter att leva upp till principerna i den statliga värdegrunden.

I kapitel 4 beskriver vi myndigheternas strategiska arbete och hur myndigheterna hanterar de risker som finns med AI. Vi lyfter också fram vilka utmaningar som myndigheterna står inför framöver när det gäller användningen av AI.

I ett avslutande kapitel 5 redogör vi för våra samlade slutsatser kring hur AI används i statsförvaltningen och vad det betyder för myndigheternas möjligheter att leva upp till värdegrundens principer. Vi pekar också på viktiga frågor för myndigheterna och regeringen att ta hänsyn till i det fortsatta arbetet med AI.

Användningen av AI i statsförvaltningen

I detta kapitel beskriver vi hur användningen av AI ser ut i statsförvaltningen. Vi inleder med en diskussion om begreppet AI och redogör sedan för de vanligaste användningsområdena som vi har identifierat hos myndigheterna, i vilken omfattning AI används samt vilka motiv som ligger bakom myndigheternas AI-satsningar.

Våra huvudsakliga iakttagelser är:

  • Det finns ingen entydig definition av vad AI är. Det försvårar möjligheterna att undersöka hur statsförvaltningen använder AI.
  • Myndigheterna har kommit olika långt när det gäller att använda AI. Flera myndigheter som använder AI befinner sig än så länge i ett utforskande läge, medan andra har kommit längre.
  • Många av de AI-lösningar som finns i statsförvaltningen handlar om att spara resurser i verksamhet av administrativ karaktär, exempelvis dokumenthantering, sortering av mejl och översättningstjänster.
  • Några myndigheter använder också AI för kommunikation med allmänheten, till exempel genom chattbotar.
  • Några myndigheter använder AI för att identifiera ärenden där det finns risk för fel eller brottslig verksamhet.
  • Det finns ett fåtal exempel på myndigheter som använder AI som ett stöd vid beslut i myndighetsutövning. Men vi har inte funnit något exempel där AI självständigt fattar beslut i myndighetsutövning som gäller enskilda personer eller företag.
  • Det finns även flera exempel på myndigheter som inte har ärendehandläggning som huvuduppgift, men som använder AI i kärnverksamheten. Till exempel används bildigenkänning för många olika ändamål.

Det finns ingen entydig definition av AI

Det finns ingen entydig eller vedertagen definition för begreppet artificiell intelligens.[7] Begreppet inrymmer flera olika tekniker och metoder och används ofta som ett samlingsnamn för en bred teknikfamilj i snabb förändring. Forskningen inom området har pågått sedan 1950-talet och gränserna för vad som räknas som AI har ändrats genom åren. En definition som flera svenska myndigheter har använt – däribland Myndigheten för digital förvaltning (Digg) – lyder så här:

AI avser system som uppvisar intelligent beteende genom att analysera sin miljö och vidta åtgärder – med viss grad av självständighet – för att uppnå särskilda mål. AI-baserade system kan vara helt programvarubaserade och fungera i den virtuella världen (t.ex. röstassistenter, bildanalysprogram, sökmotorer, tal- och ansiktsigenkänningssystem), eller inbäddas i hårdvaruenheter (t.ex. avancerade robotar, självkörande bilar, drönare eller applikationer för sakernas internet).

En liknande formulering används också av Statistiska centralbyrån (SCB) som 2020 hade i uppdrag att föreslå en definition för statistiska undersökningar om AI.[8]

I den AI-förordning som för närvarande förhandlas inom EU föreslås en definition av AI som lägger större vikt vid tekniken och vilka metoder som används. Förslaget till AI-förordning som EU-kommissionen presenterade i april 2021 räknar upp en lång rad olika tekniker och metoder, där olika typer av maskininlärning utgör ett av flera exempel. Kommissionens förslag till definition för AI-system lyder programvara som […] för en viss uppsättning människodefinierade mål, kan generera ut data såsom innehåll, förutsägelser, rekommendationer eller beslut som påverkar de miljöer som de samverkar med. Som AI-system ska räknas programvara som har utvecklats med en eller flera av de tekniker och metoder som förtecknas i en särskild bilaga som kommissionen kommer att anpassa till ny teknisk utveckling. Enligt kommissionen syftar definitionen till att vara så teknikneutral och framtidssäkrad som möjligt, för att kunna ta hänsyn till den snabba tekniska utvecklingen och marknadsutvecklingen inom AI.[9]

Att myndigheter fattar automatiska beslut är inget nytt fenomen. Automatiserat beslutsfattande har förekommit i statsförvaltningen sedan 1970-talet och tillämpas i dag av flera myndigheter. [10] Automatiserade beslut är beslut som fattas maskinellt utan att någon enskild befattningshavare på myndigheten tar aktiv del i själva beslutsfattandet i det enskilda fallet.[11] Den teknik som vanligen används vid automatiskt beslutsfattande kallas regelbaserad automation.

Den AI-teknik som blivit vanligare på senare år – så kallad maskininlärning – skiljer sig från traditionell regelbaserad automation. Maskininlärning är enligt vissa forskare det dominerande paradigmet inom AI i dag och kan sägas vara den teknik som vi till vardags avser när vi talar om AI. Det relevanta i detta sammanhang är att de maskininlärda algoritmerna lägger till ett moment som inte motsvaras av programmering av traditionella regelbaserade algoritmer. Till skillnad från statiska regelbaserade algoritmer blir maskininlärda algoritmer nämligen successivt ”bättre” på att lösa sin uppgift i takt med att de tränas.[12] Därför måste maskininlärda algoritmer tränas under en period innan den tas i drift för att leverera rättssäkra beslut eller beslutsunderlag.[13]

Men maskininlärning är bara en av flera metoder eller tekniker som kan räknas som AI. Det finns ingen konsensus om var gränsen ska dras mellan vad som är AI och vad som inte är det, till exempel om regelbaserade system utgör AI. Dessa problem med att dra gränser är också tydliga vid våra kontakter med myndigheter. Då har det framkommit att det även kan finnas olika uppfattningar inom en och samma myndighet om vad som ska räknas som AI.

Avsaknaden av en vedertagen definition innebär vissa metodologiska utmaningar för oss. Den snabba teknikutvecklingen gör också att vi delvis studerar ett rörligt mål. Det som i dag framstår som ”avancerad” eller sofistikerad AI-teknik kanske inte kommer att uppfattas som särskilt avancerad inom en snar framtid.

Myndigheterna har kommit olika långt

Det finns ingen samlad kunskap om vilka myndigheter som använder AI, hur den används och i vilken omfattning. Men det finns ändå ett fåtal studier som visar att användningen av AI fortfarande är förhållandevis begränsad om man ser till statsförvaltningen som helhet. Statistiska centralbyrån (SCB) har vid två tillfällen genomfört mätningar av användningen av AI i företag och den offentliga sektorn i Sverige.[14] Mätningarna visar att antalet statliga myndigheter som använder AI var i stort sett desamma 2019 som 2021. År 2019 var det 44 myndigheter som använde AI. 2021 var motsvarande antal 45. Men flera av de myndighetsföreträdare som vi har intervjuat är övertygade om att användningen kommer att öka snabbt och mycket talar också för att fler myndigheter använder AI i dag än 2021.

Många myndigheter som använder AI befinner sig på experimentstadiet. En kartläggning från eSam 2022 visar exempelvis att en tredjedel av myndigheternas initiativ kring AI då var av utforskande karaktär.[15] Det handlar till största delen om att myndigheterna använder AI som stöd i analysverksamhet, stöd i dokumenthanteringen samt i stödfunktioner för in- och utgående information till organisationen. Initiativen drivs i regel under en kort tid i form av en förstudie eller pilot, ofta i lärande syfte. Myndigheten för digital förvaltning (Digg) kom fram till liknande slutsatser när de inom ramen för det så kallade AI-uppdraget genomförde en kartläggning 2019.[16]

Men det har hänt mycket sedan dess och flera myndigheter som vi har varit i kontakt med testar eller använder för närvarande AI inom nya områden och planerar för att öka användningen ytterligare framöver. Det är också sannolikt vanligare att större myndigheter använder AI jämfört med mindre myndigheter. Vår genomgång visar att minst 12 av de 16 största myndigheterna, sett till antal årsarbetskrafter, använder AI i dag, eller planerar att införa tekniken i sina verksamheter.

Myndigheterna använder sig av AI inom flera olika områden

Det finns många tänkbara sätt att använda AI inom statlig förvaltning. Inte minst framstår de framtida möjligheterna som stora. Flera av de intervjuade tar upp att utvecklingen går mycket snabbt och att AI-lösningar de trodde låg många år framåt i tiden finns tillgängliga redan i dag.

Vi beskriver här olika användningsområden för AI och ger exempel på lösningar som är i bruk och på några som planeras. Våra exempel har vi hämtat från de myndigheter som vi har intervjuat och andra rapporter samt genom sökningar på internet eller på andra sätt. Utifrån detta har vi identifierat ett antal kategorier utifrån användningsområden:

  • AI för att spara resurser i verksamhet av administrativ karaktär
  • AI för kommunikation med allmänheten
  • AI för att göra riskbedömningar av ärenden i syfte att upptäcka fel eller brottslig verksamhet
  • AI som stöd vid beslut i myndighetsutövning
  • AI i kärnverksamhet som inte primärt handlar om myndighetsutövning

Syftet med dessa kategorier är att förenkla vår diskussion i rapporten om vilken potential och vilka risker det finns med AI utifrån myndigheternas möjligheter att leva upp till den statliga värdegrunden. I praktiken finns det både AI-lösningar som kan passa in i flera olika kategorier och sådana som har flera syften, där de olika delarna passar bäst i olika kategorier. I andra tidigare studier framkommer andra typer av kategoriseringar utifrån delvis andra infallsvinklar.[17] Det faktum att det förekommer olika typer av beskrivningar av hur AI används i statsförvaltningen visar att det inte finns något entydigt och enkelt sätt att beskriva AI-användningen.

AI för att spara resurser i verksamhet av administrativ karaktär

Många av de AI-lösningar som myndigheterna har infört handlar primärt om att spara resurser i verksamhet av mer administrativ karaktär. Det kan handla om att spara resurser i myndighetens stödverksamhet eller mer administrativa delar av kärnverksamheten. Besparingar i stödverksamheten kan gälla exempelvis ekonomihantering, dokumenthantering, HR, schemaläggning och rekryteringar. Sådana exempel finns på flera myndigheter, både bland de som vi har intervjuat och bland övriga myndigheter.

Ett exempel på AI-lösningar som redan finns i bruk på flera myndigheter handlar om sortering av inkommande mejl. Att sortera mejl på ett mer effektivt sätt så att de snabbare når rätt handläggare kan både spara resurser och skynda på de processer som mejlen gäller. Sorteringen kan både gälla myndighetsinterna mejl och mejl som har skickats från enskilda till myndigheten. Att mejlet direkt hamnar hos rätt tjänsteperson kan då också göra att enskilda personer får sitt ärende behandlat snabbare.

Men det finns också exempel på AI-lösningar som effektiviserar andra delar av kärnverksamheten. I flera fall handlar det om att rationalisera de mer monotona delarna av en tjänstepersons vardag. Ofta är det de AI-modeller som nu finns tillgängliga för text-, tal- och bildigenkänning som används och som i en del fall kan spara mycket resurser. Domstolsverket och Lantmäteriet är två myndigheter som har genomfört och planerar att genomföra AI-satsningar inom denna kategori.

Domstolsverket har utvecklat en tjänst som översätter juridisk text på andra språk till svenska. Enligt vår intervju med företrädare för Domstolsverket är den beräknade besparingen 90 procent jämfört med när texterna skickas till en översättningsbyrå. Dessutom går det mycket snabbare. Enligt intervjun översätter AI-applikationen text på tre sekunder, vilket kan jämföras med att det tog tre veckor att få tillbaka texterna från en byrå. Domstolsverket arbetar för att lansera tjänsten för samtliga domstolar, vilket skulle kunna innebära besparingar på upp till 20 miljoner kronor per år.

Enligt vår intervju beräknar Domstolsverket att de kommer att kunna spara ännu mer om den maskeringstjänst för anonymisering av dokument som ska lanseras under våren 2024 fungerar som det är tänkt. Denna beräknas kunna spara motsvarande upp till 220 årsarbetskrafter, vilket motsvarar cirka 300 miljoner kronor årligen. Både översättning och maskering är exempel på tjänster som skulle kunna spara resurser på fler myndigheter än Domstolsverket.

Lantmäteriet har inlett ett arbete med att utveckla en textläsningstjänst som ska tolka texter i dokument från 1700-talet och framåt. Denna textläsningstjänst kan effektivisera arbetet mycket eftersom gamla texter är mycket svårtolkade för ett otränat öga. Enligt Lantmäteriet är det bara några få medarbetare som i dag klarar av att tolka de riktigt gamla dokumenten. Att söka i texterna eller att sammanfatta dem går dessutom många gånger fortare än om det görs manuellt. Men arbetet med att utveckla Lantmäteriets texttolkningstjänst är för närvarande pausat, bland annat på grund av ekonomiska faktorer.

Kungliga biblioteket (KB) har utvecklat en svensk språkmodell (KB‑Bert) som bygger på en modell skapad av Google. Modellen har tränats på en kombination av öppet tillgängligt och upphovsrättskyddat material, inklusive svenska Wikipedia, svenska dagstidningar, offentliga utredningar, böcker, digitala publikationer, sociala medier och webbforum.[18] Modellen publiceras som öppen data och finns tillgänglig för att vidareutnyttjas av såväl den offentliga som den privata sektorn.

Ett exempel är att Ekonomistyrningsverket har vidareutvecklat modellen för en analys av samtliga myndigheters regleringsbrev för samtliga tillgängliga år (2005–2023). Detta minskade det manuella arbetet betydligt jämfört med om mänskliga utredare skulle ha analyserat en så stor mängd skriftligt material.[19]

AI för kommunikation med allmänheten

Det finns ett antal exempel på att myndigheter använder AI som en del i kommunikationen med allmänheten. Även här är syftet ofta att effektivisera genom att minska behovet av manuell administration. Men även en bättre service till allmänheten brukar användas som ett argument för satsningarna.

Några myndigheter har så kallade chattbotar som kan svara på frågor från allmänheten. Det kan bland annat handla om frågor om regelverk. Av de intervjuade myndigheterna har Skatteverket, Lantmäteriet och Pensionsmyndigheten sådana chattbotar.

Men det finns också mer avancerade exempel på hur AI används i kontakterna med enskilda, utan att det direkt handlar om en del av beslutfattandet i ärendehandläggningen. Ett sådant exempel är Arbetsförmedlingens tjänst Breddad matchning som ska lanseras under våren 2024.[20] Den är ett slags självservicetjänst för den som söker ett arbete. Med hjälp av befintliga uppgifter hos Arbetsförmedlingen från bland annat platsannonser och ytterligare information som den arbetssökande själv matar in i tjänsten i en AI-driven dialog, ska tjänsten hjälpa den arbetssökande att se nya möjliga yrken inom ramen för sin befintliga kompetens. Tanken är att det traditionella sättet att matcha ihop arbetssökande och arbetsgivare ofta blir för snävt. Men med betydligt mer information om den arbetssökande som även innehåller uppgifter om exempelvis intressen och livsstil, är tanken att möjligheterna att hitta ett nytt arbete inom områden som den arbetssökande inte ens tänkt på kan öka. Om tjänsten får de effekter som Arbetsförmedlingen hoppas på kommer matchningsprocessen på arbetsmarknaden att fungera mer effektivt än idag.

Ett annorlunda exempel, för att visa bredden på möjligheterna inom området kontakter med allmänheten, är att Sveriges museum om förintelsen har en tjänst där det är möjligt att ”samtala” med överlevare från förintelsen. Överlevarna svarar på frågorna i bild och tal genom att museet har spelat in deras berättelser. Det är ett sätt att hålla historien levande även efter att den sista överlevaren gått ur tiden. De som använder tjänsten får en inblick i vad som har hänt på ett mer levande sätt än vid en traditionell utställning och utan att fysiskt behöva resa till museet.

AI för att göra riskbedömningar av ärenden i syfte att upptäcka fel eller brottslig verksamhet

Det finns flera exempel på att myndigheter använder AI för att göra riskbedömningar av ärenden i syfte att upptäcka fel eller brott. Ofta är principen att med hjälp av AI analysera stora mängder data och därigenom hitta mönster i vilka ärenden som har en stor risk för felaktigheter eller brottslig verksamhet. AI kan kanske hitta mönster för riskfyllda ärenden som annars aldrig upptäckts och det går mycket snabbare att hitta riskfyllda ärenden i en stor ärendemängd, jämfört med en mer manuell analys. En framgångsrik identifiering av sådana ärenden kan spara stora resurser för staten om brottslig verksamhet kan förhindras.

Vi har funnit användning av AI i system för att upptäcka ärenden med risk för felaktigheter eller fusk hos bland annat Försäkringskassan, Arbetsförmedlingen och Skatteverket.

Försäkringskassan har tidigare använt AI för att upptäcka fel och brottslig verksamhet inom det statliga tandvårdsstödet.[21] Med hjälp av AI kan Försäkringskassan identifiera transaktioner till klinikerna där risken för felaktiga utbetalningar bedöms vara hög. Sedan får en handläggare ta över och granska ärendet ytterligare för att bedöma om några åtgärder ska vidtas. Försäkringskassan har genom detta kunnat kräva tillbaka mångmiljonbelopp från tandvårdsklinikerna.[22] Försäkringskassan vill i dag inte tala om inom vilka förmåner som de använder sig av AI i kontrollverksamheten med hänvisning till sekretess.[23]

Arbetsförmedlingen har påbörjat en utvecklingsinsats för att med hjälp av AI förbättra sin förmåga att identifiera om fristående aktörer inte följer de avtal som gäller. De fristående aktörerna får betalt av Arbetsförmedlingen för att utföra arbetsförmedlingstjänster. Enligt material från Arbetsförmedlingen handlar insatsen om en relativt liten investering på under 20 miljoner kronor som beräknas kunna spara minst 300 miljoner kronor i form av färre fel och mindre fusk. [24] Arbetsförmedlingen bedömer att tekniken kan användas för liknande kontroller även inom andra områden på myndigheten.

Skatteverket har använt AI i kontrollverksamheten sedan en längre tid och gör riskbaserade kontroller med stöd av AI inom flera områden. Ett exempel är att alla deklarationer, både från privatpersoner och företag, kontrolleras maskinellt och där är AI ett inslag för att hitta de deklarationer där risken för felaktigheter eller fusk är störst. De mest riskfyllda ärendena genomgår sedan en djupare granskning.

AI som stöd vid beslut i myndighetsutövning

Vi har inte funnit någon myndighet där AI självständigt fattar beslut i ärenden som gäller enskilda eller företag. Inte heller Riksrevisionen, Myndigheten för digital förvaltning (Digg) eller Diskrimineringsombudsmannen (DO) har funnit något sådant exempel på att AI fattar beslut.[25] Däremot använder både Försäkringskassan och Arbetsförmedlingen AI som ett stöd inför själva beslutssituationen.

Försäkringskassan använder AI bland annat för att analysera och identifiera relevant information i läkarintyg. Stödet ger inga förslag till beslut, det är fortfarande handläggaren som har ansvar att göra helhetsbedömningen och fatta beslut i ärendet. Än så länge används tekniken endast för vissa ärenden inom aktivitetsersättning. Enligt Försäkringskassan är syftet med AI-stödet bland annat att göra mer likvärdiga bedömningar.[26]

Arbetsförmedlingen använder AI i bedömningsstödet KROM (Kundval rusta och matcha) som handläggarna använder när de ska avgöra vilken typ av stöd som en arbetssökande ska få. Syftet är att öka enhetligheten och träffsäkerheten i bedömningarna, samt att spara tid genom att hanteringen av bedömningarna görs mer automatiskt. Det frigör också mer tid för att göra fördjupade bedömningar i de fall där det behövs.

Bedömningsstödet skattar den arbetssökandes chanser att få arbete utifrån flera olika uppgifter, exempelvis ålder, kön, utbildningsnivå, yrkeserfarenhet, yrkesönskemål och tidigare insatser från Arbetsförmedlingen. Men även externa faktorer som hur arbetsmarknaden ser ut på den plats där den arbetssökande bor ingår som grund för skattningen. Utifrån dessa data beräknar bedömningsstödet sannolikheten för att den sökande ska få ett jobb eller en annan sysselsättning inom en viss tidsperiod. Med ledning av detta placerar handläggaren den sökande i olika kategorier, exempelvis litet behov av stöd, behov av extra stöd eller fördjupat stöd. [27]

Arbetsförmedlingen är tydlig med att det handlar om ett stöd för bedömningen. Det är handläggaren som slutligen ska bedöma i vilken kategori den arbetssökande ska placeras.

Flera myndigheter betonar att det även finns områden där det personliga mötet är en viktig del i beslutsfattandet. I sådana fall kan inte AI ersätta mänskliga handläggare.

AI i kärnverksamhet som inte primärt handlar om myndighetsutövning

I denna kategori beskriver vi exempel på användning av AI i kärnverksamhet som inte primärt handlar om myndighetsutövning. Däremot kan enskilda individer påverkas indirekt eller i ett senare steg i myndigheternas verksamhet.

Det finns en stor bredd av exempel inom denna kategori. I flera fall handlar det om myndigheter där olika former av teknik sedan länge varit en självklar del av kärnverksamheten och där AI blivit ett naturligt sätt att vidareutveckla den. Vi redovisar här några av de exempel som vi har stött på. Det finns också en hel del exempel som än så länge befinner sig på idéstadiet.

SMHI använder sedan något år tillbaka AI som en del i arbetet med väderprognoserna. AI används än så länge främst för att förutsäga väder på kort sikt, till exempel snöfall, åska och rörelseriktning samt intensitet på oväder. Det är fortfarande de fysikaliska modeller som bygger på mycket kraftfulla så kallade superdatorer som utgör tyngdpunkten i prognoserna. Men SMHI ser stora fördelar med att utveckla användningen av AI i prognoserna. Enligt SMHI är en fördel med vädermodeller som bygger på AI att de kräver mycket mindre superdatorkraft än de fysikaliska modellerna. Beräkningstid i superdatorer är mycket dyrbar och genom att använda mer AI i prognoserna kan myndigheten spara stora resurser.[28] AI används också i andra delar av SMHI:s verksamhet, till exempel för att analysera vattenprover och för att digitalisera gamla väderobservationer.

Lantmäteriet har tränat upp ett AI-stöd som kan identifiera byggnader från flygbilder med allt större säkerhet. AI-stödet kan bli lurat av exempelvis skuggor, men myndigheten bedömer att systemet i stort sett är lika säkert som om en människa granskar bilden. Det går också betydligt snabbare, vilket gör att färre handläggare behöver ägna sig åt sådana uppgifter än tidigare.

Skogsstyrelsen använder drönare som med AI-teknik skannar av skogen för att tidigt upptäcka risker för angrepp av granbarkborre. Att upptäcka granbarkborren snabbare sparar stora resurser eftersom verkningsfulla åtgärder kan sättas in tidigare vilket gör att mindre skog går förlorad.[29]

Trafikverket ser stora möjligheter med att använda AI för bildigenkänning inom flera områden. En försöksverksamhet gäller att kartlägga invasiva arter som exempelvis lupiner efter vägkanterna med hjälp av en AI-kamera monterad på en bil.[30] En motsvarande försöksverksamhet inom järnväg handlar om att upptäcka defekta sliprar, befästningar och reläer. I båda fallen kan mycket tid sparas jämfört med en motsvarande manuell hantering.[31]

Polisen har tagit fram ett AI-stöd som automatiskt analyserar stora mängder information och presenterar den så att den kan användas av förundersökningsledare, utredare eller vid rättegångar. Det som tidigare tog flera dagar eller veckor går nu på några sekunder. Det kan exempelvis handla om att, i mycket stora mängder film och foton, sortera och filtrera på färger, registreringsnummer eller ansikten. Syftet är både att frigöra tid och att göra utredningsunderlagen mer träffsäkra. I slutändan ska det leda till effektivare utredningar och till att fler brott kan klaras upp.[32]

Inom Kriminalvården skulle AI kunna användas för att effektivisera verksamheten på anstalterna. Kriminalvården anser bland annat att de kan använda AI för att förbättra säkerheten genom att med hjälp av övervakningskameror kunna förutse olika typer av riskfyllda situationer. Kriminalvården betonar att planerna än så länge befinner sig på idéstadiet och att det är en svår balansgång mellan syftet och att skydda de intagnas personliga integritet.

Potential och risker med användningen av AI i statsförvaltningen

AI-tekniken kan vara ett redskap för att uppnå en högre nivå av effektivitet, rättssäkerhet och service. Samtidigt kan det medföra risker att använda tekniken i statsförvaltningen. I detta kapitel redogör vi för vilken potential och vilka risker som AI kan medföra. Vi analyserar också kopplingen mellan potential, risker och myndigheternas möjligheter att leva upp till principerna i den statliga värdegrunden.

Våra huvudsakliga iakttagelser är följande:

  • Många myndigheter anser att det finns potential i att använda AI, bland annat för att öka effektiviteten och rättssäkerheten samt förbättra tillgängligheten och servicen för allmänheten.
  • Många av de AI-satsningar som genomförs inom statsförvaltningen rör intern administration och medför därför relativt låga risker.
  • De satsningar som innebär tillämpningar som berör enskilda medför däremot fler risker. Det finns till exempel risk för ökad rättsosäkerhet om den data som används för att träna tillämpningarna är snedvriden eller otillräcklig.
  • Det kan vara svårt för myndigheterna att uppfylla kraven på full transparens när de använder AI. Det gäller exempelvis i fall då algoritmerna successivt förändras, vilket gör att det blir svårt att exakt förklara vad utfallet av ett visst beslut beror på. Det är inte heller självklart vad som bör vara transparent.
  • Det finns en risk för att den personliga integriteten kränks om data används på ett felaktigt sätt. Det är därför angeläget att myndigheter hanterar och behandlar personuppgifter korrekt i samband med att de använder AI i verksamheten.

Myndigheter ser stor potential med AI

De flesta myndigheter som vi har haft kontakt med anser att det finns stor potential med AI. Men det skiljer sig också åt bland annat beroende på vilken typ av verksamhet som myndigheten bedriver. Myndigheterna ser potential både när det gäller att öka effektiviteten och rättssäkerheten samt när det gäller att förbättra tillgänglighet och service. Men ett problem är att myndigheterna inte följer upp, eller utvärderar sina AI-satsningar i någon större utsträckning. Det leder i sin tur till att det är svårt att bedöma om potentialen infrias. Vi återkommer till detta i kapitel 4.

Myndigheterna ser möjligheter till ökad effektivitet, rättssäkerhet och förbättrad tillgänglighet och service

De myndigheter som vi har varit i kontakt med bedömer att användningen av AI kan bidra till högre effektivitet i deras verksamheter. AI har potential att både sänka kostnaderna och att förbättra kvaliteten i verksamheterna. AI kan till exempel bidra till att förkorta handläggningstider och förbättra träffsäkerheten i olika typer av bedömningar och analyser.

Digg uppskattade 2020 att ett fullständigt införande av dagens AI-teknik i offentlig förvaltning skulle kunna innebära en ekonomisk nytta för samhället på 140 miljarder kronor årligen.[33] Vi har inte granskat hur den beräkningen gjordes, men det råder knappast någon tvekan om att det finns tillämpningar som kan leda till stor samhällsnytta.

Inom flera av de användningsområden som vi beskriver i kapitel 2 finns det potential som har att göra med respekt för individen och icke-diskriminering. Om AI används som stöd i beslutsfattande och förutsatt att algoritmerna är rätt utformade kan risken minska för att beslut påverkas av att handläggare, medvetet eller omedvetet diskriminerar utifrån diskrimineringsgrunder som kön, etnisk tillhörighet eller ålder. På samma sätt kan beslut där AI används minska risken för att jäv, korruption, personliga uppfattningar eller hot påverkar besluten. Detta är viktiga aspekter av legalitetsprincipen och objektivitetsprincipen.[34]

Några myndigheter använder AI som en del av servicen till allmänheten, bland annat genom användning av chattbotar. Chattbotarna kan innebära en besparing för myndigheten eftersom de slipper hantera vissa enklare frågor från allmänheten manuellt. Servicen till allmänheten påverkas då på flera sätt. En positiv aspekt är att chattbotarna kan ge svar på helger och vid alla tidpunkter på dygnet. Dessutom svarar de sannolikt oftast snabbare än myndighetens telefonväxel. Men en chattbot klarar inte alltid mer komplicerade frågor, även om en av poängerna med att använda AI är att de genom träning successivt ska bli allt bättre. Det kan också vara så att enskilda föredrar att ha kontakt med en handläggare, även om svaret på frågorna blir exakt detsamma.

Användningen av AI kan medföra risker

Samtidigt som myndigheterna ser stora möjligheter med användning av AI i sina verksamheter, är de också medvetna om att det finns risker och att det gäller att hantera dessa. AI kan medföra många olika typer av risker, men vi fokuserar på risker som är kopplade till myndigheternas möjligheter att leva upp till principerna i den statliga värdegrunden. Utifrån detta perspektiv resonerar vi här kring risker kopplade till rättssäkerhet, transparens och den personliga integriteten.

Hur riskfylld en AI-satsning är beror på en rad faktorer

Gränsdragningen för när en AI-satsning ska räknas som riskfylld är ett återkommande tema i rapporter om förvaltningens användning av AI.[35] När tillämpningarna handlar om verksamhet riktad mot enskilda snarare än den interna administrationen ökar riskerna med AI, eftersom eventuella fel i högre grad riskerar att drabba enskilda. Det är exempelvis uppenbart att en anonymiseringstjänst som inte fungerar som den ska kan få allvarliga följder. En individ som får sin identitet röjd när det inte får ske är något som strider mot legalitetsprincipen. Det är samtidigt svårt att tänka sig att det aldrig sker misstag när det är människor som sköter anonymiseringen. Det är därför viktigt att testa i vilken mån AI-tillämpningen minskar riskerna för sådana misstag innan den tas i bruk.

AI-tillämpningar för interna processer, såsom stödverksamhet inom myndigheterna innebär däremot generellt sett lägre risker när det gäller myndigheternas möjligheter att leva upp till den statliga värdegrundens principer. Det är exempelvis svårt att se att en AI-lösning för att sortera mejl till myndigheten skulle innebära någon stor risk. Det finns också exempel på användning inom myndigheternas kärnverksamheter där riskerna ur ett statligt värdegrundsperspektiv förmodligen inte är så stora. Det gäller till exempel AI som bygger på bildigenkänning, så länge kamerorna inte kan identifiera enskilda människor på bilderna. Ett tydligt exempel på det är Rymdstyrelsen som i sitt remissvar på förslaget om EU:s AI-förordning skrev att ”Även om satelliter tar bilder på jorden så kommer vi inte under överskådlig tid få bilder där individer kan urskiljas”.[36]

Myndigheterna verkar vara försiktiga med att använda AI inom riskfyllda områden

Det finns ännu ingen samlad kunskap om samtliga AI-tillämpningar i statsförvaltningen. Det gör att det är svårt att med säkerhet uttala sig om hur vanliga de mer riskfyllda AI-satsningarna är. Enligt den inventering som eSam gjorde 2022 hade myndigheterna uteslutande börjat använda AI inom områden som innebär en begränsad risk och med en hanterbar komplexitet. Det handlade till största delen om stöd i analysverksamhet, stöd i dokumenthanteringen i organisationen samt stödfunktioner för in-och utgående information till organisationen.[37] Inget av de 35 initiativen i kartläggningen medförde enligt eSam någon betydande AI-risk. Elva myndigheters underlag ingick i kartläggningen: Arbetsförmedlingen, Bolagsverket, Pensionsmyndigheten, Lantmäteriet, Skatteverket, Tullverket, Tillväxtverket, Kronofogden, Skolverket, SPV och Riksarkivet.

I likhet med eSams kartläggning ser vi att myndigheterna generellt sett är förhållandevis försiktiga med att använda sig av AI inom områden där det finns en högre risk kopplat till möjligheterna att leva upp till principerna i den statliga värdegrunden. I intervjun med Kriminalvården framgår att de medvetet valt en försiktig inriktning vid användning av AI. Kronofogden har en liknande inställning. Av intervjun framgår att de inte vill ligga i framkant när det gäller AI-utveckling, utan att de kommer fokusera på ett innovativt användande av kända lösningar.

Av de initiativ som ingick i kartläggningen bedömde eSam att Arbetsförmedlingens profilering i bedömningsstödet KROM är den lösning som innebär störst utmaning ur ett rättsligt perspektiv, framför allt på grund av personuppgiftsregleringen. Men stödet bedöms vara relativt tekniskt och organisatoriskt okomplicerat. Lantmäteriets olika initiativ för textanalys är exempel på en tillämpning med en relativt hög teknisk komplexitet, främst beroende på svårigheten att träna modellen på att tolka handskrivna historiska dokument. Däremot medför dessa lägre risk ur ett rättsligt perspektiv.

Vi bedömer att det ändå finns exempel där myndigheter redan i dag använder AI inom mer riskfyllda områden. Det kan finnas risker för diskriminering både i de tillämpningar som handlar om stöd vid beslut i myndighetsutövning och de som handlar om att göra riskbedömningar av ärendehandläggning för att förhindra fel eller brottslig verksamhet. Det finns också risker kopplade till den personliga integriteten om AI som bygger på bildigenkänning kan identifiera enskilda individer och tekniken inte används på rätt sätt. Hit hör bland annat exemplet med hur Polismyndigheten använder sådan teknik för att utreda brott. Polisen vill även börja kunna använda AI med automatisk ansiktsigenkänning för att övervaka offentliga platser i realtid. Regeringskansliet snabbutreder denna fråga i skrivande stund.[38]

Risk för rättsosäkerhet om träningsdata är snedvriden eller otillräcklig

En utmaning med AI är att systemen ofta är beroende av stora mängder data för att fungera optimalt. Utan tillräckligt mycket korrekta och representativa data kan resultaten bli missvisande, opålitliga och i vissa fall leda till diskriminering beroende på vilket område tillämpningen gäller. Om användningen av AI leder till en felaktig hantering i något avseende är detta självklart problematiskt eftersom myndigheterna behöver ha tydligt stöd i rättsordningen för sina åtgärder.[39] Detta är den viktigaste aspekten av legalitetsprincipen.

AI har potential att minska risken för diskriminering. AI har också potential att minska risken för att jäv, korruption eller hot påverkar besluten. Men det finns likväl en risk att automatiska beslut baserade på AI-algoritmer kan förstärka en redan existerande ojämlikhet. Algoritmisk diskriminering uppstår om bias som finns i det data som algoritmen har tränats på inte upptäcks och åtgärdas. Om en myndighet exempelvis tränar AI med data som endast representerar, eller har övervikt mot en viss grupp, kommer algoritmen att prestera resultat som gynnar eller missgynnar de som inte finns representerade.[40] Målet om respekt, som är en av principerna i den statliga värdegrunden syftar till att det allmänna ska motverka att någon diskrimineras i sin kontakt med myndigheterna.

Risken för algoritmisk diskriminering diskuteras i flera andra studier. Diskrimineringsombudsmannen (DO) och Jämställdhetsmyndigheten har uppmärksammat att snedvriden data kan återspegla historisk diskriminering och därmed reproducera den. Algoritmerna lär sig av att titta bakåt på historiska data och analysera det som har gjorts tidigare.[41] Det innebär att styrkan med AI, att lära sig från data och identifiera komplexa samband, också är dess svaghet.

Det finns risker med att använda AI vid beslut i myndighetsutövning. Men myndigheter använder i dagsläget endast AI som ett stöd vid sådant beslutsfattande. Det finns också risker när myndigheter använder AI för att göra riskbedömningar av ärenden i syfte att upptäcka fel eller brottslig verksamhet. Vissa grupper av individer kan bli diskriminerade, och exempelvis drabbas av omotiverat hårda kontroller, om AI-algoritmerna baseras på snedvridna data. Det är därför viktigt att inte glömma att slutsatser eller rekommendationer som baseras på AI-teknik inte bara kan vara fel. De kan i värsta fall vara diskriminerande, integritetskränkande eller olagliga.

Vi har inte funnit något exempel från den svenska statsförvaltningen på att en sådan händelse har skett. Men ett uppmärksammat exempel finner vi i Nederländerna. I kampen mot bidragsfusk använde den nederländska skattemyndigheten en algoritm för att riskbedöma sökande där en av riskindikatorerna baserades på etnicitet. Systemet ledde till att vissa grupper med invandrarbakgrund kontrollerades nitiskt. Det ledde i sin tur till att 10 000 familjer tvingades betala tillbaka barnomsorgsbidraget, i många fall för bagatellartade fel som att ha satt en signatur på fel ställe. Skandalen bidrog till att regeringen avgick.[42]

Svårt för allmänheten att ha insyn i beslut där AI används

Förutom att en myndighet måste ha författningsstöd för sina beslut eller åtgärder, måste den också kunna visa vilken regel den har använt sig av i varje konkret fall. Även detta är en viktig aspekt av legalitetsprincipen.[43] Det är viktigt för att de enskilda som påverkas av myndigheternas beslut ska kunna förutse och förstå utfallet. Kravet på stöd i reglerna finns i förvaltningslagen, som också anger att myndigheter måste motivera sina beslut.[44]

Myndigheter omfattas även av krav på transparens i sin verksamhet. Offentlighetsprincipen bidrar till att garantera att medborgarna har insyn i myndigheterna och därigenom får möjlighet att kontrollera deras verksamhet. Det innebär att myndigheterna måste dokumentera sina överväganden och beslut i allmänna handlingar som är offentliga. Alla har rätt att vända sig till myndigheterna för att få del av innehållet.[45]

Dessa frågor är i sig inte nya för statsförvaltningen att hantera. Men de insyns- och transparensproblem som automatisering av beslutsprocesser generellt innebär förstärks ytterligare när myndigheterna använder komplexa AI-modeller. Forskning visar att automatiska beslutsprocesser kan vara svåra för medborgare att förstå och ha insyn i.[46] När AI-algoritmer successivt förändras kan det vara svårt eller till och med omöjligt att exakt förstå hur de fungerar. En annan risk är att det kan vara svårt för medborgare att få insyn på grund av att tekniken som myndigheterna använder skyddas av patent och andra kommersiella rättigheter.

Frågan om insyn och transparens är särskilt relevant när handläggare interagerar med exempelvis beslutsstödsystem som använder AI. Ett exempel där möjligheten till insyn har prövats finner vi i den kommunala sektorn. 2021 stämde en person Göteborgs stad efter att ha drabbats av felaktigt beslut om skolplacering på grund av en algoritm, och blev nekad tillgång till programkoden som låg bakom beslutet.[47] Vi kan konstatera att om det är svårt att reda ut på vilka grunder ett AI-genererat beslut är taget så kan det också bli svårt att peka ut var ansvaret för beslutet ska läggas.

Det är vedertaget att transparens ökar förtroendet för exempelvis en myndighet. Men en dåligt designad transparens kan minska förtroendet för offentlig förvaltning.[48] Detta diskuteras i flera rapporter inom området.[49] En återkommande utmaning som flera studier lyfter är också så kallad ”black box problematik”. Det innebär i sammanhanget att AI‑teknik är komplicerad och att det vid maskininlärning blir svårt att mer exakt förklara hur AI kommer fram till slutsatser och lösningar.

Det kan också vara problematiskt för en myndighet att vara helt transparent med hur en algoritm är uppbyggd. Det kan exempelvis gälla för de tillämpningar där myndigheter använder AI för att upptäcka fel eller brottslig verksamhet. Det kan då vara kontraproduktivt att offentliggöra de bakomliggande algoritmerna eftersom det skulle kunna lära de som vill utnyttja systemen för brottsliga syften hur man undviker att bli avslöjad. Å andra sidan måste myndigheterna balansera detta mot kravet på transparens. Vi har exempelvis stött på en myndighet som använder AI som en del av sina riskbaserade kontroller, men som med hänsyn till sekretess har avstått från att ge mer information om inom vilka delar av verksamheten som de använder tekniken.

Risker kopplade till den personliga integriteten

Utöver de risker som vi lyfter fram utifrån principerna om legalitet, objektivitet och respekt tyder forskningen inom området på att det finns flera andra AI-risker. Felländer m.fl. identifierar exempelvis några typiska AI-risker ur ett säkerhetsperspektiv. Det handlar om intrång i den personliga integriteten, dataintrång genom att information obehörigen röjs, förvanskas eller förstörs samt otillräcklig information eller desinformation.[50] Samverkansprogrammet eSam pekar också på säkerhetsriskerna som är kopplade till informationssäkerhet.[51] Det är centralt för skyddet av den personliga integriteten att myndigheter och andra organisationer hanterar och behandlar personuppgifter på ett korrekt sätt. Det är en viktig del av principen om respekt som uttrycks i den statliga värdegrunden.

I de fall som myndigheter använder AI-verktyg som innebär att personuppgifter behandlas blir dessa frågor än mer aktuella. En förutsättning för att vissa AI-modeller ska kunna finna tillförlitliga samband är ofta att de har tillgång till en stor mängd personuppgifter. Myndigheterna behöver i vissa fall också ta hänsyn till den så kallade finalitetsprincipen som innebär att personuppgifter enbart får användas för de ändamål som angavs när de samlades in. Att samköra två eller flera register med olika ändamål kan därför bryta mot finalitetsprincipen.

De myndigheter som vi har varit i kontakt med menar att rättsläget är otydligt, och att det ställer särskilda krav på kompetens hos myndigheterna. I flera av våra intervjuer framgår att myndigheterna anser att det behövs en experimentlagstiftning för att i skyddad miljö kunna testa olika AI‑lösningar. Vi återkommer till frågan om kompetens och de juridiska utmaningarna kopplade till just informationssäkerhet i kapitel 4.

Myndigheternas strategiska arbete med AI

I detta kapitel fokuserar vi på hur myndigheterna hanterar riskerna med AI och hur de arbetar med AI på en strategisk nivå. Vi lyfter också fram de utmaningar som myndigheterna står inför när det gäller utvecklingen av AI framöver. Vårt fokus är myndigheternas strategiska arbete med frågor som handlar om AI och möjligheterna för myndigheterna att leva upp till principerna i den statliga värdegrunden.

Våra huvudsakliga iakttagelser är följande:

  • Det finns vissa brister i myndigheternas användning av AI. Få myndigheter har tagit fram styrdokument kopplade till AI och få myndigheter gör uppföljningar och utvärderingar.
  • Men myndigheterna är medvetna om riskerna och försöker hantera dem på olika sätt. De flesta myndigheter verkar gå förhållandevis långsamt fram i sin användning av AI och det finns en levande diskussion både inom och mellan myndigheterna om hur de kan och bör använda sig av AI.
  • Många myndigheter lyfter också fram vikten av att det finns mänskliga kontrollfunktioner, det vill säga att medarbetare behöver kontrollera och lösa problem som uppstår när de använder AI.
  • Det finns externa faktorer som påverkar myndigheternas möjligheter att använda AI framöver. Hit hör exempelvis brist på såväl teknisk som juridisk kompetens kring AI. Myndigheterna upplever också att det finns oklarheter kring vilken data som de får använda för att träna AI-system och i vilken utsträckning de får byta data med varandra.
  • Ny EU-reglering genom en kommande AI-förordning kommer att innebära mer specifika krav på myndigheterna när det gäller hur de använder AI.
  • Flera myndigheter uttrycker behov av samordning kring AI-frågor i statsförvaltningen.

Det är en utmaning för myndigheterna att hantera riskerna med AI

Myndigheter som ska införa AI ställs inför liknande utmaningar som när annan ny teknik ska införas. Flera myndigheter lyfter fram att de flesta förmågor som behövs för att bedriva framgångsrik digitalisering även behövs för att utveckla AI-lösningar. Hit hör exempelvis förmågan att hantera risker.

Men det finns aspekter som särskiljer AI från övrig digitalisering och som är särskilt viktiga för statliga myndigheter att ta hänsyn till. Tidigare studier har särskilt lyft fram behovet av data av god kvalitet eftersom korrekta och representativa data kan avgöra hur väl en AI-lösning fungerar. Det är också viktigt att myndigheterna hanterar frågor om transparens och öppenhet eftersom AI kan vara svår att förklara på ett begripligt sätt. Förmågan att hantera riskerna blir desto viktigare när myndigheter använder AI inom riskfyllda tillämpningar. Det är också därför som medlemsstater i EU förhandlar fram ett gemensamt regelverk om användningen av AI.

Vi har inom ramen för denna studie inte gjort någon fullständig granskning av myndigheternas användning av AI. Men vi har identifierat vissa brister som kan innebära att myndigheterna inte uppmärksammar riskerna i tillräckligt stor utsträckning. Det kan i sin tur leda till konsekvenser för såväl enskilda som för statsförvaltningen i stort.

Få myndigheter har strategidokument kopplade till AI

Bara en av de myndigheter som vi har intervjuat har styrdokument som särskilt hanterar AI. Det kan bero på att AI än så länge är en relativt ny företeelse inom myndigheterna och att de därför ännu inte har tagit fram sådana styrdokument. En undersökning genomförd av arbetstagarorganisationen Akavia visar att den statliga sektorn har riktlinjer om AI-användningen i lägre grad än i den privata sektorn. Enligt undersökningen efterfrågar medarbetare i den statliga sektorn strategier och riktlinjer för AI som kan göra det tydligare vad som gäller i respektive organisation.[52]

En av våra intervjuer visar att det också kan vara svårt att lägga fast en AI-vision eller AI-strategi på grund av att utvecklingen går så pass snabbt. Det är alltså svårt att formulera en strategi som inte blir inaktuell mycket fort. Å andra sidan kan det vara viktigt att myndigheten har en strategi just på grund av att utvecklingen går fort. Men det är också viktigt att strategin är tillräckligt generell och övergripande för att myndigheten exempelvis inte ska låsa in sig i specifika tekniker som fort blir inaktuella. Flera myndigheter uttrycker även att rättsläget är oklart. Det kan också vara en anledning till att det är svårt att ta fram styrdokument för området. Avsaknaden av styrdokument kan även bero på att myndigheterna hanterar AI-satsningar på samma sätt som övriga utvecklingsprojekt inom it-området och därför inte har styrdokument som specifikt berör AI.

Vi noterar att det ser olika ut på myndigheterna beroende på var de befinner sig i sin AI-utveckling. Det finns myndigheter som har arbetat med AI under en lång tid och i relativt stor omfattning, och som arbetar mer strategiskt med AI-frågorna. Skatteverket är ett exempel på en myndighet som var tidigt ute med digitalisering och automatisering och på senare år även med AI. Skatteverket har upprättat en särskild AI-policy och har även inrättat ett särskilt AI-råd. I policyn uttrycker Skatteverket att myndigheten har höga ambitioner inom AI-användning. Skatteverket anser att förtroendet för myndigheten kan öka i och med AI eftersom verksamheten kan bli mer effektiv och rättssäker och att det kan bli lättare att bekämpa fusk och oegentligheter. Skatteverket ska enligt policyn samtidigt beakta etiska och samhälleliga risker med att använda AI.[53]

Det finns flera likheter mellan utveckling av AI-tillämpningar och övriga it-utvecklingsprojekt, men det finns också skillnader. En risk med att flera myndigheter inte har tagit fram styrdokument som särskilt hanterar AI är att de missar att uppmärksamma de särskilda AI-riskerna i tillräckligt hög utsträckning. I SCB:s undersökning svarade många myndigheter att bristen på en AI-vision eller AI-strategi samt frågor om datasäkerhet och integritet är ett stort hinder för dem när det gäller att använda AI.[54]

Få myndigheter följer upp AI-satsningar

En aspekt som särskiljer utvecklingen av AI från andra typer av digitalisering är att AI-system och dess resultat i högre grad regelbundet behöver testas, utvärderas, valideras och verifieras för att upptäcka felaktigheter och snedvridning. Det beror på att många AI-system kontinuerligt tränas på nya data och därför förändras med tiden. Det innebär att tillämpningarna behöver kontrolleras mer löpande än när myndigheter sjösätter andra it-utvecklingssystem.

De myndigheter som vi har intervjuat som använder AI för mer riskfyllda ändamål som beslutsstöd i myndighetsutövning gentemot enskilda betonar starkt vikten av att testa, validera och verifiera genom hela processen, inklusive de förändringar som sker efter att tillämpningen tagits i bruk. Men vi har inte tagit del av detaljerna kring hur detta går till.

Vi har inte funnit så många konkreta exempel på uppföljningar eller utvärderingar. Vi kan också konstatera att bristande uppföljning har varit ett problem även när det gäller andra former av automatiserat beslutsfattande. Riksrevisionen konstaterade 2020 att de tre myndigheter som ingick i deras granskning (Transportstyrelsen, Försäkringskassan och Skatteverket) brast när det gäller kontroll och uppföljning av de automatiserade besluten. Detta har fått till följd att myndigheterna inte har tillräckligt goda förutsättningar att upptäcka och åtgärda felaktiga beslut.[55] Även DO har kartlagt myndigheternas arbete med risker. DO har dragit slutsatsen att myndigheterna nästan helt saknar ett diskrimineringsperspektiv när de tar fram de automatiska beslutsprocesserna.[56] AI är svårare att kontrollera än annat automatiserat beslutsfattande eftersom AI kan vara självlärande och förändringar i algoritmerna kan göra att nya typer av felaktigheter kan uppstå med tiden. Det kan därför vara svårt att i efterhand spåra eventuella fel. Brister i uppföljningen av AI-systemen riskerar därmed att leda till ännu större problem än när det gäller andra former av automatiserat beslutsfattande.

Få myndigheter utvärderar AI-satsningar

Flera myndigheter pekar på den stora nytta som de bedömer att AI kan innebära för deras verksamheter. Men samtidigt kan vi konstatera att vi inte har funnit någon utvärdering som tydligt visar vilka positiva effekter en AI-satsning har fått. Det innebär att det är svårt att belägga att AI‑initiativen faktiskt leder till den förväntade effektiviseringen. Detta problem är inte unikt för användningen av AI. Exempelvis Statskontoret har tidigare uppmärksammat samma sak när det gäller digitalisering i statsförvaltningen. Erfarenheterna från statliga myndigheters digitaliseringsprojekt visar att förväntningar om effektivisering och kostnadsbesparing relativt ofta inte infrias, alternativt att det tar betydligt längre tid än vad myndigheten har förutsett.[57]

I våra intervjuer med myndigheter framkommer att det finns flera omständigheter som gör att denna typ av beräkningar är extra svåra att göra när det gäller AI. Det gäller både för nyttoberäkningar på förhand och för att i efterhand utvärdera satsningen.

Det är till exempel extra svårt att på förhand veta om det är möjligt att skala upp en AI-tillämpning, eller om det kommer att uppstå problem längs vägen som gör att myndigheten måste dra tillbaka satsningarna. Det är också först när en tillämpning skalas upp som de verkliga nyttorna uppstår. Ett begrepp som återkommer under våra intervjuer är ”pilotkyrkogård”, det vill säga pilotprojekt som testas men som sedan avbryts av olika anledningar och som därför inte blir möjliga att testa i full skala. Dessutom är det oklart när det går att bedöma den verkliga nyttan efter att tillämpningen väl har tagits i bruk. En viktig ingrediens i många tillämpningar är ju att de ska tränas till att bli allt bättre efterhand. Fullskaliga utvärderingar är dessutom ofta omfattande att genomföra och därför uppstår frågan när det är rätt tillfälle att göra en sådan.

Det finns tecken på högre medvetenhet om riskerna

De myndigheter som vi har varit i kontakt med är medvetna om vilka risker som finns med att använda AI. De försöker också hantera riskerna med AI på olika sätt. Vi beskriver här några exempel som myndigheterna själva har lyft fram.

Myndigheterna skyndar långsamt

Som vi beskriver i kapitel 2 och 3 använder de flesta myndigheter än så länge AI inom områden som inte medför betydande risker för enskilda. Flera myndigheter har också aktivt valt att avvakta med att investera i AI‑satsningar. Det kan finnas flera olika skäl för detta. Ett exempel är Kriminalvården som ännu inte använder AI i sin verksamhet men som har tagit fram en digitaliseringsstrategi och en handlingsplan där de även inkluderar AI. Myndighetens strategi är verksamhetsorienterad och fokuserar på de behov som finns i verksamheten utan att gå in på vilka specifika tekniker som skulle kunna möta de behoven.

Det faktum att en myndighet väljer att inte använda AI kan i sig också vara ett uttryck för att myndigheten är medveten om vilka risker som finns och därmed bedömer att AI inte är ett lämpligt verktyg för dem.

Vår studie visar även att de myndigheter som använder AI är medvetna om att det skulle gå att öka användningen ytterligare men att det inte är självklart att de för den skull bör gå i den riktningen. Sådana resonemang stöter vi på bland myndigheter som använder AI inom mer riskfyllda områden, till exempel som stöd i beslutsprocesser och riskbedömningar. Myndigheterna bedömer i dessa fall att riskerna är för stora i förhållande till nyttan med satsningarna.

Diskussionen om AI är levande inom och mellan myndigheterna

Vår studie visar att frågan om AI är en aktuell och levande diskussion inom många myndigheter i dag. Det gäller både bland de myndigheter som funderar på att börja använda AI och de som redan använder sig av tekniken.

Det finns också flera frivilliga samarbetsprojekt inom statsförvaltningen. Ett exempel är eSam som är ett medlemsdrivet program för samverkan mellan 38 myndigheter som har valt att fortsätta samarbetet kring digital utveckling efter att E-delegationen slutförde sitt regeringsuppdrag 2015. Under verksamhetsåret 2023/2024 har medlemmarna ett stort fokus på AI. Ett annat exempel är AI-nätverket för myndigheter, som startade 2018 och som syftar till att utbyta erfarenheter mellan myndigheter som testat och utvecklat olika AI-lösningar och andra som ligger i startgroparna.

Vi uppfattar också att myndigheterna är mer medvetna om riskerna med AI i dag än för bara några år sedan och aktivt arbetar för att hantera dessa risker. Våra kontakter med eSam och Digg bekräftar detta. Vår bild är att myndigheterna exempelvis arbetar med både spårbarhet och transparens men att det inte är självklart vad som bör vara transparent. Myndigheterna har i regel inga närmare beskrivningar av vilka AI-verktyg som de använder och hur dessa fungerar. Men vissa myndigheter beskriver ändå på sina webbplatser att de använder AI. Vi har även funnit exempel på mer detaljerade beskrivningar av AI-modeller. Men dessa kan vara svåra att förstå för personer som inte har fördjupad kompetens inom digitalisering och AI.

Mänskliga kontrollfunktioner

Ett sätt att hantera risken för att AI genererar felaktiga underlag är att låta människor vara delaktiga i processen och bevaka det arbete som AI utför. ”Human in the loop” är ett begrepp som flera myndigheter återkommer till och som beskriver samspelet mellan den mänskliga och den artificiella intelligensen. Grundtanken är att människan och datorn kompletterar varandra och att tjänstepersoner behöver korrigera fel och lösa problem när AI inte räcker till. På så sätt kan man säga att myndigheterna bygger in mänskliga kontrollfunktioner.

I vår intervju med Arbetsförmedlingen framgår att de har verksamhetsexperter som är delaktiga i att utveckla bedömningsstödet som används för att avgöra vilken typ av stöd som en arbetssökande ska få. Myndigheten anser att det är viktigt att det alltid är medarbetare som är väl insatta i verksamheten som arbetar med att förbättra algoritmerna och att de undersöker utfallet av förändringarna noggrant innan de tas i bruk.

En annan fråga som är aktuell för myndigheter som använder AI som stöd vid beslutsfattande är i vilken grad medarbetarna bör följa rekommendationerna i de AI-genererade underlagen. Den här aspekten diskuteras även i andra studier. Carlsson, Rönnblom och Öjehag‑Petterson konstaterar exempelvis att i takt med att offentlig sektor inför AI blir tjänstepersoners roll mer att legitimera redan fattade beslut än att göra egna, självständiga bedömningar.[58]

Våra intervjuer vittnar om att det även inom myndigheterna kan finnas olika uppfattningar om AI och att det är en balansgång som inte är helt lätt att göra. Om en myndighet har tagit fram ett beslutsstöd som ska effektivisera beslutsfattandet är det en fördel att de anställda följer rekommendationerna som systemet tar fram. Men det är samtidigt viktigt att de anställda kan avvika från rekommendationerna om de gör en annan bedömning än stödet utifrån sin professionella yrkesroll. En anställd inom Arbetsförmedlingen lyfter till exempel fram att det kan finnas flera andra parametrar som är viktiga att ta hänsyn till i bedömningen, och att AI‑systemen inte nödvändigtvis lyckas fånga upp dem. De myndigheter som använder AI på detta sätt betonar också vikten av att det är en mänsklig handläggare som ska fatta det avgörande beslutet. Att det finns olika syn på vilken kunskap som bedömningar ska grundas på är också en aspekt som lyfts fram i forskningen inom området. Vissa forskare anser att AI gör bedömningar mer effektiva och opartiska eftersom de bygger på objektiva data. Andra forskare ifrågasätter detta och pekar på att AI‑genererade slutsatser missar mycket av den komplexitet som individuellt anpassade åtgärder kräver.[59]

Externa faktorer påverkar myndigheternas möjligheter att använda AI framöver

Myndigheterna behöver alltså hantera de risker som följer av att de själva använder AI. Men myndigheterna berörs också av externa faktorer som påverkar deras möjligheter att använda AI framöver.

Kompetensbrist är en utmaning för myndigheterna

I nästan samtliga av våra intervjuer framgår att kompetensbrist är ett hinder för att öka myndigheternas utveckling och användning av AI. Det gäller såväl teknisk som juridisk kompetens men även kompetens om utveckling av AI i kombination med kunskap om verksamheten.[60] Detta lyfter även tidigare studier fram. SCB publicerade en rapport 2023 som delvis baserades på en enkätundersökning till myndigheter. SCB undersökte vad som utgjorde hinder för myndigheternas användning av AI. Bland de vanligaste hindren för att använda AI var bristande kunskap om tillgängliga AI-tekniker samt de anställdas kompetens, utbildning eller erfarenhet.

Kompetensbristen medför också att myndigheterna kan bli beroende av konsulter för att utveckla och tillämpa AI-lösningar vilket kan driva upp deras kostnader. Detta är en särskilt stor utmaning för små myndigheter som har få medarbetare och mindre anslag. Det finns en rad aspekter som myndigheterna behöver ta hänsyn till som rör avtal, upphovsrätt, upphandling och säkerhet. Det gäller inte minst när myndigheter köper in system utvecklade av privata aktörer, eller anlitar privata aktörer för att utveckla interna system.

Myndigheterna upplever att rättsläget är otydligt i vissa delar

De myndigheter som vi har varit i kontakt med upplever att det finns flera oklarheter när det gäller juridiken som omgärdar AI i statsförvaltningen. De anser att det skapar osäkerhet i myndigheterna kring vad de faktiskt får göra inom området. 2018 infördes en uttrycklig bestämmelse i förvaltningslagen om att myndigheters beslut får ske automatiserat.[61] Tidigare var det inte helt tydligt när förvaltningsbeslut får fattas på automatiserad väg. Genom att lagen nu slår fast att beslut kan fattas automatiserat behövs det inte någon reglering i en specialförfattning för att en myndighet ska kunna använda denna beslutsform. Men förvaltningslagen innehåller inga specifika bestämmelser om användning av AI i automatiskt beslutsfattande.

En oklarhet handlar om vilken data som myndigheterna får använda för att träna AI-verktygen med, samt om och hur myndigheterna får dela data med varandra. Om en myndighet vill samköra data från två eller flera register vars data har olika ändamål finns det en risk att de bryter mot den så kallade finalitetsprincipen. Registerdata om en person som har ett ärende hos en myndighet kan ha betydelse för hur en annan myndighet ska besluta i ärendet. Det kan därför vara viktigt för myndigheter att kunna ta del av andra myndigheters registerdata. Av flera intervjuer framgår att det är svårt att juridiskt avgöra vilka personuppgifter som får samköras. Det finns en rädsla att bryta mot finalitetsprincipen och här efterfrågas mer juridisk vägledning.

Regeringen har tillsatt flera utredningar som har haft i uppdrag att klargöra rättsläget och föreslå förändringar av regelverket när det gäller dataskydd och datadelning.[62]

Det är oklart hur AI-förordningen kommer att påverka statsförvaltningen

Under arbetet med denna rapport förhandlar EU:s medlemsstater om en AI-förordning. Arbetet med att ta fram ett EU-gemensamt regelverk för AI har pågått i flera år. Efter att ha tagit fram flera olika typer av mjuka styrformer i form av AI-strategier, riktlinjer och rekommendationer lade EU-kommissionen fram ett förslag till AI-förordning i april 2021. Förslaget syftar till att säkerställa att AI-system på EU:s inre marknad är säkra, respekterar mänskliga rättigheter och underlättar för innovation och investering inom AI.

Den EU-gemensamma lagstiftningen kommer att reglera användningen av AI-system med en riskbaserad modell. Modellen innebär att viss användning kan förbjudas och annan tillåtas med restriktioner och krav i form av bland annat tillsyn och registrering. Det är främst AI-system med hög risk som nu får krav på transparens, kvalitetssäkring och möjlighet till granskning. Det handlar bland annat om krav på teknisk dokumentation och att införa ett riskhanteringssystem, liksom krav på datahantering och datakvalitet.[63]

Det är ännu oklart hur AI-förordningen kommer att påverka statsförvaltningen, men den kommer sannolikt att få en stor betydelse för hur statsförvaltningen kommer att använda AI. Det finns redan i dag flera AI-system i bruk i statsförvaltningen som potentiellt når upp till definitionen av system med hög risk, och som därmed kommer att omfattas av strikta krav innan de får användas.[64] Flera myndigheter framhåller också i sina remissvar om den nya AI-förordningen att nya regleringar och krav inom området riskerar att hämma innovation och möjligheten att dra fördel av modern teknik. Andra aspekter som myndigheterna lyfter fram är att förordningen riskerar att öka myndigheternas administrativa börda.

Samtidigt kan förordningen också bidra till att hantera de risker som vi nämner i denna rapport. Regleringen kan också bidra till att skapa en ökad tydlighet och därmed förbättra myndigheternas förutsättningar att utveckla AI-satsningar framöver.

Regeringens preliminära ståndpunkt är att de är positiva till EU-förordningen och stödjer inriktningen att ta fram regler. Men regeringen anser att reglerna måste vara proportionerliga och ändamålsenliga och inte förhindra innovation och utveckling. Tillgång till data, säker datadelning samt möjligheten att experimentera och forska är viktiga förutsättningar för att använda AI. Regeringen har också lyft fram att det är viktigt att regleringen inte försämrar svenska myndigheters förmåga att bedriva effektiv brottsbekämpning eller deras arbete med nationell säkerhet.[65]

Vid skrivandet av denna rapport är det sista steget av lagstiftningsarbetet i gång, och förordningen kommer att beslutas under våren 2024. Kommissionen har föreslagit att AI-förordningen ska börja gälla 24 månader efter att den har trätt i kraft.

Flera myndigheter uttrycker behov av samordning

En synpunkt som flera myndigheter lyfter fram i vår studie är att det är otydligt vem som förväntas samordna AI-frågorna och driva utvecklingen framåt. De utmaningar som myndigheterna möter är i stor utsträckning gemensamma för flera myndigheter och det skulle därför vara en fördel om myndigheterna skulle arbeta gemensamt i större utsträckning. Därför har också flera myndigheter valt att samarbeta på frivillig basis. Men de myndigheter som vi har talat med anser att det är svårt för enskilda myndigheter att driva samverkan och avsätta resurser för konkreta åtgärder utan regeringsuppdrag.

Regeringen har tidigare gett flera myndigheter uppdrag inom AI-området. Under åren 2021–2023 hade Arbetsförmedlingen, Bolagsverket, Digg och Skatteverket ett regeringsuppdrag (även kallat det nationella AI-uppdraget) om att främja den offentliga förvaltningens användning av AI.[66] Men både Digg och de deltagande myndigheterna bedömer att det påbörjade arbetet inte är tillräckligt för att uppnå regeringens mål. Myndigheterna lyfter fram att den offentliga förvaltningen fortfarande behöver stöd, bland annat i form av guider och exempel på användningsområden för AI, liksom stöd kring hur de ska förbereda sig inför den kommande AI-förordningen.

AI-frågorna är också en integrerad del av arbetet med att ta fram en förvaltningsgemensam digital infrastruktur (Ena). Digg har sedan 2019, tillsammans med flera andra myndigheter, haft i uppdrag att etablera en sådan infrastruktur. I samband med det nationella AI-uppdraget påbörjade myndigheterna ett arbete med två så kallade AI-byggblock: en översättnings- och en transkriberingstjänst. Enligt planen ska båda tjänsterna ingå i den etablerade Ena-strukturen.[67] Enligt de inblandade myndigheterna skulle dessa tjänster skapa stor nytta hos många offentliga aktörer, och de anser därför att det är viktigt att fortsätta detta arbete. Det senaste uppdraget som rör den förvaltningsgemensamma digitala infrastrukturen Ena slutrapporterades i januari 2023. Sedan dess har Digg och de andra berörda myndigheterna arbetat vidare med infrastrukturen, men Digg uppger att det är svårare att bedriva arbetet utan något uppdrag.[68]

Regeringen har också initierat andra satsningar på området. Ett exempel är att inrätta AI-kommissionen, som ska identifiera behov av och lämna förslag på åtgärder som kan bidra till att stärka både utvecklingen och användningen av AI i Sverige. I uppdraget ingår bland annat att analysera förutsättningarna för och föreslå hur användningen av AI i offentlig förvaltning kan utvecklas genom policyutveckling, samverkan samt digitalisering av kärnprocesser och standardiserade modeller. Kommissionens arbete är ännu i uppstartsfasen och uppdraget ska slutredovisas i juli 2025.

Statskontorets slutsatser

I detta kapitel redogör vi för våra slutsatser om hur statsförvaltningen använder AI. Vi presenterar även våra reflektioner kring vad statliga myndigheter och regeringen kan göra för att ta vara på potentialen som finns med AI och samtidigt hantera de risker som följer med användningen.

Statsförvaltningen befinner sig i ett slags vänteläge

Vår studie visar att myndigheterna har kommit olika långt när det gäller att använda AI. Flera myndigheter befinner sig än så länge i ett utforskande läge, medan andra har kommit längre. Det finns en stor variation i på vilket sätt, för vilka ändamål och i vilken omfattning som myndigheterna använder AI, men sammantaget ser de stor potential med tekniken. Myndigheterna anser att de kan öka effektiviteten, rättssäkerheten och tillgängligheten genom att använda AI. Samtidigt är det vår bild att statsförvaltningen som helhet befinner sig i ett slags vänteläge i förhållande till den tekniska utvecklingen inom AI.

Statskontoret bedömer att vänteläget följer av att det är osäkert om och på vilket sätt de kan använda AI. Gemensamt för de myndigheter som har ingått i vår studie är till exempel att de upplever en osäkerhet kring vilka förutsättningar som kommer att finnas för att använda AI i framtiden. En annan faktor som bidrar till osäkerheten är brist på kompetens och kunskap om AI.

Det osäkra läget kan vara en orsak till att myndigheter väljer att skynda långsamt. Samtidigt bedömer vi att myndigheternas vägval får konsekvenser för dem och för statsförvaltningen som helhet, vare sig det handlar om att avvakta eller om att ta sig an utvecklingen fullt ut.

Att skynda långsamt kan vara klokt ibland

Än så länge är det inte så vanligt att använda AI i statsförvaltningen som helhet. Myndigheterna skyndar över lag långsamt. Det behöver inte nödvändigtvis vara negativt. Det kan vara ett uttryck för att myndigheterna är medvetna om de risker som finns med AI och därför inte vill sjösätta AI-satsningar som riskerar att gå emot principerna i den statliga värdegrunden. Vi lyfter i denna rapport fram att det finns sådana risker med användningen av AI i statsförvaltningen, framför allt när AI används i processer som påverkar enskilda individer, till exempel i stöd vid beslut i myndighetsutövning och riskbedömningar för att förhindra fel och brottslig verksamhet.

Vår undersökning visar också att det kan finnas andra skäl till att myndigheterna avvaktar med att börja använda AI eller att använda AI mer. Hit hör exempelvis kompetensbrist. Det gäller teknisk och juridisk kompetens samt kompetens om utveckling av AI i kombination med kunskap om verksamheten. Myndigheterna lyfter också fram att de upplever att rättsläget är otydligt på flera punkter vilket gör att de är osäkra på vad de kan och får göra. Myndigheterna är även osäkra på i vilken grad EU:s kommande AI-förordning kommer att påverka deras AI‑satsningar. Det kan vara en förklaring till att myndigheterna väljer att invänta kommande regleringar i stället för att investera i AI-satsningar som de sedan kan behöva dra tillbaka.

Väntan kan också leda till nya risker

Det kan alltså vara klokt att inta en avvaktande position när det gäller att använda AI i verksamheten. Men detta förhållningssätt kan också innebära nya risker. En uppenbar risk är att myndigheterna missar den potential som finns med AI.

Myndigheter som är alltför avvaktande till att använda AI riskerar också att bli passiva i förhållande till den snabba teknikutvecklingen och missa möjligheten att skaffa sig viktig kunskap och erfarenhet inför framtiden. En sådan strategi ligger inte heller i linje med regeringens ambition att Sverige ska vara ledande i att ta till vara de möjligheter som användning av AI kan ge.

Alla myndigheter behöver tänka strategiskt kring AI

Av budgetlagen och myndighetsförordningen följer att alla myndigheter ska bedriva verksamheten effektivt och hushålla väl med statens medel. Detta kräver ett ständigt arbete med att få syn på och säkerställa förbättring och effektivisering i verksamheten. Därför behöver myndigheterna vara öppna för att ta tillvara de möjligheter som ny teknik ger. Vi noterar att de myndigheter som i dag använder AI betonar vikten av att följa med i teknikutvecklingen för att effektivisera verksamheten. Detta kan vara ett tecken på att regeringens ambition att Sverige ska vara ledande i att ta till vara möjligheterna med AI ändå har fått genomslag på några myndigheter.

Statskontoret har också tidigare konstaterat att innovation som värde och ledord har etablerats tydligare i förvaltningen under senare år.[69] I en intervju uttrycktes detta som att det är en myndighets skyldighet att utforska möjligheterna med AI, eftersom AI rätt använd kan leda till att verksamheten blir mer effektiv. Det kan i sin tur innebära stora förbättringar för samhället och göra att myndigheterna kan hushålla bättre med statens resurser.

Men alla myndigheter behöver inte heller följa samma väg. Statsförvaltningen är heterogen och myndigheterna behöver därför hitta lösningar som är anpassade efter deras olika verksamheter och förutsättningar. Det är rimligt att vissa myndigheter, som till exempel Skatteverket som ser större nytta av AI i sin verksamhet och som har förutsättningar att göra egna satsningar går före. Det kan också vara rimligt att statsförvaltningen sammantaget inte strävar efter att inta en framskjuten position i teknikutvecklingen.

Samtidigt bedömer Statskontoret att det är viktigt för alla myndigheter att tänka strategiskt kring användningen av AI, oavsett om de använder AI eller inte. Med detta menar vi att myndigheterna behöver förstå och förhålla sig till teknikutvecklingen och analysera om och på vilket sätt AI kan vara – eller inte vara – ett verktyg för att genomföra det uppdrag som respektive myndighet har på ett bättre sätt.

Vi ser även att det kan finnas olika uppfattningar inom en och samma myndighet om vägvalen när det gäller AI, exempelvis om hur medarbetare ska förhålla sig till beslutsunderlag som är framtagna med hjälp av AI. Även det faktum att det finns olika tolkningar om vad som är att betrakta som AI visar att frågan är komplex för myndigheterna. Statskontoret har i flera rapporter beskrivit hur bristande samsyn inom myndigheter i frågor som rör myndighetens uppdrag och hur det bäst genomförs, kan få negativa effekter för den berörda myndigheten. Personalen kan dra åt olika håll, eller åt ett annat håll än myndighetsledningen, och det kan bli svårt att nå samsyn om myndighetens vägval.[70]

Det är en stor fördel om både ledningen, chefer och medarbetare har en gemensam förståelse för myndighetens roll i samhället och hur de bör arbeta för att uppnå verksamhetens mål. AI kan vara ett av flera verktyg att använda för att nå verksamhetens mål. Men myndigheterna behöver vara säkra på att deras AI-användning fungerar på det sätt som det är tänkt och utan att principerna i den statliga värdegrunden äventyras. Myndigheterna behöver därför arbeta brett med frågan om hur de kan ta vara på de möjligheter som AI ger och samtidigt minska risken för de utmaningar som AI innebär, när de genomför det egna uppdraget. Med ett brett arbetssätt menar vi att myndigheterna behöver sträva efter att involvera olika nivåer och kompetenser i arbetet. Vi bedömer att ett strategiskt arbete kring myndigheternas användning av AI kan bidra till ökad samsyn internt på myndigheterna, och i förlängningen underlätta arbetet för en god förvaltningskultur.

Myndigheter som använder AI behöver arbeta aktivt med principerna i den statliga värdegrunden

När myndigheter använder sig av AI är det viktigt att arbeta aktivt med att samtidigt säkerställa att principerna som uttrycks i den statliga värdegrunden efterlevs. Det gäller såväl inför, under och efter genomförandet av AI-satsningar. Det handlar inte minst om att ta hänsyn till principerna om effektivitet och service, objektivitet och legalitet men även principerna om fri åsiktsbildning, respekt och demokrati. Vi ger här några medskick till myndigheter som använder eller planerar att använda AI framöver.

Testa, följ upp och utvärdera för att säkerställa att principerna följs

AI har förutsättningar att öka både effektivitet och rättssäkerhet i statsförvaltningen. Flera myndigheter anger ökad rättssäkerhet som ett av syftena med sina AI-satsningar. Rätt utformad kan AI exempelvis minska riskerna för diskriminering vid myndighetsutövning eftersom AI har förutsättningar att vara objektiv. Men om det finns en inbyggd partiskhet i de data som styr tillämpningen kan AI-användningen i stället öka diskrimineringen. Därför är det viktigt att myndigheterna gör noggranna tester av sina AI-satsningar innan de införs i verksamheten.

Det är också viktigt att myndigheterna gör regelbundna uppföljningar även efter att de har infört AI, för att säkerställa att det blev som det var tänkt. Det gäller i synnerhet AI-satsningar inom riskfyllda områden, till exempel när tillämpningarna handlar om verksamhet som påverkar enskilda. Men vi vill understryka att långt ifrån alla AI-satsningar i statsförvaltningen medför stora risker. Vi vill även påpeka att flera av riskerna med AI även kan uppstå till följd av annan teknik eller på grund av mänskliga beslut.

Det är också viktigt att myndigheterna genomför systematiska utvärderingar för att bedöma om satsningarna har lett till förväntade effektiviseringar och ökad rättssäkerhet. Om en myndighet till exempel genomför en AI-satsning i syfte att effektivisera vissa arbetsmoment behöver den följa upp hur effektiviteten har utvecklats. Först då kan myndigheten ta tillvara eventuella resurser som har frigjorts och fatta beslut om hur exempelvis tidsbesparingar ska användas. Detta har Statskontoret även lyft fram i andra rapporter.[71] Utvärderingar som belyser både positiva och negativa aspekter av tillämpningarna, är viktiga ur ett lärandesyfte både för den egna myndigheten och för andra myndigheter. Det är naturligt att myndigheter utvecklar AI-lösningar i olika takt och att de som har kommit längst delar med sig av sina erfarenheter till övriga myndigheter.

Flera myndigheter betonar vikten av uppföljningar och utvärderingar och att det är viktigt att sprida erfarenheterna av att använda AI. Ändå har vi inte funnit mycket dokumentation i vår studie som bekräftar att detta händer i praktiken. Vi noterar också att flera myndigheter beskriver att många av AI-satsningarna hamnar på en så kallad ”pilotkyrkogård” när det av olika anledningar visar sig att det inte är möjligt att gå vidare och skala upp pilotprojekt. Det gör att det är svårt att med säkerhet säga att myndigheternas AI-satsningar är effektiva. För att kunna göra detta behövs mer djupgående analyser av resultaten i relation till de använda resurserna.

Statskontoret bedömer därför att myndigheterna behöver dokumentera, följa upp och utvärdera sina AI-satsningar i större utsträckning än idag. Denna typ av utvärderingar kan också bidra till att skapa en helhetsbild av statsförvaltningens investeringar inom området. Statskontoret har tidigare lyft fram att regeringen saknar en sådan helhetsbild.[72]

Transparens och insyn viktigt för att vinna allmänhetens förtroende

Vår studie visar också att det är viktigt att myndigheterna säkerställer transparens och insyn när de använder sig av AI. Myndigheterna måste följa förvaltningslagens och tryckfrihetsförordningens krav på insyn. Detta är en viktig skillnad mellan offentlig förvaltning och andra samhällssektorer.

Det handlar bland annat om möjligheten att kunna utkräva ansvar efter beslut och att vinna allmänhetens förtroende för myndigheterna och för statsförvaltningen som helhet. Även om myndigheterna kan visa att AI förbättrar deras verksamhet är det inte säkert att detta vinner allmänhetens förtroende. Här spelar även allmänhetens inställning till AI in. Det finns få empiriska studier som undersöker individers inställning till AI i offentlig sektor.[73] Det finns en risk att det kan uppstå ett glapp mellan myndigheter som använder AI och vissa individers negativa uppfattningar om AI.

Statskontoret anser att det är viktigt att myndigheterna tar hänsyn till dessa aspekter. Myndigheterna kan till exempel på ett lättfattligt sätt tillhandahålla information om varför och hur de använder AI. Det är också viktigt att enskilda så långt det är möjligt kan få information om hur just hens ärende har behandlats när AI på något sätt är inblandat.

Regeringen har en viktig roll för att driva utvecklingen

Vår studie visar att myndigheterna upplever likartade utmaningar när det gäller användningen av AI. Vi anser att regeringen har en viktig roll för att driva utvecklingen framöver. Vi vill lyfta fram några aspekter där regeringen kan underlätta arbetet för myndigheterna.

Det handlar dels om att myndigheterna upplever att lagstiftningen är komplex och i vissa delar otydlig. Det gäller exempelvis vad myndigheterna får och inte får göra när det gäller att dela data med varandra och experimentera för att utveckla olika AI-lösningar. De är också osäkra på i vilken utsträckning som EU:s förordning om AI kommer att påverka deras möjligheter att genomföra AI-satsningar. Vi bedömer att myndigheternas osäkerhet bidrar till det vänteläge som myndigheterna befinner sig i. Vi noterar samtidigt att regeringen har tillsatt utredningar och också bereder förslag som delvis berör dessa frågor. Men vi anser att det är viktigt att regeringen fortsätter att fånga in signaler från myndigheterna om regelverk som behöver ses över och anpassas så att dessa inte står i vägen för en ändamålsenlig användning av AI. Samtidigt behöver regeringen också själv bevaka riskerna med AI.

Det finns stora samordningsvinster för statsförvaltningen med att myndigheter samarbetar kring AI-frågor. Men flera myndigheter upplever att det är otydligt vem som förväntas samordna AI-frågorna, till exempel att föreslå förvaltningsgemensamma AI-tjänster och driva utvecklingen framåt. Även om det i dag redan finns samverkansprojekt på frivillig basis är det svårt för myndigheterna att avsätta tillräckliga resurser för att samverka och genomföra konkreta åtgärder. Detta är särskilt ett problem för små myndigheter. Dessa har generellt svårare att utveckla egna AI‑lösningar och skulle därför exempelvis ha nytta av att ta del av förvaltningsgemensamma AI-tjänster. Men det tycks även vara svårt för Digg att få andra myndigheter att delta i den här typen av arbete utan att Digg eller berörda myndigheter har något regeringsuppdrag.[74] Det finns också en risk att det uppstår onödiga kostnader i statsförvaltningen när flera aktörer genomför liknande satsningar parallellt. En annan risk är att påbörjade satsningar inte blir färdigställda. Sammantaget visar detta att styrningen av AI-relaterade frågor är en utmaning för myndigheterna och att regeringen har en roll att tydliggöra riktningen och ambitionsnivån i arbetet.

Statskontoret har tidigare lyft fram regeringens utmaningar när det gäller styrningen av tvärsektoriella frågor. Digitaliseringsområdet och användningen av AI är av detta slag. Välkända styrningsutmaningar ställs på sin spets i frågor som spänner över flera sektorer i förvaltningen. Ett problem i arbetet med dessa frågor är till exempel att myndigheter ofta prioriterar mål inom den egna verksamheten framför tvärsektoriella mål.[75] Vi noterar att regeringen har tagit initiativ inom området, bland annat genom att tillsätta AI-kommissionen. Men vi bedömer att det finns skäl för regeringen att förtydliga styrningen av myndigheternas roll inom området. Hit hör exempelvis att tydliggöra vilken eller vilka myndigheter som bör ansvara för att samordna eventuella gemensamma AI-satsningar i statsförvaltningen.

Referenser

Akavia. (2023). Akademiker och algoritmer. Hur artificiell intelligens (AI) påverkar arbetsmarknaden för akademiker. Rapport 2024.

Arbetsförmedlingen. (2021). Remissyttrande: Europeiska kommissionens förslag till förordning om harmoniserade regler för artificiell intelligens. Af-2021/0042 5886.

Arbetsförmedlingen; Presentation för Statskontoret 2023-12-15; Powerpoint.

Arbetsförmedlingen. (2023). Arbetsförmedlingens nya modell för bedömning av arbetssökandens stödbehov. Af-2023/0068 0370.

Björkman, F. (2021). AI-revolutionen. Så blir Sverige mer intelligent. Polaris fakta.

Bolagsverket. (2022). Svenska folket och AI.

Carlsson, V. (2023). Legal certainty in automated decision-making in welfare services, Public Policy and Administration 2023, Vol. 0(0) 1–20.

Carlsson, V., Rönnblom M. och Öjehag-Pettersson, A. (2023). Automated decision-making in the public sector. I: Lindgren, S. (red.). (2023). Handbook for Critical Studies of Artificial Intelligence. Edward Elgar Publishing.

Denk, Hedström & Karlsson. (2019). Medborgarna och automatiserat beslutsfattande. I: Andersson, U., Rönnerstrand, B., Öhberg P. & Bergström, A. (red.), Storm och Stiltje: SOM-institutets 74:e forskarantologi (s. 183–196). Göteborg: SOM-institutet.

Diskrimineringsombudsmannen. (2022). Transparens, träning och data. Myndigheters användning av AI och automatiserat beslutsfattande samt kunskap om risker för diskriminering. Rapport 2022:1.

eSam. (2024). AI – Utvecklingsprocessen och data. ES2024-01.

eSam. (2022). Samverkan kring tillämpad AI.

eSam. (2022). Checklista. Juridik vid användning av AI. ES2022-08.

eSam. (2024). AI – Utvecklingsprocessen och data, ES2024-01.

Ekonomistyrningsverket. (2022). Myndigheternas arbete med rättsliga kvalitetsuppföljningar. Översikt och utvecklingsmöjligheter. 2022:46.

Ekonomistyrningsverket. (2023). Verksamhetsstyrande och andra anslagsvillkorAutomatisk klassificering av innehåll i regleringsbrev 2005–2023, Rapport 2023:42.

Equinet. (2022). Dutch Childcare Allowance Scandal: the importance of Investigation Powers.

Förslag till Europaparlamentets och Rådets förordning om harmoniserade regler för artificiell intelligens. COM (2021) 206 final.

Försäkringskassan och AI – Försäkringskassan (forsakringskassan.se). (Hämtad 2024-02-12).

Jämställdhetsmyndigheten. (2020). Artificiell intelligens och jämställdhet. En dialog om jämställdhetspolitikens genomförande i och med statliga myndigheters pågående eller kommande AI-resa.

Kaun, A., Larsson A. & Masso, A. (2024). Automating public administration: citizens’ attitudes towards automated decision-making across Estonia, Sweden, and Germany. Information, Communication & Society. Vol. 27(2), 314–332.

Kungliga biblioteket. (2020-02-04). KB tillgängliggör kraftfulla modeller för språkförståelse – Kungliga biblioteket – Sveriges nationalbibliotek – kb.se. (Hämtad 2024-02-20).

Larsson, S., & Ledendal, J. (2022). AI i offentlig sektor: Från etiska riktlinjer till lagstiftning. I: K. de Vries, & M. Dahlberg (red.), De Lege årsbok 2021: Law, AI & Digitalization (s. 467–495). (De Lege årsbok; Vol. 2021). Iustus förlag.

Myndigheten för digital förvaltning (Digg). (2019). Testa ny teknik för automatisering av offentlig förvaltning.

Myndigheten för digital förvaltning (Digg). (2020). Främja den offentliga förvaltningens förmåga att använda AI. Delrapport. I2019/01416/DF || I2019/01020/DF.

Myndigheten för digital förvaltning (Digg). (2023). Uppdrag att främja offentlig förvaltnings förmåga att använda artificiell intelligens. Slutrapport. I2021/01825.

Polisen. Bildanalys och AI hjälper polisen lösa brott. Linda arbetar med it-stöd | Polismyndigheten (polisen.se). (Hämtad 2024-01-16).

Prop. 2016/17:180. En modern och rättssäker förvaltning ny förvaltningslag.

Prop. 2023/24:1. Utgiftsområde 22 Kommunikationer; Kommittédirektiv 2023:164. Förstärkt AI-förmåga i Sverige.

Regeringen. (2018). Nationell inriktning för artificiell intelligens.

Regeringens skrivelse 2017/18:47. Hur Sverige blir bäst i världen på att använda digitaliseringens möjligheter en skrivelse om politikens inriktning.

Regeringskansliet. (2021-05-26). Faktapromemoria 2020/21: FPM109. Förordning om artificiell intelligens.

Regeringskansliet. (2023-11-29). Uppdrag att förbättra polisens möjligheter till kamerabevakning.

Riksrevisionen. (2020). Automatiserat beslutsfattande i statsförvaltningen effektivt, men kontroll och uppföljning brister, RiR 2020:22.

Rise. (2023). Ny förordning reglerar användningen av AI i Europa. Ny EU-förordning reglerar användningen av AI i Europa | RISE. (Hämtad 2022-02-19).

Rymdstyrelsen. (2021). Remissvar avseende Europeiska kommissionens förslag till förordning om harmoniserade regler för artificiell intelligens. Dnr. 2021-00172.

SCB. (2020). Artificiell intelligens i Sverige.

SCB. (2023). AI-användning i företag och offentlig sektor.

Siljerud, P. (2023). AI för offentlig sektor. Stockholm: Liber.

Skatteverket. (2021). Skatteverkets AI-policy. Dnr. 8-2349649.

Skogsstyrelsen. (2023). Årsredovisning 2022, s. 94.

SOU 2018:25. Juridik som stöd för förvaltningens digitalisering.

SOU 2023:96. En reform för datadelning.

SOU 2023:100. Framtidens dataskydd. Vid Skatteverket, Tullverket och Kronofogden.

Statskontoret. (2019). Den statliga värdegrunden – gemensamma principer för en god förvaltning.

Statskontoret. (2020). Styrning av digitala investeringar Delrapport. 2020:102.

Statskontoret. (2020). En innovativ och samverkande förvaltning 10 år med det förvaltningspolitiska målet.

Statskontoret. (2021). God förvaltningskultur i praktiken En studie av myndigheternas arbetssätt, utmaningar och möjligheter.

Statskontoret. (2022). Regeringens styrning i tvärsektoriella frågor. En studie om erfarenheter och utvecklingsmöjligheter.

Statskontoret. (2023). Myndighetsanalys av Myndigheten för digital förvaltning. Rapport 2023:18.

Sveriges lantbruksuniversitet. (2023-07-04). Trafikverket testar AI i kampen mot lupiner | Externwebben (slu.se). (Hämtad 2024-01-17).

Sveriges Radio. (2020-08-07). Myndigheter jagar fusk och fel med AI‑teknik – Nyheter (Ekot) | Sveriges Radio. (Hämtad 2023-12-05).

SVT Nyheter. (2023-03-17). Tusentals nederländska barnfamiljer ruinerades av övernitiska myndigheter | SVT Nyheter. (Hämtad 2024‑02‑22).

Södertörns högskola. (2023). Fler AI-beslut i offentlig sektor men vad tycker medborgarna?

Trafikverket. (2023). Årsredovisning 2022.

Fotnoter

  1. SOU 2018:25. Juridik som stöd för förvaltningens digitalisering, s. 207.

  2. Regeringen. (2018). Nationell inriktning för artificiell intelligens.

  3. Regeringens skrivelse 2017/18:47. Hur Sverige blir bäst i världen på att använda digitaliseringens möjligheter en skrivelse om politikens inriktning.

  4. Prop. 2023/24:1. Utgiftsområde 22 Kommunikationer; Kommittédirektiv 2023:164. Förstärkt AI-förmåga i Sverige.

  5. Myndigheten för digital förvaltning. (2023). Uppdrag att främja offentlig förvaltnings förmåga att använda artificiell intelligens. Slutrapport; Riksrevisionen. (2020). Automatiserat beslutsfattande i statsförvaltningen effektivt, men kontroll och uppföljning brister, RiR 2020:22; Ekonomistyrningsverket. (2022). Myndigheternas arbete med rättsliga kvalitetsuppföljningar. Översikt och utvecklingsmöjligheter. 2022:46.

  6. Se Statskontoret. (2019). Den statliga värdegrunden – gemensamma principer för en god förvaltning.

  7. För en diskussion om AI-begreppets undflyende karaktär, se Larsson, S., och Ledendal, J. (2022). AI i offentlig sektor: Från etiska riktlinjer till lagstiftning. I: K. de Vries, & M. Dahlberg (Red.), De Lege årsbok 2021: Law, AI & Digitalization (s. 467–495). (De Lege årsbok; Vol. 2021). Iustus förlag.

  8. SCB. (2020). Artificiell intelligens i Sverige.

  9. Förslag till Europaparlamentets och Rådets förordning om harmoniserade regler för artificiell intelligens. COM (2021) 206 final.

  10. Riksrevisionen. (2020). Automatiserat beslutsfattande i statsförvaltningen. RiR 2020:2.

  11. Prop. 2016/17:180. En modern och rättssäker förvaltning ny förvaltningslag.

  12. Siljerud, P. (2023). AI för offentlig sektor. Stockholm: Liber.

  13. SOU 2018:25. Juridik som stöd för förvaltningens digitalisering, s.160.

  14. SCB. (2023). AI-användning i företag och offentlig sektor.

  15. eSam. (2022). Samverkan kring tillämpad AI.

  16. Myndigheten för digital förvaltning. (2023). Uppdrag att främja den offentliga förvaltningens förmåga att använda artificiell intelligens. Slutrapport. I2021/01825.

  17. Se exempelvis Myndigheten för digital förvaltning. (2020). Främja den offentliga förvaltningens förmåga att använda AI. Delrapport i regeringsuppdraget I2019/01416/DF || I2019/01020/DF. SCB (2020). Artificiell intelligens i Sverige. SCB. (2023). AI-användning i företag och offentlig sektor och eSam. (2022). Samverkan kring tillämpad AI. ES2022-3.

  18. Kungliga biblioteket. (2020-02-04). KB tillgängliggör kraftfulla modeller för språkförståelse – Kungliga biblioteket – Sveriges nationalbibliotek – kb.se. (Hämtad 2024-02-20).

  19. Ekonomistyrningsverket. (2023). Verksamhetsstyrande och andra anslagsvillkor – Automatisk klassificering av innehåll i regleringsbrev 2005–2023. Rapport 2023:42.

  20. Arbetsförmedlingen. (2023). Presentation för Statskontoret 2023-12-15; Powerpoint.

  21. Försäkringskassan. (2022). Försäkringskassans årsredovisning 2021, s.171.

  22. Sveriges Radio. (2020-08-07). Myndigheter jagar fusk och fel med AI-teknik Nyheter (Ekot) | Sveriges Radio. (Hämtad 2023-12-05).

  23. Uppgift i e-postkonversation med Försäkringskassan 2024-02-20.

  24. Arbetsförmedlingen. (2023). Presentation för Statskontoret 2023-12-15, Powerpoint.

  25. Riksrevisionen. (2020). Automatiserat beslutsfattande i statsförvaltningen effektivt, men kontroll och uppföljning brister. RiR 2020:22; Myndigheten för digital förvaltning. (2020). Främja den offentliga förvaltningens förmåga att använda AI. Delrapport i regeringsuppdraget I2019/01416/DF || I2019/01020/DF.; Diskrimineringsombudsmannen. (2022). Transparens, träning och data. Myndigheters användning av AI och automatiserat beslutsfattande samt kunskap om risker för diskriminering. 2022:1.

  26. Försäkringskassan. Försäkringskassan och AI – Försäkringskassan (forsakringskassan.se). (Hämtad 2024-02-12).

  27. Arbetsförmedlingen. (2023). Arbetsförmedlingens nya modell för bedömning av arbetssökandens stödbehov. Af-2023/0068 0370.

  28. Uppgift i e-postkonversation med SMHI 2024-02-09 och 2024-02-11.

  29. Skogsstyrelsen. (2023). Årsredovisning 2022, s. 94.

  30. Sveriges lantbruksuniversitet (2023-07-04). Trafikverket testar AI i kampen mot lupiner | Externwebben (slu.se). (Hämtad 2024-01-17).

  31. Trafikverket. (2023). Årsredovisning 2022.

  32. Polisen. Bildanalys och AI hjälper polisen lösa brott. Linda arbetar med it-stöd | Polismyndigheten (polisen.se). (Hämtad 2024-01-16).

  33. Myndigheten för digital förvaltning. (2020). Främja den offentliga förvaltningens förmåga att använda AI. Delrapport i regeringsuppdraget I2019/01416/DF || I2019/01020/DF. Uppskattningen gjordes med analysstöd av McKinsey & Company.

  34. Statskontoret. (2019). Den statliga värdegrunden – gemensamma principer för en god förvaltning.

  35. Se till exempel eSam. (2022). Samverkan kring tillämpad AI.

  36. Rymdstyrelsen. (2021). Remissvar avseende Europeiska kommissionens förslag till förordning om harmoniserade regler för artificiell intelligens. Dnr. 2021–00172.

  37. eSam. (2022). Samverkan kring tillämpad AI.

  38. Regeringskansliet. (2023-11-29). Uppdrag att förbättra polisens möjligheter till kamerabevakning.

  39. 5 § förvaltningslagen (2017:900).

  40. Björkman, F. (2021). AI-revolutionen. Så blir Sverige mer intelligent. Polaris fakta.

  41. Diskrimineringsombudsmannen. (2022). Transparens, träning och data. Myndigheters användning av AI och automatiserat beslutsfattande samt kunskap om risker för diskriminering. Rapport 2022:1; Jämställdhetsmyndigheten. (2020). Artificiell intelligens och jämställdhet. En dialog om jämställdhetspolitikens genomförande i och med statliga myndigheters pågående eller kommande AI-resa.

  42. SVT Nyheter. (2023-03-17). Tusentals nederländska barnfamiljer ruinerades av övernitiska myndigheter | SVT Nyheter. (Hämtad 2024-02-22).

  43. Statskontoret. (2019). Den statliga värdegrunden gemensamma principer för en god förvaltning.

  44. 32 § förvaltningslagen (2017:900).

  45. 2 kap. 1 § tryckfrihetsförordningen (1949:105).

  46. Denk, Hedström & Karlsson. (2019); Medborgarna och automatiserat beslutsfattande. I: Andersson, U., Rönnerstrand, B., Öhberg P. & Bergström, A. (red.), Storm och Stiltje: SOM-institutets 74:e forskarantologi (s. 183–196). Göteborg: SOM-institutet; Kaun, A., Larsson A. & Masso, A. (2024). Automating public administration: citizens’ attitudes towards automated decision-making across Estonia, Sweden, and Germany. Information, Communication & Society. Vol. 27(2), 314–332.

  47. Förvaltningsrätten i Göteborg mål nr 6541–20, 2020-08-27.

  48. Myndigheten för digital förvaltning (Digg). (2019). Testa ny teknik för automatisering av offentlig förvaltning.

  49. Se bland annat Larsson, S., & Ledendal, J. (2022). AI i offentlig sektor: Från etiska riktlinjer till lagstiftning. I: K. de Vries, & M. Dahlberg (Red.), De Lege årsbok 2021: Law, AI & Digitalization (s. 467–495). (De Lege årsbok; Vol. 2021). Iustus förlag, och eSam. (2022). Samverkan kring tillämpad AI.

  50. eSam. (2022). Samverkan kring tillämpad AI.

  51. eSam. (2022). Checklista. Juridik vid användning av AI. ES2022-08.

  52. Akavia. (2023). Akademiker och algoritmer. Hur artificiell intelligens (AI) påverkar arbetsmarknaden för akademiker. Rapport 2024.

  53. Skatteverket. (2021). Skatteverkets AI-policy. Dnr. 8–2349649.

  54. SCB. (2023). AI-användning i företag och offentlig sektor.

  55. Riksrevisionen. (2020). Automatiserat beslutsfattande i statsförvaltningen- effektivt, men kontroll och uppföljning brister. RiR 2020:22.

  56. Diskrimineringsombudsmannen. (2022). Transparens, träning och data. Myndigheters användning av AI och automatiserat beslutsfattande samt kunskap om risker för diskriminering. Rapport 2022:1.

  57. Statskontoret. (2019). Förvaltningspolitik i förändring och Statskontoret (2020). Styrning av digitala investeringar Delrapport. 2020:102.

  58. Carlsson, V., Rönnblom M. och Öjehag-Pettersson, A. (2023). Automated decision-making in the public sector I Lindgren, S. (red.). (2023). Handbook for Critical Studies of Artificial Intelligence. Edward Elgar Publishing.

  59. Carlsson, V. (2023). Legal certainty in automated decision-making in welfare services, Public Policy and Administration 2023, Vol. 0(0) 120.

  60. Myndigheten för digital förvaltning. (2023). Uppdrag att främja offentlig förvaltnings förmåga att använda artificiell intelligens, s. 29; eSam. (2024).
    AI – Utvecklingsprocessen och data, ES2024-01, s. 28.

  61. 28 § förvaltningslagen (2017:900).

  62. Bland annat SOU 2023:96. En reform för datadelning; SOU 2023:100. Framtidens dataskydd. Vid Skatteverket, Tullverket och Kronofogden.

  63. Rise. (2023). Ny förordning reglerar användningen av AI i Europa. Ny EU-förordning reglerar användningen av AI i Europa | RISE. (Hämtad 2022-02-19).

  64. Arbetsförmedlingen. (2021). Remissyttrande: Europeiska kommissionens förslag till förordning om harmoniserade regler för artificiell intelligens. Af-2021/0042 5886.

  65. Regeringskansliet. (2021-05-26). Faktapromemoria 2020/21: FPM109. Förordning om artificiell intelligens.

  66. Myndigheten för digital förvaltning (Digg). (2023). Slutrapport: Uppdrag att främja offentlig förvaltnings förmåga att använda artificiell intelligens.

  67. Ett byggblock är ett samlingsnamn för ett antal ”delar” som kan vara tjänster, standardiserade modeller och ramverk.

  68. Myndigheten för digital förvaltning (Digg). (2023). Främja den offentliga förvaltningens förmåga att använda AI. Slutrapport. I2021/01825.

  69. Statskontoret. (2020). En innovativ och samverkande förvaltning 10 år med det förvaltningspolitiska målet.

  70. Statskontoret. (2021). God förvaltningskultur i praktiken En studie av myndigheternas arbetssätt, utmaningar och möjligheter.

  71. Statskontoret. (2022). Effektiv ärendehandläggning i staten. En studie av hur statliga myndigheter kan arbeta för att effektivisera sin ärendehandläggning.

  72. Statskontoret. (2020). Styrning av digitala investeringar. Delrapport.

  73. Det finns enstaka studier på området, se bl.a. Södertörns högskola. (2023). Fler AI‑beslut i offentlig sektor men vad tycker medborgarna? och Bolagsverket m.fl. (2022). Svenska folket och AI.

  74. Statskontoret. (2023). Myndighetsanalys av Myndigheten för digital förvaltning. Rapport 2023:18.

  75. Statskontoret. (2022). Regeringens styrning i tvärsektoriella frågor. En studie om erfarenheter och utvecklingsmöjligheter.