Vem har ansvaret om en robot begår tjänstefel?

Gästkrönika 5 augusti 2021 19:58
Detta är en ledarkrönika. Katrineholms-Kurirens ledarredaktion är oberoende liberal.

Den nya tekniken innebär stora möjligheter till förbättringar och förenklingar på arbetsmarknaden. Inte minst för personalgrupper inom offentlig sektor, som ofta är överbelastade och löper stor risk att drabbas av utmattning och negativ stress. Men det finns också stora risker med att låta artificiell intelligens, robotar och algoritmer överta arbetsuppgifter som anställda tidigare ansvarat för. Särskilt när det kommer till beslutsfattande i ärenden som ofta är komplexa och har stor påverkan på enskilda individers liv.

 

I en debattartikel i Dagens Nyheter (26/7) skriver Akademikerförbundet SSR, som bland annat företräder socionomer och beteendevetare: "Den offentliga förvaltningens resa från pappersdokument och hålkort till elektroniska system för att sköta samhällets grundfunktioner var dramatisk, men ändå mindre omvälvande än vad vi nu genomgår: robotar, algoritmer och artificiell intelligens tar över mänskliga arbetsuppgifter. Därför är vi förvånade över att regeringen inte vill förbereda Sverige bättre på denna förändring." 

Akademikerna är oroade över den statliga utredningen "En väl fungerande ordning för val och beslutsfattande i kommuner och regioner", där bland annat frågan om automatiserat beslutsfattande i regioner och kommuner ingår. Den nya tekniken utvecklas med rasande hastighet, men eftersom SKR, Sveriges Kommuner och Regioner, har gjort bedömningen att det i dag inte är lagligt att låta datorer överta kommunalt beslutsfattande, ansåg regeringen att förslag om hur detta kan införas skulle tas fram. En utredning tillsattes därför förra året och i slutet av mars i år överlämnade utredaren sitt betänkande till regeringen. 

 

Men invändningarna mot utredningens förslag är omfattande. Om algoritmer, i stället för handläggare av kött och blod, tillåts styra utfall, utan att systemet först är uppbyggt på ett rättssäkert och transparent sätt, är risken enorm för att människor far illa. Algoritmen blir ett svart hål och beslut kommer att fattas utan insyn eller förklaring. Myndighetsutövning förvandlas till en programkod framtagen av något multinationellt konsultbolag som inte tar hänsyn till människors specifika situation. 

I länder som gått ännu snabbare fram än Sverige med att införa automatiserat beslutsfattande har man sett hur alltifrån fördomar till ren rasism byggts in i algoritmerna. Utsatta personer i behov av samhällets stöd har lämnats åt sitt öde utan möjlighet att diskutera beslutet eller vad som lett fram till det med någon som är ansvarig. Så vill vi inte ha det här.

 

Att låta maskiner sköta ärenden som kan kullkasta hela tillvaron för den enskilde går dessutom rakt emot de krav på ökat tjänstemannaansvar som ställts av flera riksdagspartier. Vem ska ställas till svars om en algoritm eller en robot begår ett allvarligt tjänstefel? Konsulterna som sålt in systemet? 

Det lär inte hända. Och därför finns skäl att vara mer grundlig än utredningen. Så länge det inte finns några svar på hur man löser frågorna om rättssäkerhet, ansvar och öppenhet är det direkt olämpligt att tillåta automatiserat offentligt beslutsfattande.

 

Malin Lernfelt är fristående liberal skribent.

Läs mer!

Förklaringen bakom mystiska vårdhaveriet – så stor är risken att det händer igen

Förklaringen bakom mystiska vårdhaveriet – så stor är risken att det händer igen

Brist på ingenjörer – nu får Katrineholm en ny högskoleutbildning

Brist på ingenjörer – nu får Katrineholm en ny högskoleutbildning
Visa fler
Ämnen du kan följa