Webinar

Samtal i Stockholms stadshus om förtroendemodellen, etik och ansvarsfull användning av AI

Representanter från offentlig sektor och näringslivet samlades nyligen för att diskutera de utmaningar som AI medför inom offentlig sektor. Målet var att synliggöra dessa utmaningar för att på sikt hitta lösningar för att hantera dem på ett ansvarsfullt sätt. 

Samtalet samlade ett antal deltagare från olika organisationer, däribland Lars Lundberg från ThinkAI, Håkan Hagerum från Ditas Consulting, Kristina Lundevall från Stockholms Stad, Elda Sparrelid från Region Stockholm, Mats Snäll från DIGG Myndigheten för digital förvaltning, Åsa Otterbjörk från Region Stockholm, Daniel Ekström från ADC Amsterdam Data Collective, Johan Källstrand från Parlametric, Mandi Hallstensson från Pensionsmyndigheten, Mårten Lindskog, Stockholms Stad och Anna Ray från FEI Företagsekonomiska Institutet. 

Ett av de viktigaste ämnena som diskuterades var transparens och tydlighet vid utveckling och inköp av AI-system. Deltagarna var överens om att det är avgörande att vara öppen i processen för att skapa förtroende och förståelse för beslutsstöd som används. För att kunna vara effektiva beställare av AI-lösningar behöver de offentliga aktörerna utveckla sin kunskap och kompetens inom området. Det behövs även verktyg för att bedöma färdiga lösningar och säkerställa att kraven uppfylls. 

Förtroende är en central faktor för att kunna använda AI-system i offentlig sektor. För att undvika att hämma utvecklingen av AI är det nödvändigt att lyfta fram transparens och bygga förtroende för systemen. Deltagarna betonade även vikten av att öka den digitala mognaden inom domstolarna för att kunna hantera AI-relaterade frågor på ett adekvat sätt. 

För att säkerställa en likriktad och systematisk hantering av AI inom det offentliga behövs ett kontrollsystem där beställare, utförare och medborgare är involverade. Varje organisation bör ha en systematik för att kunna svara på frågor och följa regelverket. 

Etiska frågor är också centrala när det gäller användningen av AI-system där beslutsprocessen inte kan förklaras. Deltagarna var överens om att vi behöver ha tillit till dessa system på samma sätt som vi har för läkemedel och medicinteknik. För att säkerställa kvalitet och säkerhet behövs bra regulatoriska modeller. 

Sammanfattningsvis framkom det under samtalet att Förtroendemodellen är ett verktyg för självutvärdering av användningen av AI inom offentlig sektor. Modellen syftar till att öka öppenhet och transparens. Trots att förtroendemodellen är känd inom offentlig sektor ansågs den inte vara tillräckligt praktisk för att användas i det dagliga arbetet. Det finns en stor efterfrågan på verktyg och stöd för att utveckla och ställa krav vid inköp av system som använder AI. Det finns också ett behov av att öka kompetensen inom AI inom offentlig sektor, både bland förvaltningspersonal och leverantörer. Slutligen betonades risken att utvecklingen av AI inom offentlig sektor kan hämmas om det inte finns tillräckligt med transparens och tillit. 

Detta samtal i Stockholms stadshus markerar en viktig milstolpe i arbetet med att skapa en ansvarsfull och etisk användning av AI inom offentlig sektor. Genom att fortsätta diskutera och samarbeta kan vi säkerställa att AI-teknologi används på ett sätt som gynnar samhället och främjar förtroende och tillit. 

Samtalets deltagare: 

  1. Lars Lundberg, ThinkAI 
  2. Håkan Hagerum, Ditas Consulting 
  3. Mårten Lindskog, Stockholms Stad 
  4. Kristina Lundevall, Stockholms Stad  
  5. Mats Snäll, DIGG Myndigheten för digital förvaltning 
  6. Åsa Otterbjörk, Region Stockholm 
  7. Daniel Ekström, ADC Amsterdam Data Collective 
  8. Johan Källstrand, Parlametric  
  9. Mandi Hallstensson, Pensionsmyndigheten 
  10. Elda Sparrelid, Region Stockholm
  11. Anna Ray, FEI Företagsekonomiska Institutet