by Meta Bytes

Kan vi verkligen lita på AI?

Artificiell intelligens (AI) har en stor utmaning framför sig innan den breda massan anammar den nya tekniken – nämligen tillit. Forskning visar att förtroendet för och tilliten till ny teknik ofta är lika viktig som själva tekniken för att den ska börja användas på bred front. En viktig pusselbit för att öka vår tillit till ny teknik är ökad kunskap om hur tekniken fungerar.  

Tillit och transparens inom AI

“No trust, no use” är ett vanligt uttryck i AI-världen, vilket innebär att om vi inte kan lita på ett AI-system och inte är helt säkra på vilka risker och konsekvenser det kan medföra så bör vi vara försiktiga och kanske till och med avvakta med att använda det tills vi har mer information. Det kan alltså vara sunt att vara lite avvaktande, och det pågår en hel del forskning inom AI kopplat till tillit och transparens.  

Trustworthy AI

Trustworthy AI, eller tillförlitlig AI på svenska, är ett forskningsområde inom AI som tittar på just tillitsaspekten. Trustworthy AI bygger på idén att AI kommer att nå sin fulla potential när förtroende kan skapas i varje skede av dess livscykel – från design till utveckling, implementering och användning. Faktum är att EU har tagit fram etiska riktlinjer för trustworthy AI. Några av dessa riktlinjer är:    

Mänsklig handlingsfrihet och översyn

AI-system bör ge människor makten, låta människor fatta välgrundade beslut och främja människors grundläggande rättigheter. Samtidigt måste tillsyn av AI-systemet vara möjlig, vilket kan uppnås genom bland annat human-in-the-loop.

Säker och stabil teknik

AI-system måste vara motståndskraftiga och säkra. De måste säkerställa en återgångsplan om något går fel. De måste också vara korrekta, pålitliga och reproducerbara för att minimera och förebygga skada, även oavsiktlig sådan.

Transparens

Affärsmodellerna för data, system och AI bör vara transparenta, vilket bland annat kan uppnås via olika lösningar för spårbarhet. AI-system och dess beslut bör förklaras på ett sätt som är anpassat till mottagaren. Människor måste också vara medvetna om att de interagerar med ett AI-system och bli informerade om systemets möjligheter och begränsningar.

Explainable AI

När det talas om trustworthy AI brukar också explainable AI nämnas. Explainable AI är en uppsättning processer och metoder som kan hjälpa användaren att förstå och lita på resultatet av AI och maskininlärning. I takt med att AI-modeller blir mer avancerade utmanas vi människor att förstå och tolka hur algoritmen kom fram till ett visst resultat. AI modeller och dess beslut beskrivs ibland som “svarta lådor” – man syftar då på svårigheten att förstå dess inre funktioner. För att öka transparensen är det viktigt att i varje enskilt fall förstå hur AI-systemet fattade ett visst beslut och vilka faktorer som var avgörande i beslutsprocessen. Explainable AI kan hjälpa utvecklare att säkerställa att systemet fungerar som det är tänkt och följer eventuella regleringar.  

Algorithm aversion – när bristen på tillit går över styr

Även om det talas om “no trust, no use” vad gäller AI så kan människans brist på tillit ibland bli kontraproduktiv. Studier visar till exempel att vi tenderar att lita på beslut tagna av människor hellre än beslut som baserats på algoritmer, även om algoritmen ständigt överträffar människans resultat. Fenomenet kallas algorithm aversion och innebär alltså en irrationell skepsis till algoritmiska beslut.  

Algorithm aversion kan vara kostsamt, både för den enskilda organisationen och för samhället i stort. I en studie utförd av KPMG kom man exempelvis fram till att två tredjedelar av affärsledare ignorerar beslutsunderlag från dataanalyser när det motsäger deras intuition för strategiskt viktiga affärsbeslut.  

AI redan en del av vår vardag

Även om det inte alltid uppenbart att det är AI som jobbar i bakgrunden så är AI redan en stor del av vår vardag. Exempelvis hjälper AI till att sålla bort spam i inkorgen, styra robotgräsklipparen och låsa upp telefonen med ansiktsigenkänning. Genom att uppmärksamma allt som AI redan sköter i vår vardag och som fungerar bra kan vi också lättare relatera till AI och alla fördelar med den nya tekniken.  

Human-in-the-loop – AI och människa samarbetar

Till skillnad från vad som målas upp i olika Hollywoodfilmer så är AI inte allvetande och kan inte heller lära sig nya saker på egen hand utan att en människa är involverad. Faktum är att större delen av arbetet med AI handlar om att få fram data på rätt sätt och i rätt format, annars är risken stor att AI genererar fel svar. Därför är det avgörande att involvera en human-in-the-loop, det vill säga en människa som vägleder AI-systemet. Genom att en människa tränar, testar och finjusterar systemet uppnås mer tillförlitliga resultat. När AI och människa samarbetar via human-in-the-loop kan man ta vara på både systemets och människans respektive styrkor.  

Så kan ni öka tilliten till AI internt

Om ni ska börja arbeta med AI så bör ni också arbeta strategiskt med att öka kunskapen om och tilliten till AI internt. Här är några exempel på hur ni kan arbeta med att avmystifiera AI inom er organisation.

1. Satsa på kompetensutveckling inom AI

Öka kunskapen om grunderna inom AI bland era medarbetare, framförallt slutanvändarna inom organisationen, och tydliggör hur ert arbete med AI kommer att gynna dem. Exempelvis kan ni bjuda in experter till företaget som kan prata om AI på ett konkret och begripligt sätt. Ett annat sätt är att låta era anställda ta en onlinekurs om grunderna inom AI.  

2. Sammanhang och transparens

Om ni redan arbetar med AI kan ni öka tilliten internt genom att vara transparenta med AI-modellens resultat och sätta dem i ett sammanhang. Förklara modellen och lyft fram vilka faktorer som gjorde att AI kom fram till resultatet. När användarna förstår hur AI kommer fram till sina resultat och det värde tekniken tillför är de mer benägna att lita på resultatet och ställa sig positiva till användningen av AI inom organisationen.

3. Regelbunden feedback för ökat engagemang

Hjälp slutanvändarna att känna sig mer engagerade i processen genom att skapa en enkel process för feedback. När användarna får återkoppla kring AI-systemets resultat blir de också delaktiga i att förbättra modellens noggrannhet framåt.

AI en liten del i ett större pussel

Även om det pratas mycket om AI så är det bra att känna till att det ofta är en väldigt liten del av en lösning som drivs av AI. Ofta är det ett helt ekosystem av tjänster som samverkar, där AI är en del av en större helhet. Genom att arbeta strategiskt med att skapa tillit till AI internt ligger ni ett steg före era konkurrenter i att framgångsrikt implementera AI.  

Ni kan läsa mer om vad företag har att vinna på att lita på tekniken i allmänhet, och AI i synnerhet, här.

Tillbaka