Robotetikk – Kunstig intelligens, tillit eller ydmykhet?

Robotetikk – Kunstig intelligens, tillit eller ydmykhet?

Kan vi stole på robotene når de selv skal utforske sine omgivelser og lage sin egen forståelse av hva som er fornuftige handlinger? Noen sier nei. Andre arbeider med egne opplæringsprogrammer som skal lære dem å te seg som folk. Andre vil kreve forklaring eller ydmykhet.

Kan vi stole på robotene? Økonomiprofessor Ola Kvaløy stilte dette spørsmålet i overskriften til en kronikk i Dagens Næringsliv 30. juni i år. Han mente at snille roboter ikke er en selvfølge og støttet seg til adferdsøkonomisk forskning for å underbygge dette. Økonomene fant opp den rasjonelle følelsesløse aktør, homo economicus, og bør derfor vite litt om roboter, ifølge Kvaløy.

Programmerte og selvprogrammerende roboter. Det store flertall av roboter i dag er styrt av programmer laget av mennesker for å gjøre spesielle oppgaver. Vi har langt på veg full kontroll over disse. Men en ny generasjon roboter er på veg, roboter som er utstyrt med kunstig intelligens (AI) og som i prinsippet kan lære selv hva de skal gjøre. Vi har aldri tidligere bygget maskiner som konstruktørene ikke helt ut forstår, men det er i ferd med å skje nå. Vi vil kanskje først møte dem i form av selvkjørende biler, men det er bare begynnelsen.

Deep learning og AI. En selvkjørende bil av dette slaget har alt vært på veien i New Jersey i USA. Den var ikke programmert av mennesker, men opererte med impulser fra en algoritme den hadde lært seg selv ut fra observasjoner av hvordan mennesker kjører bil. Bilens AI-teknologi kalles deep learning. Slik teknologi er utviklet og har vist seg svært effektiv i arbeid med billedtolkning, stemmegjenkjenning, oversettelser av språk, å stille diagnoser ved alvorlig sykdom ut fra tolkning av svære mengder pasientdata og i å gi råd ved finansielle operasjoner. Men teknologien gir løfter langt ut over dette.

Sort boks og etiske dilemmaer. Noen kaller deep learning for den kunstige intelligensens sorte boks for å markere at vi ikke har full oversikt over innholdet. Og det er her vi møter utfordringer. Hvordan kan vi sikre oss den tenker og handler riktig i nye og uvante situasjoner? Kan den læres opp i etisk refleksjon til å gjøre fornuftige valg i situasjoner som fremstår som dilemmaer der det uansett blir galt hva man den enn gjør? Flere forsøk er i gang.

Virtuell opplæring. I Praha har Marek Rosa i GoodAI, etablert en virtuell skole for kunstige intelligenser. Her trenes kunstige intelligenser til å mestre stadig nye situasjoner de ikke har erfaring med. Digitale mentorer initierer læring ved gradvis å øke kompleksiteten i situasjoner den kunstige intelligensen må forholde seg til og trekke erfaring fra. Samtidig mottar den feedback fra forskningsteamet på sine reaksjoner.

Simulert skyldfølelse. Georgia Tech i USA har flere miljøer som arbeider med samme utfordring, med litt forskjellige tilnærminger. Ron Arkin har lenge arbeidet med å utvikle programvare som styrer robotkrigere til å følge etiske standarder for krigføring. Hans «ethical adapter» søker å simulere menneskelige følelser og påvirke kunstig intelligens gjennom å la denne «føle skyld» når gitte normer for krigføring er overskredet slik at intelligensen da begrenser videre aktivitet til nivå før overskridelsen.

Erfaring fra fortellinger. Mark Riedl ved Entertainment Intelligence Lab, et utviklingssenter for dataspill ved samme universitet, arbeider med en tredje tilnærming. Her presenteres kunstig intelligens for hundrevis av fortellinger fra forfattere og ulike medier om for eksempel konsekvensene av å stjele eller ikke stjele. Kompleksiteten i historiene økes gradvis. Ideen er at man slik kan lære intelligensen fornuftige adferdsregler som virker i ulike situasjoner, alt fra intime middager med levende lys til bankrøverier eller terrorhandlinger.

Forklaring og tillit. Explainability (forklarbarhet?) er nøkkelord i arbeidet med utvikling av kunstig intelligens hevder noen. Dersom intelligensen er i stand til å forklare for oss hvorfor den foreslår eller handler som den gjør har vi muligheter til å korrigere adferdsmønsteret. Men kanskje vil det ikke være mulig å forklare alt. Noen av våre handlinger, som mennesker, er styrt av instinkter og underbevissthet. Kanskje vil det være slik også for kunstig intelligens.

Gjør litt ydmyke roboter jobben bedre? I kritiske situasjoner har vi kanskje ikke tid til å vente på en forklaring. Valget av mentorer, normer og fortellinger kan ikke bli nøytralt og vil prege adferden man bringer frem med de andre nevnte metodene. Dylan Hadfield-Menell ved University of California, Berkley eksperimenterer med AI-styrte roboters «selvtrygghet» i et såkalt «off-switch game» der ideen er «å lære roboter» å akseptere at de ikke alltid har rett, men at de noen ganger trenger veiledning. Roboter med slike mer ydmyke egenskaper kan lære å gjøre en enda bedre jobb neste gang. Men samtidig kan vi ikke gjøre robotene for usikre. Mange situasjoner vi kommer til å utsette dem for vil kreve umiddelbar handlekraft.

De viktigste kildene for dette blogginnlegget er MIT Technology Review vol. 120 no. 3, The Economist 1843 june &july 2017 og New Scientist 10 June 2017. Det finnes også tidligere blogginnlegg på denne bloggen som tar opp beslektede temaer som «smarte maskiner og emosjonelle mennesker», «førerløse kjøretøy og førerløs etikk», «Robotetikk», men også andre temaer som for eksempel «Oljefondets etiske utfordringer». Blogginnlegget inngår i Teknas Etiske råd arbeid med område etikk. Mer om dette finner du på rådets nettside.

Share on FacebookShare on LinkedInShare on Google+Share on RedditPin on PinterestEmail this to someoneTweet about this on Twitter

Kommenter