Etiske retningslinjer for AI

EU har laget etiske retningslinjer for AI, for utvikling og bruk av kunstig intelligens. Her følger en kort innføring i hvordan man i EU har tenkt rundt dette spennende og utfordrende tema.
Robotetikk og etiske retningslinjer for kunstig intelligens

Allerede i 1942 formulerte science-fiction forfatteren Isaac Asimov det han kalte Three Laws of Robotics i en futuristisk novelle. Det er så langt jeg vet de første etiske retningslinjer for AI. Nå har EU-kommisjonen tatt tråden og laget etiske retningslinjer for «troverdig» kunstig intelligens. Her går man mer i dybden, kan man vel trygt si. EUs retningslinjer dekker både utvikling og anvendelse og de er forutsatt å bli «regularly updated» etter hvert som teknologisk utvikling gjør dette nødvendig. Asimow var først og fremst opptatt av anvendelsen og var også mer tidsuavhengig. Hans første lov står seg fortsatt.

Hva er kunstig intelligens (AI)?

I en tidligere utgave, et «Draft», til det som nå, 8. april 2019, er presentert som «Ethics Guidelines for Trustworthy AI» er det innledningsvis gjort rede for hva man mener med Artificial Intelligence (AI), som her er fritt oversatt: Kunstig intelligens er et system utviklet av mennesker som, gitt et sammensatt mål, agerer i den fysiske og digitale verden for å oppfatte omgivelsene. Det tolker tilgjengelige strukturerte og ustrukturerte data. Det resonnerer ut fra den kunnskap som det avleder fra disse og beslutter hva som er best å gjøre for å nå de mål som er satt. Kunstig intelligens er basert på mange tilnærminger, maskinlæring, maskinresonnement, robotikk m.v. Ble dette for abstrakt finnes det en alternativ fremstilling «ført i pennen» av Raj Ramesh.

Respekt for menneskelig autonomi….

Som hos Azimov inneholder også disse etiske retningslinjer for AI, for utvikling, utplassering og bruk av kunstig intelligens, krav om å legge til grunn et etiske prinsipp om å vise respekt for det autonome menneske. Dessuten er det forutsatt at man tilordner seg etiske prinsipper på en måte som forebygger skadeverk, sikrer rettferdighet og «forklarbarhet». Det skal være mulig å etterprøve hvordan den kunstige intelligensen har resonnert og arbeidet seg frem til resultatet. Mange har engasjert seg i debatten rundt kunstig intelligens og etikk. Jim Torresen ved UiO er en av dem.

Syv nøkkelkrav for troverdig AI

Retningslinjene stiller krav om at utvikling, utplassering og bruk av AI skal kunne møte syv nøkkelkrav for å være troverdig: 1) «Menneske-tilsyn og -kontroll». 2) Teknisk robusthet og sikkerhet. 3) Personvern og datastyring. 4) Åpenhet/»Gjennomsiktighet». 5) Mangfold, ikke-diskriminering og rettferdighet. 6) Miljø- og samfunnsmessig «velvære». 7) Ansvarsavklaring og ansvarlighet. Disse kravene vil selvsagt tidvis stå i motstrid til hverandre. Retningslinjene omtaler denne utfordringen og tar høyde for dette.

Krav om løpende evaluering av utviklingsarbeidet

EU-kommisjonens retningslinjer stiller også krav om at det må utvikles lister som sikrer at utvikling, utprøving og implementering av kunstig intelligens fører frem til systemer vi kan stole på, som er troverdige. Slike lister vil aldri bli uttømmende, heter det. De må ikke føre til prosedyrer der man bare krysser av i bokser. Her kreves det kontinuerlig evaluering og utvikling av prosedyrene og involvering av de som er berørt i dette arbeidet.

Mer om AI-etikk og etisk refleksjon

Teknas etiske retningslinjer oppfordrer Teknas medlemmer til etisk refleksjon rundt beslutninger og handlinger. De retningslinjene som her er presentert fremstår som en detaljert konkretisering av hva dette innebærer om man befinner seg rollen som utvikler av kunstig intelligens. Andre poster på denne bloggen tar også opp AI- og robotetikk. Azimovs robot-lov er allerede introdusert. En post fra august 2017 forteller om ulike tilnærminger til opptrening av kunstige intelligenser. En post fra september 2018 ser på ulike etiske utfordringer knyttet til kunstig intelligens.

Legg igjen en kommentar

Din e-postadresse vil ikke bli publisert. Obligatoriske felt er merket med *