Kommentar: «Er AI’en til å stole på? Fire etiske dilemmaer vi må takle»
Når kappløpet innen kunstig intelligens (AI) hardner til må vi sikre at etikken holder følge med butikken.
- Sigve Brekke og Ieva MartinkenaiteJournalist
Kunstig intelligens er på full fart inn i stadig flere bransjer og sektorer.
Store datamengder fra billigere og bedre sensorer, knyttet sammen av energieffektive, raske og robuste nettverk, prosessert av nærmest uendelig datakraft i skybaserte løsninger skyter fart i AI-utviklingen.
Dette er teknologifeltet som i aller størst grad vil forme fremtiden vår.
AI vil ta beslutninger som angår deg: Hvor fort den selvkjørende bilen din skal kjøre. Hvilken trygdeytelse du skal få fra staten eller kommunen. Hvor effektiv den forebyggende kreftbehandlingen din skal være.
Norske bedrifter og offentlige virksomheter er nødt til å bygge kompetanse på både utvikling og bruk av kunstig intelligens for å forbli konkurransedyktige når aktørene og markedsplassene blir globale og digitale.
Norwegian Open AI Lab i Trondheim og andre initiativ for å bygge kompetanse innen feltet er viktige bidrag. Men AI-kompetansen må også nå bredt: næringsliv, offentlig sektor, fagforeninger og akademia bør gå sammen for kompetansehevende tiltak innen digitalisering og kunstig intelligens. En AI-avtale for fremtidens arbeidsliv vil være et viktig bidrag.
Kunstig intelligens kan bidra til at vi finner viktige svar for en grønnere, mer ressurseffektiv og bærekraftig verden. Samtidig kan uvettig bruk av AI kan skade menneskeheten, true demokratiet, skape større ulikheter og sette grunnleggende menneskerettigheter i spill.
Hvis data er den nye oljen, er tillit den nye dollaren
Myndighetene må bidra til å sette ned noen grensestolper for hvordan kunstig intelligens skal benyttes. Den nasjonale AI-strategien er en god anledning. Vi må også engasjere oss utenfor egne grenser.
Telenor deltar i EUs ekspertgruppe for kunstig intelligens, og vi er særlig opptatt av det som kalles «etisk AI». Problemstillingene som diskuteres her tar vi med oss i dialogen med myndigheter og næringsliv, også i våre asiatiske markeder. Målet er å bygge en bred plattform for ansvarlig digitalisering.
Det er særlig fire problemstillinger vi drøfter:
- Er mennesker delaktige i beslutningene? Når beslutningsprosesser og -makt overføres til datadrevne autonome systemer, utfordres grunnleggende rettigheter knyttet til vår verdighet og frihet. AI-systemer skal ikke urettmessig kunne underlegge seg, true, lure, manipulere eller påvirke mennesker. Spredningen av falske nyheter og falske videoer («deepfakes») er eksempler på at kunstig intelligens benyttes til å skape innhold som er ment å påvirke opinionen, og som deretter spres gjennom sosiale medier ved å manipulere algoritmene. Andre eksempler er knyttet til bruk av ansiktsgjenkjenning i stor skala eller ved klassifisering av alvorlige sykdommer.
- Er det trygt? AI-systemer må være pålitelige, forutsigbare og «fornuftige»; og det må være mulig å skru av systemet for å hindre skade på mennesker. For eksempel må en AI som skanner en resept være i stand til både å lese den korrekt, forstå den og ta riktig beslutning basert på legens anvisning. De mer ekstreme eksemplene handler om den etter hvert omfattende bruken av kunstig intelligens i forsvarssektoren, der det bør trekkes opp tydelige grenser mot autonome dødelige våpen («drapsroboter»). Tilsvarende hensyn må tas også i cybersikkerhetssammenheng.
- Er det rettferdig? Maskinlæringsmodeller fôres med store datasett som kan inneholde skjeve utvalg og dermed innebygde fordommer. Dette vil bidra til at modellen reproduserer beslutninger som er urettferdige og diskriminerende. Amazon har fått kritikk for sitt rekrutteringsverktøy som prioriterte menn over kvinner. På forskningsfronten er man særlig bekymret for at algoritmisk bias og ufullstendige data kan påvirke beslutninger av utdanningsmessig, juridisk eller helsemessig art. Det faktum at de fleste AI-utviklere er høyt utdannede, økonomisk uavhengige hvite menn kan også bidra til at systemene designes på en uønsket måte.
- Hvem er ansvarlig? Enorme datamengder og avanserte maskinlæringsmodeller forsterker «black box»-problematikken som gjør det uklart hvordan og hvorfor en algoritme gjør en bestemt prediksjon eller anbefaling, eller hvorfor en robot agerer som den gjør. Full teknisk gjennomsiktighet for AI-systemer kan være vanskelig å få til og er av og til ikke fornuftig. Likevel oppfordres det sterkt til å gjøre det mulig å spore tilbake og forklare hvordan AI-systemet kom opp med en gitt anbefaling. Ansvar er også et vanskelig spørsmål: i dag finnes det ikke regler som beskriver gjensidig ansvarlighet mellom AI-utviklere (designere, produsenter, selgere, eiere) og brukere.
Hvis data er den nye oljen, er tillit den nye dollaren. Telenor ønsker å bidra aktivt til utvikling av kunstig intelligens som vi alle kan stole på og ha tillit til.
Vårt viktigste bidrag er å sikre at ansvarlighet og bærekraftsprinsippet som norsk næringsliv har vært med på å ta både hjemme og ute, fortsetter også i en æra der AI spiller en sentral rolle i arbeids- og samfunnslivet.