– Våpenkappløpet handler ikke om atomvåpen, men om kunstig intelligens

Rundt 700 personer, de fleste akademikere, teknologer og forskere, har signert et opprop mot bruk av våpen som kan drepe på eget initiativ.


<p>UBEMANNET: Her prøver en New York Army National Guard-korporal en sjekk av en ubemannet drone under en øvelse i New Jersey i USA i mai.</p>

UBEMANNET: Her prøver en New York Army National Guard-korporal en sjekk av en ubemannet drone under en øvelse i New Jersey i USA i mai.

«Vi som har signert dette oppropet ønsker å uttrykke bekymring for utviklingen av dødelige autonome våpensystemer. Vi er enige om at beslutningen om å ta et menneskeliv aldri skal overlates til en maskin.», står det i oppropet som er signert av rundt 700 personer, hovedsakelig akademikere, forskere og teknologer.

De ønsker at landets folkevalgte skal bidra til at Norge tar et tydelig standpunkt og støtter internasjonal innsats for å starte forhandlinger om et juridisk bindende instrument mot utvikling og bruk av dødelige autonome våpensystemer.

– Våpenkappløpet handler ikke om atomvåpen, det handler om kunstig intelligens, sier Morten Irgens. Han er prorektor for forskning og utvikling ved OsloMet, og har jobbet med kunstig intelligens i om lag 30 år.

Konflikt-terskelen

Han er en av initiativtagerne bak oppropet.

– Vi bør ikke utvikle dødelige autonome våpen. Autonome våpen redusere terskelen for å gå til konflikt, og for at konflikter eskaleres, sier Irgens

– Og det er for stor sannsynlighet for at teknologien havner i feil hender, legger han til.

Han mener denne typen våpen vil være destabiliserende for verden, og gi økt global usikkerhet.

– På engelsk et det noe som heter «skin in the game», at du har noe å tape om det går galt. En av grunnene til at Vietnamkrigen ble slutt, var at det kom så mange kister med døde soldater hjem. Når du har helt autonome våpensystemer reduseres terskelen for å starte konflikt, og våpensystemene kan også initiere konflikt uten menneskelig overveiing. Det er bekymringsfullt, sier Irgens.

Feil hender

Han er også bekymret for at teknologien kan havne i hendene til grupper som ønsker å skape uro.

 <p>Morten Irgens, prorektor for forskning og utvikling ved OsloMet.</p>

Morten Irgens, prorektor for forskning og utvikling ved OsloMet.

– Teknologi blir stadig billigere og lettere å få tak i. Vi har sett ISIS sin bruk av sosiale medier, kryptering, droner og cyberangrep. De tar i bruk nye teknologier, og om de får tak i autonome våpen, vil de bruke dem. Og de vil ikke være like tilbakeholden som nasjonalstater kan være, sier Irgens.

En av teknologene som har signert oppropet er Jill Walker Retteberg, som er professor og leder for forskergruppen i digital kultur ved Universitetet i Bergen.

Hun leder et forskningsprosjekt om maskinsyn, og forteller at hun er særlig bekymret for muligheten for feilaktig identifisering av drapsmål.

– Et av områdene vi ser på er «bias», fordommer som er programmert inn i teknologien. Det er vist at ansiktsgjenkjenningsalgoritmer er langt mer nøyaktige på hvite menn enn mennesker med mørk hud og kvinner, forklarer Retteberg.

Algoritmer

Hun forklarer at dette skyldes at maskinlæringsalgoritmen er trent opp på et datasett som ikke er representativt, og har en overvekt av hvite menn.

– Dermed har algoritmene lært å se forskjell på hvite menn, men ikke å se like godt forskjell på andre, og det blir flere feilidentifiseringer av mennesker med mørk hud eller ikke-vestlige trekk, og av kvinner. Tenk hva som skjer dersom en drapsrobot skal bruke ansiktsgjenkjenning til å lokalisere et menneske som skal drepes, og dreper feil person fordi den ikke så forskjell på to forskjellige mørkhudede kvinner? spør Retteberg.

Hun sier at de store selskapene jobber med å forbedre systemene, med mer mangfold i datasett i opptrening.

– Jeg er uansett dypt skeptisk til å bruke maskinlæring og maskinsyn til noe med så alvorlige konsekvenser. Mennesker kan også ta feil, men maskiner har ofte innprogrammerte og utilsiktede fordommer, som gjør dem enda farligere enn mennesker, sier Retteberg.

Internasjonalt

I 2015 ble det skrevet et åpent brev, signert av forskere på roboter og kunstig intelligens internasjonalt, der de argumenterte for et forbud mot droner og andre våpen som ikke krever menneskelig styring.

Blant akademikerne og teknologene som underskrev brevet var den britiske fysikeren og matematikeren Stephen Hawking og Tesla-gründer Elon Musk.

– Det internasjonale oppropet var viktig, og startet prosesser. Men det er på nasjonalt nivå vi kan mobilisere regjeringer til å arbeide i internasjonale fora for sterk regulering og forbud, sier Irgens.

Han sier at det er bred politisk støtte om saken, men han tror at den norske regjeringen kan trenge litt hjelp til å bevege seg fremover i saken.

– Det er viktig at de styrende vet at de har en vind i ryggen, og at de har forskere, teknologer og forsvarsfolk med seg, sier Irgens.

Han viser til at det har blitt internasjonal enighet om enkelte typer våpen før. Blant annet laservåpen som blinder og biologiske våpen.

– Det er mange eksempel på at vi kan klare det. La oss gjøre det vi kan for å få det til. Om vi feiler, kan ingen si at vi ikke prøvde, sier Irgens.

Vis kommentarer

Kjære kommentarfeltbruker!

Vi ønsker dine argumenter og meninger velkommen. Vær saklig og vis omtanke, mange leser det du skriver. Gjør debatten til en bedre opplevelse for både andre og deg selv.

Les mer om våre regler her.

På forsiden nå