Disse fem problemene må vi løse innenfor kunstig intelligens, ifølge Google

Debatten om kunstig intelligens er trygt eller potensielt kan utslette menneskeheten, fortsetter. Her er Googles fem bekymringer.

KINESISK AI: Alpha 2 er en menneskelignende robot fra kinesiske UBTech. Den ble vist frem på CES i Las Vegas like etter nyttår.

Foto: Rob Lever AFP
Publisert:,

Teknologigiganten Google investerer massivt i robotteknologi og kunstig intelligens. Selskapet har også lyktes med det som ekspertene mener er den mest banebrytende maskinlæringsteknoligien frem til nå, med datamaskinen AlphaGo som har lært seg å lære selv - og dermed har overgått menneskelige evner på ett spesifikt felt, nemlig brettspillet Go.

Samtidig som teknologigigantene, legemiddelindustrien og våpenindustrien kaster penger etter oppstartsselskaper som jobber med kunstig intelligens (AI), pågår det også en debatt om AI er - og vil være - trygt.

Det fikk for eksempel mye oppmerksomhet da flere teknologi-eksperter i 2015 skrev under på et åpent brev der de tok til orde for mer forskning rundt farene som kan oppstå når kunstig intelligens utvikles. Blant dem som har signert brevet er Bill Gates, Elon Musk og Stephen Hawking.

Da E24 i vår intervjuet den norske AI-forskeren Axel Tidemann som jobber hos Telenor Research, gjorde han det klart at han ikke er i leiren som vil hausse opp de mulige negative virkningene av å presse forskningen på maskinlæring fremover:

– Mange spinner dette som at vi har en dystopisk fremtid foran oss. Jeg mener at vi ikke burde frykte dette, men omfavne mulighetene det gir. På samme måten som vaskemaskinen frigjorde mye tid, kan kunstig intelligens ta seg av de kjedelige og tidkrevende oppgavene, så vi kan fokusere mer på det som mennesker er gode på, sa Tidemann.

Les hvordan forskeren forklarte hvorfor Googles gjennombrudd var så stort: Derfor er AlphaGos seier et gjennombrudd i forskningen på kunstig intelligens

Skeptikere og tilhengere

Men det finnes altså mange skeptikere i fagmiljøene, og mange mener teknologiindustrien må forplikte seg til å jobbe for at teknologien ikke utvikler seg til å bli «ond», deriblant nevnte Musk. Det pågår riktignok også mye debatt rundt hvorvidt man kan akseptere premisset om at en datamaskin kan være ond. Og på motsatt side av skeptikerne, står det mennesker som Andrew Ng, som mener det er bortkastet tid å begrense AI-teknologien.

I kjølvannet av alt dette, har Google i sommer selv kommet på banen med en rapport der selskapets forskningsledere i enheten Google Brain har gått sammen med eksperter fra blant Stanford og Berkely og identifisert hva de mener er de fem største utfordringene når det kommer til å holde kunstig intelligens trygt. Bakgrunnen for rapporten beskrives i dette blogginnlegget.

Les også

Her er Googles siste versjon av menneske-roboten Atlas

Der tar de blant annet til orde for å konkretisere debatten om trygget - slik at den ikke foregår på et abstrakt og hypotetisk nivå.

I den hypotetiske debatten blir blant annet menneskehetens utslettelse ofte trukket frem som den ytterste konsekvens.

Googles bekymringer

Her er Googles oppsummering av de fem største utfordringene:

Unngå negative bivirkninger

* Når roboten jobber for å oppnå sitt mål, hvordan sikrer vi at den ikke samtidig forstyrrer eller ødelegger omgivelsene som en bivirkning av å løse oppgaven raskest?

Unngå hacking av robotens belønningssystemet/funksjon

* Hvordan unngå at måloppnåelsen ikke kan hackes ved for eksempel at en rengjøringsrobot i steden for å vaske vekk skitt, dekker det til med noe.

Skalerbar kontroll

* Hvordan tilpasser AI-en seg til ulike grad av feedback og hvordan den nyttiggjør seg denne effektivt uten å be om bekreftelse for ofte?

Trygg utforskning

* Hvordan sikre at et AI-system utforsker på en trygg måte - for eksempel at en rengjøringsrobot ikke putter en våt mopp inn i stikkontakten

Robusthet til endring i omgivelser

* Hvordan sikre at AI-en gjenkjenner og tilpasser seg endring i omgivelsene som er annerledes enn treningsomgivelsene

Les orginalteksten her og hele rapporten her