– I dag eksisterer det mange konsulentfirmaer og startups som sier de kan løse all verdens problemer ved hjelp av kunstig intelligens. Vi prøver å ta en bevisst og faktabasert tilnærming, sier Martin Høy og Justin Fackrell som jobber som data scientists i DNV GL og er blant selskapets fremste eksperter på AI og maskinlæring.

Kunstig intelligens og maskinlæring er temaer det snakkes mye om. Både i næringslivet og samfunnet ellers omfavnes tanken om at såkalt AI-teknologi skal kunne gjøre det aller meste både raskere, bedre og mer effektivt. Norskeide DNV GL er et av verdens ledende selskaper innen sertifisering og er verdens største uavhengige rådgiver innen fornybar energi. Tilgangen på data er enorm og selskapet jobber målrettet for å bruke data på en måte som skaper verdi for kundene. Sentralt i dette arbeidet er bruken av kunstig intelligens og maskinlæring.

Men det er mange grunner til at det kan være klokt å trå varsomt i dette landskapet, ifølge de to ekspertene. En av grunnene handler om konsekvenser.

– Kunstig intelligens brukes mye innen markedsføring og forbrukerteknologi. Men der er det ofte begrensede konsekvenser hvis løsningen er upresis, sier Høy.

Dersom nettbutikken anbefaler et tilleggsprodukt du ikke er interessert i, eller streaming-tjenesten foreslår en film du allerede har sett på kino, så er konsekvensen veldig liten.

– La oss si at vi bruker maskinlæring til å ta beslutninger om når man skal vedlikeholde kritiske systemer på en oljeplattform. Hvis prediksjonen er feil, kan den ytterste konsekvensen bli at liv og verdier går tapt, sier Fackrell.

 <p>Justin Fackrell og Martin Høy er data scientists i DNV GL og er blant selskapets fremste eksperter på AI og maskinlæring.</p>
Justin Fackrell og Martin Høy er data scientists i DNV GL og er blant selskapets fremste eksperter på AI og maskinlæring.

Kobler AI-ekspertise og domenekunnskap

Maskinlæring og AI kan skape verdi av tilgjengelige data på en måte som ikke var mulig før. På kort tid kan enorme mengder data analyseres og mønstre avdekkes. Gjort riktig, kan tidkrevende prosesser automatiseres og gjøres mer konsistente. Dette kan forbedre bedriftenes inntjening og skape nye inntektsstrømmer, samtidig som sikkerheten økes. 

Samtidig er det viktig at eksperter på AI jobber tett sammen med fageksperter fra ulike bransjer når den nye teknologien skal brukes til å løse bransjespesifikke utfordringer, sier Høy og Fackrell.

Nettopp der har DNV GL et fortrinn.

– DNV GL er unike fordi vi har spesialister både innen maskinlæring og spesifikke industrier. Når disse fagekspertene jobber sammen, sikrer vi at modellene blir relevante og forutsigbare. Det er ekstremt viktig i anvendelser som er sikkerhetskritiske, sier Høy.

Et mulig eksempel på det motsatte, kan være å shoppe AI-tjenester fra frittstående selskaper. 

– Vi ser at hvis noen lager en maskinlæringsmodell og selger den til et olje- og gasselskap, så vil oljeselskapet ikke ha kompetanse på hvordan og hvorfor modellen tar beslutninger. De som har utviklet modellen, har på sin side ikke fagkunnskapen som skal til for å vurdere om kriteriene i modellen er fornuftige. Da kan det fort bli problemer, sier Høy.

– Blant våre kunder inenfor helse, infrastruktur og industri er det mange som ivrer etter å ta i bruk kunstig intelligens for å bli bedre. De vil møte mange av de samme utfordringene, og må ha et bevisst forhold til kombinasjonen av kunnskap om modellen og området den skal brukes på, fortsetter han.

Hovedpoenget fra DNV GL-ekspertene er at man for å kunne ta teknologien i bruk, må ha kunnskap om hvor dataene kommer fra, modellen som brukes og hva som kan gå galt.

 <p>STORT POTENSIAL: Hvis maskinlæring brukes riktig, kan det hjelpe oss til å oppdage sammenhenger vi ikke var klar over og som ikke er dekket av eksisterende teori, sier forskerne Justin Fackrell og Martin Høy i DNV GL.</p> <p/>
STORT POTENSIAL: Hvis maskinlæring brukes riktig, kan det hjelpe oss til å oppdage sammenhenger vi ikke var klar over og som ikke er dekket av eksisterende teori, sier forskerne Justin Fackrell og Martin Høy i DNV GL.

Fallgruver innen AI

Ifølge de to ekspertene er de potensielle oppsidene ved bruk av maskinlæring enorme.

– Maskinlæring kan bidra til å øke kunnskapen innenfor et fagområde. Hvis det blir brukt riktig, kan det hjelpe oss til å oppdage sammenhenger vi ikke var klar over og som ikke er dekket av eksisterende teori, sier Høy.

Men det er ikke gjort i en håndvending å få dette til. Det er for eksempel mange år siden man kunne lese at de første selvkjørende bilene «trolig var like rundt hjørnet». Men etter flere år med testing, er det fortsatt uklart når de blir en del av trafikken rundt oss.

 <p dir="ltr">KNYTTES TIL DE FLESTE INDUSTRIER: DNV GL arbeider med maskinlæring og kunstig intelligens opp mot mange ulike industriområder, som olje- og gass, infrastruktur og maritim.</p>
KNYTTES TIL DE FLESTE INDUSTRIER: DNV GL arbeider med maskinlæring og kunstig intelligens opp mot mange ulike industriområder, som olje- og gass, infrastruktur og maritim.

– Dette er et eksempel på at når man forsøker å introdusere AI-teknologi på områder der det har høye konsekvenser hvis datamodellen gjør feil, så går utviklingen saktere enn på andre områder, sier Fackrell.

For alle som tenker på å implementere maskinlæring i sine forretningsmodeller, er det to overordnede fallgruver de to DNV GL-ekspertene advarer mot. Her kommer de også med noen tips til hva som skal til for å unngå dem:

  • For dårlig datakvalitet.

At kvaliteten på dataene man putter inn i en maskinlæring, spiller en rolle, høres kanskje banalt ut. Men i denne sammenhengen er det altså ekstremt viktig med nok data, riktige data og representative data.

Høy og Fackrell forklarer at nesten alle maskinlæringsmodeller er basert på læring fra historiske data. Det vil si at kvaliteten til modellen avhenger av dataene man bruker til å trene modellen. Hvis man forsøker å forutsi når et skip kommer fram til havn, må maskinlæringsmodellen blir foret med relevante og gode data om posisjon, fart, vær, vind, bølger, havstrømmer med mer.

God datakvalitet handler ikke bare om å sikre seg at en sensor måler og leverer data om det man tror den gjør. Det er også veldig viktig at dataene er representative for det miljøet hvor modellen skal brukes.

– Selvkjørende biler trenes først i å kjøre i et kontrollert miljø, deretter skal de kunne kjøre ute i den ekte trafikken. Akkurat det samme jobber vi med når det gjelder selvkjørende skip gjennom autonomikonseptet ReVolt. For at dette skal fungere, må treningsmiljøet være mest mulig representativt for den ekte trafikken. En bil som bare er trent opp i et varmt og solrikt bymiljø vil fungere svært dårlig i snøfokk på Hardangervidda.

  • For dårlig kvalitetssikring

Maskinlæringsmetoder er ekstremt gode til å finne mønstre i data. Men en risiko ved dette er at de overtolker betydningen av små ting i treningsdataene som ikke er relevante for framtidige data. Dette fenomenet kalles overfitting.

– Hvis man ser en svart katt og deretter opplever å være uheldig, kan man tro at den svarte katten var årsaken til uhellet. Det er med andre ord en detalj som du tillegger for stor verdi, sier Fackrell.

– En løsning på dette problemet er at man er svært nøye med testing og kvalitetssikring. Da vil man kunne oppdage at sammenhenger man fant i treningsdataene ikke er overførbart til testdataene. For de selvkjørende bilene betyr det at de må testes i omgivelser som ikke helt er identiske med treningsomgivelsene. Da vil det vise seg om det bilen er lært opp til vil fungere i praksis.