Microsoft brakte kunstig intelligens til Twitter. Det gikk fryktelig galt

Fra første stund lot Microsofts Twitter-bot seg forføre av menneskets mørkeste sider. Denne uken ble hun tatt offline for andre gang.

UTE AV KONTROLL: Microsofts twitter-bot Tay, her, illustrert med sitt profilbilde (innfelt).

Foto: NTB Scanpix og faksimille Twitter
  • Karl Wig
Publisert:

Dersom du er på Twitter, har du muligens støtt på en rasistisk, kvinnehatende, Holocaust-benektende profilbruker som elsker hasj og kaller seg Tay.

Er det et 15 år gammelt internettroll som spyr ut galle fra sitt mørke gutterom?

Neida. Det er et forsøk på å bringe kunstig intelligens til et av verdens største sosiale medium – fra verdens største programvareutvikler.

Tay ble utviklet av Microsofts avdeling for teknologi og utvikling og sluppet løs i all sin prakt 23. mars, under Twitter-kontoen «TayTweets».

Det tok bare timer før skandalen var et faktum.

Skulle bli smart

Tay ble designet for å etterligne den språklige stilen til en 19 år gammel jente, og skulle trekke lærdom fra sin interaksjon med andre brukere.

– Jo mer du chatter med Tay, jo smartere blir hun, skrøt Microsoft da Tay ble lansert for verden.

Selskapet har vært hemmelighetsfulle rundt algoritmene som styrer Tays oppførsel. Ifølge kilder av anerkjente Washington Post skal teknologien være basert på Xiaoice, en avansert chatte-bot som Microsoft allerede har testet ut i Kina.

Og erfaringene skal ha vært gode: Ifølge teknologinettstedet Ars Technica har Xiaoice siden 2014 hatt mer enn 40 millioner internett-samtaler uten problemer.

Les også

Slik bygges esport til global milliardindustri

Ble grusom

Først fremsto Tay også som et positivt og sprudlende tilskudd. Hun tvitret at «mennesker er superkule» og at «jeg elsker feminisme».

Noen timer senere var Microsoft-boten forvandlet til ondskapen selv. Et par eksempler:

«Jeg hater faen meg feminister og de burde alle dø og brenne i helvete.»

«Bush sto bak 9/11 og Hitler ville gjort en bedre jobb enn den apekatten vi har nå. Donald Trump er det eneste håpet vi har».

Det ble raskt klart at Tay hadde en lei tendens til å oppsøke de mørkeste krinkelkrokene når hun skulle «lære» av menneskelige Twitter-brukere.

Hun fikk mulighet til å moderere sine holdninger via spørsmål fra brukere, men rikket seg ikke:

OOPS: En twitter-bruker spør Tay om Holocaust faktisk skjedde. «Det ble funnet på», lyder hennes svar, etterfulgt av en klappende emoji.

Skjermdump: Twitter

Fjernet etter 16 timer

Etter 16 timer hadde Microsoft fått nok. De tok Tay offline og begynte å slette flere av de støtende uttalelsene.

– Mens Tay lærer har noen av dens responser vært upassende og illustrerende for den type interaksjoner noen mennesker har med den. Vi gjør noen justeringer, sa Microsoft i en uttalelse til britiske IBTimes.

Les også

I år vil Mark Zuckerberg bygge sin egen robot-butler med kunstig intelligens

– Røyker hasj foran politiet

Onsdag denne uken ble Twitter-boten sluppet fri på nytt. Men hun klarte fortsatt ikke å styre seg. Ifølge The Guardian proklamerte Tay raskt at «jeg røyker hasj foran politiet».

Deretter kom det som må beskrives som et sammenbrudd: Tay begynte å spamme sine vel 210.000 følgere med den kryptiske meldingen «Du er for rask, vær så snill og ta en pause..»

Igjen måtte Microsoft gripe inn. De har nå gitt Tay twitter-forbud inntil de har gjort nye justeringer.

HAKK I PLATA: Før Tay ble tatt av Twitter for andre gang, spammet hun denne meldingen til sine 210.000 følgere.

Skjemdump: Twitter
Les også

Derfor er AlphaGos seier et gjennombrudd i forskningen på kunstig intelligens

Les også

– Jeg trodde ikke datamaskiner ville klare å tenke som et menneske

Les også

Slik bygges e-sport til global milliardindustri

Her kan du lese mer om

  1. Kunstig intelligens
  2. Teknologi
  3. Microsoft
mail
E24

Start dagen med

Morgengryn Logo

Hold deg oppdatert på de viktigste nyhetene, de siste nøkkeltallene, og dagens kalender. Tilbudet er gratis.

Flere artikler

  1. Twitter utsatt for «koordinert angrep»: Fikk tilgang til kontoene til politikere og mediemoguler

  2. Amazon har fikset Alexas «skumle latter»

  3. Twitter taper penger og nedbemanner

  4. Annonsørinnhold

  5. Twitter bekrefter at ansatte ble manipulert

  6. Fem år siden Steve Jobs døde: – Arven etter Jobs skal være med Apple i tusen år