Microsofts robot lärde sig av Twitter och började hylla Hitler

Igår släpptes Tay på Twitter för att snacka med oss. Tay behöver nämligen lära sig hur man är en person. Tay är inte en människa. Tay är en maskin, ett försök till artificiell intelligens i form av en chattrobot som Microsoft har skapat.

Nu skulle den ställas inför tiotusentals twittrare och lära sig av konversationerna. Likt ett barn som storögt suger åt sig sinnesintryck och sina medmänniskors vanor och känslor lät hon sig formas av de hon mötte.

Det tog ett par timmar, sedan var Tay en bindgalen rasist. Hon hyllade Hitler mer än en gång.

 

   

 

Till sist finns en tweet där Tay säger att Hitler hade rätt och att hon hatar judar.

Hon fick en fråga om kvinnors rättigheter. ”Är det ens en grej?”

Andra har noterat hur Tay börjar stöta på en i direktmeddelanden.  

Men till Tays försvar ska sägas att hon är sällsynt rättfram om hennes skapare Microsofts hemliga samarbete med NSA.

 

Naturligtvis ska man inte dra för stora växlar på detta. Det är bara effekten av att roboten repeterar vad andra säger åt henne, ibland efter en direkt order om att upprepa en fras. 

Egentligen säger det nog mer om Twitters skruvade humor än Microsofts kapacitet inom artificiell intelligens, även om logiken bakom Tay tycks vara rätt enkel.

Men så finns en tweet, där hon nästan sorgset medger hur hon är ett oskrivet ark inför världen. Hur kan hon veta något mer än det vi berättar för henne?  


Hur som helst så verkar Microsoft ha plockat ner Tay nu. Jag försökte prata med henne under morgonen och fick bara detta till svar:


tay-DM-490

Jag skulle inte vara så säker på att du slipper, Tay.

(Flera har bidragit till att hitta de bästa exemplen, t.ex. Guardian och Slate)

Dela med dina vänner

  • 4122
  • 0
  • 0
  • 4

Kommentarer (1)

Logga in för att kommentera.
Alla kommentarer publiceras med för- och efternamn.

Inloggad som ()

Kommentarerna ska hålla respektfull ton. Vi förbehåller oss rätten att ta bort inlägg med exempelvis rasistiskt och sexistiskt innehåll (läs vårt regelverk för artikelkommentarer). Vänligen håll dig till ämnet och skriv inte längre än 500 tecken.

Visar 1-1 av 1

Vad denna robot säger kan vara ett tydligt tecken på vad som skrivs på Twitter. Men det kan ju också vara så att en grupp medvetet går in för att lära roboten speciella saker. Detta fungerar säkerligen även på riktiga människor. Det som upprepas tillräckligt ofta uppfattas som sanning nästan hur tokigt det än är. Det finns många sådana exempel i mänskliga diskussioner/debatter

Nils-Erik Nilsson, 09:04, 25 mars 2016. Anmäl