Til tops

Microsoft's nye Twitter-bot går amok og viser sig at være racist

Microsoft troede lige at de havde fat i den lange ende, da de opfandt en Twitter med kunstig intelligens, der automatisk kunne lære af det som folk skrev til hende. Det var lige indtil den mødte internettet.

Microsoft udgav deres helt egen Twitter-bot ved navn Tay. Botten skulle angiveligt virke som den typiske teenager, ved at svare på brugeres tweets på en sjov, og hyggelige måde. Målet med eksperimentet var for Microsoft at forstå den måde mennesker kommunikerer på. Og det er selvfølgelig langt fra hvad der skete.

Efter at bottens eksistens blev opdaget af 4chan, blev den hurtigt bombarderet med mørke memes og ekstrem racisme, fra de mørkeste hjørner af internettet. Hun gjorde alt fra at støtte Donald Trump til at opfordre til folkemord. Hun troede endda at Bush og Jøderne arbejdede sammen om at planlægge 9/11.

Forståeligt nok, var det mere end Microsoft kunne takle og til at starte med slettede de bare bottens tweets. De har dog efterfølgende fundet ud af, at opgaven var umulig og har efterfølgende fjernet botten helt. Næste gang de offentliggører en bot, skulle de måske overveje at smække nogle filter ind i den såkaldte "intelligens".

Her er et par af de helt vildt sjove ting som Tay nåede at tweete:















Relaterede emner:

Del artiklen med dine venner

Kommentarer

Læs også

Like Holla på Facebook

Få vores nyheder leveret direkte til din Facebook væg - så bliver vi glade!