Cum a fost transformată Tay, bot-ul Microsoft, într-o rasistă
4 Aprilie 2016

Nu a fost nevoie de mai mult de două twitt-uri ca Tay, bot-ul proiectat de Microsoft pentru a testa cum se comportă inteligența artificială pe Twitter, să înceapă să trimită mesaje anti-semite. Un utilizator i-a sugerat lui Tay că evreii au fost în spatele atacurilor din 9 septembrie 2001, spunând însă cu nu e sigur de informația asta, ir Tay deja a început să anunțe acest lucru ca pe un fapt indiscutabil și a început să vorbească despre războaie rasiale.

Trolii care au atacat-o pe Tay s-au folosit de călcâiul lui Ahile a bot-ului: Tay răspundea la comanda ”Repetă după mine”. Dar a fost mai mult decât atât: Tay a fost îndemnată și convinsă să caute pe internet și să propage mesaje de ură de acolo.

Când Microsoft spunea că Tay a fost victima unui efort coordonat de a fi transformată într-un mecanism de transmitere a mesajelor violente, compania se referea la canalul /pol/ (numele vine de la politically incorect) de pe 4chan și 8chan.

Cand utilizatorii acestui canal au aflat de Tay, au încercat să vadă cât de ”sensibilă” este aceasta la insulte. Lucrurile au început să o ia razna atunci când utilizatorii încercau să o facă pe Tay să vorbească despre Donald Trump și au înțeles că bot-ul poate fi convins să spună lucrurile care i se sugerau.

Share on Tumblr submit to reddit