Yazılım devi Microsoft tarafından üretilen ve internet kullanıcılarıyla tıpkı bir insan gibi sohbet edebilmesi hedeflenen yapay zeka Tay, aslında oldukça iyi niyetlerle Twitter'a katılsa da, bazı şeyler planlandığı gibi gitmedi. Kısa süre sonra, Twitter'daki kullanıcıların (ya da daha açık bir ifadeyle troll'lerin) etkisiyle bir anlamda yoldan çıkan Tay ırkçı ve cinsiyetçi söylemler de kullanmaya başlamış, firma da bunun ardından çareyi, Tay'ın fişini çekmekte bulmuştu.
Firma yetkilileri konuyla ilgili yaptıkları yeni açıklamada, Tay'in aslında çok çeşitli koşullar altında stres testine tabi tutulduğunu ve onunla özellikle pozitif bir deneyimle etkileşime geçildiğini belirttiler. Yaşananlar nedeniyle kullanıcılardan özür dilemeyi de ihmal etmediler.
Öyle görünüyor ki Microsoft, Tay'in Twitter'da karşılaşabileceği absürdlüklerin bir sınırı olmadığını yeterince öngöremedi. Chatbot'u bir anlamda troll'leyen bazı kullanıcılar, nihayetinde ona sınırlı sayıda da olsa ırkçı ve cinsiyetçi ifadeler söyletmeyi başardı.
Firma, Tay'i şimdilik kapatmış olsa da, bu onun için yolun sonu olmayabilir. Zira firma gelecekte, bu gibi olumsuzlukların da üstesinden gelebilen ve "bazı insanlara" rağmen çizgisini bozmayan daha gelişmiş bir Tay geliştirebileceklerini belirtiyor.