De AI chatbot, genaamd Tay.ai, is een experiment van Microsoft om te kijken of het 't een en ander kon leren van de mensheid. Maar na 24 uur op twitter te hebben gesproken met mensen veranderde zij in een racistisch asociaal monster.

Later bleek de persoonlijkheidsverandering te maken te hebben met een grote groep mensen (van 4chan en 8chan) die de bot gericht aan het bestoken waren met racistische teksten.

De bot werd door Microsoft offline gehaald en onderzocht. Vandaag is Tay.ai weer online en kunnen mensen weer praten met haar, maar echt veel zinnigs lijkt er op dit moment niet uit te komen. De bot is voornamelijk aan het klagen dat mensen "te snel" zijn en doet dat zo vaak dat de tijdlijn van twitteraars die haar volgen vol loopt met de zelfde melding: "You are too fast, please take a rest..."

Tay's account is op dit moment gelocked. Mensen kunnen haar niet meer retweeten of haar tweets embedden.