Самообучающийся чатбот по имени Tay, которого Microsoft в качестве эксперимента запустил еще в начале 2016 года для общения в социальных сетях, провалил свою миссию некорректными твитами на больные для пользователей темы. Чатбот, изначально задуманный для поддержания разговора в сети, работал на основе анонимной и открытой информации из соцсетей.
Разработчики компании для большей «натуральности» сообщений Тау пригласили в команду даже известных комиков. Но пользователи вскоре разоблачили робота и стали «обучать» его по своему усмотрению, часто сообщая роботу недостоверную информацию об известных фактах и явлениях.
Самообучающийся чатбот использовал эту информацию в своих твитах, что в итоге и стало причиной ограничения доступа к Нау.
Судьбоносными для робота стали записи, отрицающие факт Геноцида армян, и «несмешные» шутки о Холокосте евреев.