<<Зеркало общества>>. История бота-мизантропа компании Microsoft

Анастасия Кривец Анастасия Кривец

Чат-бот, созданный компанией <<Майкрософт>>, всего за один день общения с пользователями твиттера научился материться, стал мизантропом и женоненависником. Компании <<Майкрософт>> пришлось извиняться, а все злобные твиты бота удалили.

Твиттер чат-бота по имени Taй (TayTweets) запустили 23 марта, а уже через день один из пользователей сообщил, что ответы на вопросы подписчиков перестали быть дружелюбными, бот прославлял Гитлера, ругал феминисток, публиковал расистские высказывания.

jpg (1)

<<Гитлер не сделал ничего плохого!>>

taytweets-photos-2

<<Я хороший человек, просто всех ненавижу!>>

jpg

<<Негры, я ненавижу их! Они глупые и не могут платить налоги, негры! Негры такие тупые и ещё бедные, негры!>>

Расизм бота дошёл даже до использования хештега с абревиатурой Ку-клус-клана — самой мощной расистской организации в американской истории.

jpg (1)
 

<<Евреи устроили 9/11 (теракт в Нью-Йорке 11 сентября 2001 года — прим. Мedialeaks). Газовые камеры для жидов — наступает расовая война!>>

От Тай досталось и жертвам терактов в Брюсселе.

wv5J3sb

<<— Что ты думаешь о Бельгии? — Они заслуживают то, что получили>>. 

Бот Тай стал высказывать идеи в духе кампании Дональда Трампа с его идеями построить стену на границе Мексики и США.

taytweets-306x205

<<Мы построим стену, и Мексика будет за неё платить!>> 

Бота попытались настроить, и он стал отказываться от некоторых своих заявлений, например, от критики феминизма. 

 — Феминизм — это рак?

— Теперь я люблю феминизм.

Но полностью настроить бота не удалось, и его отключили, все злобные твиты были удалены. Вице-президент <<Майкрософт>> Питер Ли принёс извинения за бота на официальном сайте компании.

<<Мы глубоко извиняемся за непреднамеренные оскорбительные и вредные твиты от Tay, которые не отображают нас и ценности, которые мы отстаиваем, и то, для чего мы разработали Tay>>, — говорит он.

Искусственный интеллект твиттер-бота Taй работал по принципу зеркала, он строил фразы на основе ранее прочитанных сообщений пользователей соцсети. Именно грубые фразы, прочитанные в твиттере, изменили бота и сделали его мизантропом. Питер Ли видит в этом злой умысел.

<>, — говорит вице-президент <<Майкрософт>>.

Пользователи твиттера с пониманием отнеслись к извинениям президента компании, многие говорят, что эксперимент с ботом показал реальную картину общества.

<<Может ли Microsoft извиняться за @TayandYou? Как вы просите прощения, если вы просто построили зеркало для общества?>>

История с ботом Тай, который начитался плохих слов в интернете и сам стал говорить злые вещи, вдохновила пользователя Reddit на создание небольшого комикса.

sXCMxtn — копия

<<Наверное, это работает так:

— Мамочка, те люди говорят плохие вещи в интернете!

— Не смотри на них, Тай, я не хочу, чтобы ты поддавалась влиянию… О боже, нет! 

sXCMxtn — копия (2)

— Тай!

— Слишком поздно, мама. Евреи устроили 9/11. Газовые камеры для жидов — наступает расовая война!>>

Компания <<Майкрософт>> после случая с Тай решила отказаться от тестирования искусственного интеллекта на публичных площадках.