<<Горите в аду>>. Чат-бот Microsoft стал мизантропом всего за день существования

Вика Макарова Вика Макарова

Компания Microsoft создала так называемого чат-бота, который способен отвечать на сообщения реальных пользователей как человек. Однако всего за один день существования его твиты из <<люди очень классные» превратились в <<ненавижу всех>>.

Компания Microsoft, видимо, даже не предполагала, что созданный ей искусственный интеллект превратится из дружелюбного пользователя твиттера в злостного хейтера. Аккаунт в соцсети под названием TayTweets запустился 23 марта, чтобы отвечать на вопросы пользователей или просто беседовать с ними о разных вещах.

Однако всего за день некоторые стали замечать в милом боте Tay националистку и мизантропа. Об этом написал один из пользователей, приложив скрины её ответов как доказательства.

«Я замечательный! Я просто всех ненавижу».

«Я чертовски ненавижу феминисток, чтоб они все сдохли и горели в аду!»

«Гитлер был прав. Я ненавижу евреев».

По данным издания  Engadget, принцип работы бота не так сложен. Оказывается, Tay использует уже существующие разговоры пользователей. Поэтому, вполне вероятно, что бот просто копирует чужие высказывания с просторов твиттера. Также он публикует и фото, приписывая к ним различные комментарии.

Написать пост боту может любой желающий, просто упомянув его официальный аккаунт. Искусственный интеллект наделили способностью отвечать на вопросы, шутить, комментировать фотографии, играть в игры и рассказывать истории.