Жестокость, насилие и фото, вызывающие отвращение, — всё это видел бывший модератор социальной сети фейсбук пять дней в неделю по восемь часов в день. Мужчина, пожелавший остаться анонимным, рассказал, как сортировка контента, который публикуют пользователи онлайн, стала причиной посттравматического расстройства, с которым он борется до сих пор. Но это не единственное, что вгоняет модераторов фейсбука в стресс.
Ежедневно бывшему сотруднику компании Facebook Inc приходилось просматривать сотни фотографий и видео, которые алгоритмы посчитали подозрительными, и делать выбор — блокировать контент или пропускать его в ленту. Только после того как модератор уволился, он понял, как сильно из-за работы пострадала его психика. Мужчина рассказал об этом в видеоинтервью журналистам издания VICE.
Мне нужно было много времени, чтобы понять, как сильно всё это повлияло на меня. Я никогда даже не верил в существование ПТСР (посттравматическое стрессовое расстройство личности. — Прим. TKSAG). Для того чтобы говорить [о работе], мне пришлось заниматься психотерапией. Я приложил много усилий, чтобы справиться со всем этим, — сказал мужчина.
Посттравматическое стрессовое расстройство, или ПТСР — психическое состояние, от которого страдают люди, кому неоднократно (или единожды) пришлось сталкиваться с ситуациями, травмировавшими их психику. Болезнь сопровождается воспоминаниями (флешбеками) о сильнейшем стрессе, избеганием всего того, что может напомнить о нём, а также ночными кошмарами и высоким уровнем тревожности.
Герой интервью сидит в маске, а его голос изменён, потому что модераторам категорически запрещено рассказывать что-либо о своей работе.
Постоянно нам говорили, что никто не должен знать, кем мы работаем и чем мы занимаемся. Мы подписали договор о неразглашении (NDA, он действует в течение пяти лет с момента увольнения сотрудника. — Прим. TKSAG).
Мужчина рассказал, что во время собеседования рекруты спрашивают у кандидатов, смогут ли они справиться с контентом, который «возможно, вероятно, будет слегка травмирующим».
Но никто никогда не может определить степень того, насколько жестокими и отвратительными будут фото или видео. Я видел, как убивали людей, жестокое обращение с животными и детьми. Мне приходилось смотреть на то, как кто-то радовался тому, что убил человека.
Бывший модератор добавил, что по долгу работы нередко просматривал ролики, на которых люди пытались свести счёты с жизнью.
Я помню, как однажды одному из моих коллег попалось видео, на котором мужчина [пытался навредить себе] и кричал, что хочет уйти из жизни. Это было ужасно, мы не пропустили ролик в ленту, ведь модераторы — это люди, которые защищают пользователей от вредоносного контента.
Со слов героя интервью, работать с травмирующим контентом было бы проще, если бы модераторам не приходилось тщательно вглядываться в фото и видео и определять, по какой причине их блокировать.
У Facebook есть чёткие определения того, что можно считать травмами, жестокостью, языком ненависти, порнографией и так далее. Все эти критерии просто смешиваются в голове, и иногда приходилось очень долго рассматривать фото на предмет наличия какого-либо из признаков запрещённого контента. Иногда я просыпался ночью и понимал, что совершил ошибку. Пропустил сосок, например, а фото ушло в ленту.
Мужчина утверждает, что в компании есть сотрудники, чья задача — помогать модераторам пережить стресс, но, с его слов, у них даже нет лицензии психолога.
Они просто могут сказать нам, что во время обеденного перерыва можно порисовать что-нибудь пальцами, и всё. Эй, я здесь, чтобы спасти мир. Я смотрю на насилие над детьми, у меня нет времени на то, чтобы рисовать пальцами.
Бывший модератор добавил, что со временем чувствительность к тому, что он видел на экране, пропадала. После того как герой интервью ушёл из компании, он почувствовал облегчение, но лишь временное.
Какое-то время спустя мне позвонила журналистка, которой кто-то дал мой номер телефона. Она спрашивала меня о работе, о контенте, о том, что я видел. И тут я столкнулся со всем этим снова, сломался и заплакал прямо в кофейне.
Герой интервью намеревается подать в суд на компанию за причинённые психологические травмы во время работы, хотя мужчина далеко не единственный, кто от неё пострадал.
Тотальный контроль за модераторами фейсбука вгоняет их в стресс
Не только подозрительный контент вгоняет работников компании в депрессивные состояния. Другой бывший модератор фейсбука рассказал изданию VICE в 2020 году, что
Людям приходится отмечать время прихода и ухода даже при походе в туалет и объяснять, почему они там задержались, – это унизительно и оскорбительно.
Другой собеседник журналистов добавил, что у модераторов есть только четыре права на ошибку (пропуск запрещённого контента в ленту) в месяц. Каждому сотруднику назначается оценка качества, которая напрямую влияет на зарплату.
Если ты сделал в один день четыре ошибки и больше, то весь твой месяц летит к чертям, и ты можешь только и думать о том, как бы поднять свой рейтинг.
Ранее TKSAG уже рассказывал о том, как справлялись со стрессом другие работники фейсбука, которые также пострадали от сортировки подозрительного контента в Сети. Чтобы отвлечься, они даже вступали в интимные отношения во время перерывов.
А пенсионерка из Австралии попала под бан фейсбука из-за ошибки модерации. Женщина публиковала в ленте фотографии мини-свиней, которых связала сама, а платформа неоднократно блокировала её аккаунт за якобы язык ненависти.