Бывший модератор фейсбука рассказал, что заболел ПТСР из-за травмирующего контента в соцсети

Мария Фокина Мария Фокина

Бывший модератор фейсбука рассказал, как просмотр вредоносного контента вызвал у него ПТСР

Жестокость, насилие и фото, вызывающие отвращение, — всё это видел бывший модератор социальной сети фейсбук пять дней в неделю по восемь часов в день. Мужчина, пожелавший остаться анонимным, рассказал, как сортировка контента, который публикуют пользователи онлайн, стала причиной посттравматического расстройства, с которым он борется до сих пор. Но это не единственное, что вгоняет модераторов фейсбука в стресс.

Ежедневно бывшему сотруднику компании Facebook Inc приходилось просматривать сотни фотографий и видео, которые алгоритмы посчитали подозрительными, и делать выбор — блокировать контент или пропускать его в ленту. Только после того как модератор уволился, он понял, как сильно из-за работы пострадала его психика. Мужчина рассказал об этом в видеоинтервью журналистам издания VICE.

Мне нужно было много времени, чтобы понять, как сильно всё это повлияло на меня. Я никогда даже не верил в существование ПТСР (посттравматическое стрессовое расстройство личности. — Прим. TKSAG). Для того чтобы говорить [о работе], мне пришлось заниматься психотерапией. Я приложил много усилий, чтобы справиться со всем этим, — сказал мужчина.

Посттравматическое стрессовое расстройство, или ПТСР — психическое состояние, от которого страдают люди, кому неоднократно (или единожды) пришлось сталкиваться с ситуациями, травмировавшими их психику. Болезнь сопровождается воспоминаниями (флешбеками) о сильнейшем стрессе, избеганием всего того, что может напомнить о нём, а также ночными кошмарами и высоким уровнем тревожности.

Герой интервью сидит в маске, а его голос изменён, потому что модераторам категорически запрещено рассказывать что-либо о своей работе.

Постоянно нам говорили, что никто не должен знать, кем мы работаем и чем мы занимаемся. Мы подписали договор о неразглашении (NDA, он действует в течение пяти лет с момента увольнения сотрудника. — Прим. TKSAG).

Мужчина рассказал, что во время собеседования рекруты спрашивают у кандидатов, смогут ли они справиться с контентом, который «возможно, вероятно, будет слегка травмирующим».

Бывший модератор фейсбука рассказал, что просмотр вредоносного контента вызвал у него ПТСР
Бывший модератор подозрительного контента

Но никто никогда не может определить степень того, насколько жестокими и отвратительными будут фото или видео. Я видел, как убивали людей, жестокое обращение с животными и детьми. Мне приходилось смотреть на то, как кто-то радовался тому, что убил человека.

Бывший модератор добавил, что по долгу работы нередко просматривал ролики, на которых люди пытались свести счёты с жизнью.

Я помню, как однажды одному из моих коллег попалось видео, на котором мужчина [пытался навредить себе] и кричал, что хочет уйти из жизни. Это было ужасно, мы не пропустили ролик в ленту, ведь модераторы — это люди, которые защищают пользователей от вредоносного контента.

Со слов героя интервью, работать с травмирующим контентом было бы проще, если бы модераторам не приходилось тщательно вглядываться в фото и видео и определять, по какой причине их блокировать.

У Facebook есть чёткие определения того, что можно считать травмами, жестокостью, языком ненависти, порнографией и так далее. Все эти критерии просто смешиваются в голове, и иногда приходилось очень долго рассматривать фото на предмет наличия какого-либо из признаков запрещённого контента. Иногда я просыпался ночью и понимал, что совершил ошибку. Пропустил сосок, например, а фото ушло в ленту.

Мужчина утверждает, что в компании есть сотрудники, чья задача — помогать модераторам пережить стресс, но, с его слов, у них даже нет лицензии психолога.

Они просто могут сказать нам, что во время обеденного перерыва можно порисовать что-нибудь пальцами, и всё. Эй, я здесь, чтобы спасти мир. Я смотрю на насилие над детьми, у меня нет времени на то, чтобы рисовать пальцами.

Бывший модератор добавил, что со временем чувствительность к тому, что он видел на экране, пропадала. После того как герой интервью ушёл из компании, он почувствовал облегчение, но лишь временное.

Какое-то время спустя мне позвонила журналистка, которой кто-то дал мой номер телефона. Она спрашивала меня о работе, о контенте, о том, что я видел. И тут я столкнулся со всем этим снова, сломался и заплакал прямо в кофейне.

Герой интервью намеревается подать в суд на компанию за причинённые психологические травмы во время работы, хотя мужчина далеко не единственный, кто от неё пострадал.

Тотальный контроль за модераторами фейсбука вгоняет их в стресс

Не только подозрительный контент вгоняет работников компании в депрессивные состояния. Другой бывший модератор фейсбука рассказал изданию VICE в 2020 году, что начальство контролировало каждый их шаг и высчитывало по минутам, сколько времени сотрудники тратили на поход в туалет.

Людям приходится отмечать время прихода и ухода даже при походе в туалет и объяснять, почему они там задержались, – это унизительно и оскорбительно.

Другой собеседник журналистов добавил, что у модераторов есть только четыре права на ошибку (пропуск запрещённого контента в ленту) в месяц. Каждому сотруднику назначается оценка качества, которая напрямую влияет на зарплату.

Если ты сделал в один день четыре ошибки и больше, то весь твой месяц летит к чертям, и ты можешь только и думать о том, как бы поднять свой рейтинг.

Ранее TKSAG уже рассказывал о том, как справлялись со стрессом другие работники фейсбука, которые также пострадали от сортировки подозрительного контента в Сети. Чтобы отвлечься, они даже вступали в интимные отношения во время перерывов.

А пенсионерка из Австралии попала под бан фейсбука из-за ошибки модерации. Женщина публиковала в ленте фотографии мини-свиней, которых связала сама, а платформа неоднократно блокировала её аккаунт за якобы язык ненависти.