Экстремальный контент: почему экс-модератор Facebook подала на компанию в суд

лого Facebook

Автор фото, Reuters

Селена Скола занималась мониторингом материалов, публикуемых в Facebook, и говорит, что компания никак не защищает своих работников от психологических проблем, которые могут возникнуть из-за регулярного просмотра "экстремального" контента.

По словам женщины, модераторам Facebook постоянно приходится иметь дело с тысячами фотографий и видеозаписей, на которых изображены сцены насилия над детьми, пытки, казни и другой неприемлемый контент.

В судебном иске сказано, что Facebook не предпринимает меры для того, чтобы создать для работников "безопасное рабочее пространство".

В самой же компании говорят, что у работников есть полный доступ к "ресурсам, связанным с психическим здоровьем".

По словам Сколы, из-за "невероятно токсичных и экстремально страшных изображений", которые ей приходилось видеть на работе, у нее развилось "посттравматическое стрессовое расстройство".

В иске также сказано, что Сколу могут поддержать тысячи нынешних и бывших модераторов Facebook.

Смартфон

Автор фото, Getty Images

В ответ Facebook обнародовал официальное заявление: "Мы осознаем, что эта работа очень часто может быть непростой. Именно поэтому мы серьезно заботимся о наших модераторах, устраивая тренинги, предоставляя бонусы и доступ к психологической поддержке", - говорят в Facebook.

В последнее время руководство соцсети активно критикуют за пассивность в борьбе с фейковыми новостями и языком ненависти.

Сейчас в Facebook работают около 7500 модераторов, которые просматривают контент, опубликованный пользователями. Критики призывают компанию увеличить количество таких специалистов.

Facebook также использует систему искусственного интеллекта, которую постепенно обучают отличать неприемлемый контент. Цель - усовершенствовать ее настолько, чтобы впоследствии полностью отказаться от необходимости нанимать людей.

Следите за нашими новостями в Twitter и Telegram