Экстремальный контент: почему экс-модератор Facebook подала на компанию в суд

Автор фото, Reuters
Селена Скола занималась мониторингом материалов, публикуемых в Facebook, и говорит, что компания никак не защищает своих работников от психологических проблем, которые могут возникнуть из-за регулярного просмотра "экстремального" контента.
По словам женщины, модераторам Facebook постоянно приходится иметь дело с тысячами фотографий и видеозаписей, на которых изображены сцены насилия над детьми, пытки, казни и другой неприемлемый контент.
В судебном иске сказано, что Facebook не предпринимает меры для того, чтобы создать для работников "безопасное рабочее пространство".
В самой же компании говорят, что у работников есть полный доступ к "ресурсам, связанным с психическим здоровьем".
По словам Сколы, из-за "невероятно токсичных и экстремально страшных изображений", которые ей приходилось видеть на работе, у нее развилось "посттравматическое стрессовое расстройство".
В иске также сказано, что Сколу могут поддержать тысячи нынешних и бывших модераторов Facebook.

Автор фото, Getty Images
В ответ Facebook обнародовал официальное заявление: "Мы осознаем, что эта работа очень часто может быть непростой. Именно поэтому мы серьезно заботимся о наших модераторах, устраивая тренинги, предоставляя бонусы и доступ к психологической поддержке", - говорят в Facebook.
В последнее время руководство соцсети активно критикуют за пассивность в борьбе с фейковыми новостями и языком ненависти.
Сейчас в Facebook работают около 7500 модераторов, которые просматривают контент, опубликованный пользователями. Критики призывают компанию увеличить количество таких специалистов.
Facebook также использует систему искусственного интеллекта, которую постепенно обучают отличать неприемлемый контент. Цель - усовершенствовать ее настолько, чтобы впоследствии полностью отказаться от необходимости нанимать людей.











