Бывший модератор контента Tik Tok Кэнди Фрейзер подала иск в суд Калифорнии, утверждая, что платформа и её материнская компания ByteDance не обеспечили достаточных гарантий для защиты психического здоровья модераторов, которым по долгу службы приходилось просматривать травмирующие кадры, включая акты экстремального и графического насилия.
Жалоба с предложением коллективного иска и требованием суда присяжных, поданная в Центральный окружной суд Калифорнии 23 декабря, обвиняет ByteDance Inc. и Tik Tok Inc. в неспособности обеспечить безопасное рабочее место для модераторов контента, которые в рамках своей работы по поддержанию "санитарного состояния" платформы социальных сетей проводят долгие часы, просматривая и модерируя видео, включая те, которые вызывают тревогу своей графикой.
"Работая под руководством ByteDance и Tik Tok, модераторы контента, включая истца Фрейзера, являются свидетелями тысяч актов экстремального и графического насилия, включая сексуальное насилие, геноцид, изнасилование и увечья", — говорится в жалобе.
Модераторы, такие как Фрейзер, проводят по двенадцать часов в день, просматривая и модерируя контент, чтобы тревожные изображения не попали к пользователям Tik Tok, говорится в жалобе, утверждая, что ByteDance и Tik Tok знают о психологическом вреде просмотра такого контента для модераторов, но не внедрили признанные в отрасли стандарты безопасности, чтобы защитить их от психологических травм.
В жалобе перечисляется ряд отраслевых стандартов защиты модераторов, включая консультации профессионалов, специализирующихся на вмешательстве при таких травмах, ограничение времени, в течение которого модераторы подвергаются воздействию изображений сексуального насилия над детьми, а также технические меры предосторожности, такие как размытие просматриваемых видео или отключение звука.
Фрейзер заявила, что в результате "постоянного и беспрепятственного воздействия высокотоксичных и крайне тревожных изображений на рабочем месте" у нее развилась и сейчас страдает от значительной психологической травмы, включая тревогу, депрессию и посттравматическое стрессовое расстройство.
Она утверждает, что Tik Tok и ByteDance знают о том, как просмотр графического контента влияет на модераторов, но не включили в свои инструменты модерации такие меры предосторожности, как уменьшение разрешения видео, изменение направления видео или наложение сетки на кадры, которые могли бы "смягчить некоторый вред".
Компания Tik Tok не сразу ответила на просьбу прокомментировать жалобу.
В жалобе содержится просьба к суду заставить Tik Tok и ByteDance принять меры предосторожности и создать фонд, который будет оплачивать диагностику и лечение психологических травм модераторов. В жалобе также содержится требование о возмещении ущерба Фрейзер и группе.
По материалам The Epoch Times USA