поиск
×
Мир

TikTok обучает своих модераторов на видео сексуального насилия над детьми

Материалы с сексуализированным насилием над детьми находятся в свободном доступе для сотрудников компании.

Арман Азат
10 августа 2022 года в 06:37

TikTok обучает своих модераторов на видео сексуального насилия над детьми
Фото с сайта pixabay.com

Справочным материалом для сторонних модераторов контента TikTok служит множество изображений с детьми, подвергшимися сексуализированному насилию, ― и все это находится в почти неограниченном корпоративном доступе. Об этом сообщили бывшие подрядчики соцсети, передает golos-naroda.kz со ссылкой на Forbes.

Бывший сотрудник TikTok Нассер (некоторые фамилии в материале изменены) знал, что в процессе обучения на должность модератора контента TikTok ему придется иметь дело с неприятными материалами. Но когда ему и другим новичкам на обучении показали изображения сексуального характера без цензуры с участием детей, для него это стало настоящим шоком.

Нассер работал в сторонней компании Teleperformance, которая модерирует контент социальной сети. Нового сотрудника взяли на специальный проект, в рамках которого планировалось научить искусственный интеллект (ИИ) TikTok выявлять на платформе худшее из худшего. Спустя всего несколько дней после начала работы Нассеру и его коллегам показали натуралистические изображения и видео, где дети подвергаются действиям сексуального характера, ― все ролики и фотографии, удаленные из TikTok.

«У меня самого есть дочь, и мне кажется, что неправильно, когда это смотрит толпа незнакомых людей. Думаю, что такое для обучения использовать нельзя», – сообщил Forbes Нассер, который ушел из Teleperformance в 2020 году).

Уитни Тернер, работавшая в Teleperformance по этой же программе TikTok в Эль-Пасо на протяжении чуть больше года и уволившаяся в 2021-м, тоже вспоминает, как на обучении ей показывали визуальные материалы с сексуализированным насилием над детьми. Сотруднице дали доступ к общей таблице.

Сама Уитни и ее бывшие коллеги утверждают, что в файле полно материалов, нарушающих правила сообщества TikTok, в том числе сотни изображений с детьми, которых заставляют раздеваться или насилуют.

Бывшие модераторы заявляют, что документ под названием DRR (англ. Daily Required Reading, «обязательная ежедневная вычитка») находился в широком доступе для сотрудников Teleperformance и TikTok еще этим летом. Несмотря на то что некоторым модераторам, задействованным по другим направлениям, просмотр этого документа был запрещен, многие источники рассказали Forbes о том, что свободный доступ к файлу имели сотни работников из обеих компаний. DRR и другие справочные материалы хранились в программе Lark, корпоративной системе китайского гиганта ByteDance, владельца социальной сети.

Уитни была настолько ошеломлена небрежным обращением с материалами, что сообщила об этом в ФБР и впоследствии, в июне, встречалась по этому поводу с агентом. В ФБР на вопросы о том, предвидится ли какое-то расследование, не ответили.

«Я модерировала контент и думала: это же чей-то сын, чья-то дочь. И их родители даже не знают, что у нас сохранены эти фотографии, эти видео, этот ужас, настоящее преступление. Будь родители в курсе, я уверена, они бы сожгли TikTok дотла», – поделилась Уитни.

Президент глобального подразделения по доверию и безопасности Teleperformance Акаш Пугалия заявил Forbes, что ролики откровенного содержания с участием детей компания в целях обучения не применяет. Кроме того, он добавил, что фирма не хранит подобный контент в своих «инструментах калибровки», хотя, что это за инструменты и для чего используются, он не пояснил. Отвечать на другие вопросы из обширного списка о том, сколько людей имеют через DRR доступ к материалам с насилием в отношении детей и как Teleperformance охраняет визуальный данные, управленец тоже отказался.

TikTok ― далеко не единственная платформа, которая борется с материалами сексуального насилия над несовершеннолетними. Крупнейшие социальные сети мира давно прибегают к машинному обучению и помощи сторонних проверяющих, чтобы находить и удалять подобные записи до того, как они разлетятся по интернету. Многие фирмы сотрудничают с Национальным центром по поиску пропавших и подвергшихся насилию детей (National Center for Missing & Exploited Children), чтобы сообщать о подобных постах в своем приложении органам правопорядка.

Однако уникально то, как TikTok и его сторонние консультанты обращаются с таким контентом. Эксперты называют сложившийся подход в лучшем случае небрежным и халатным, а в худшем ― опасным и травмирующим снова и снова. Специалисты подчеркивают, что изображения сексуального характера с детьми при обучении модерации контента ― не важно, с цензурой или без, ― лишь унижает жертв каждый раз заново. Кроме того, хранение записей в документе с общим доступом безответственно и излишне.

Изображения насилия над детьми и их эксплуатации противозаконны, и существуют строгие правила по обращению с такими данными в случае обнаружения. Материал подлежит незамедлительной блокировке, и о нем необходимо сообщать в систему CyberTipline Национального центра по поиску пропавших и подвергшихся насилию детей. Там персонал анализирует файлы и ищет их первоисточник, чтобы уведомить соответствующие правоохранительные органы.

Как только компания сообщает о материале в профильный центр, ей официально разрешается хранить контент в течение 90 дней для помощи следствию. Но федеральный закон США четко требует от предприятий «минимизировать число сотрудников, которым дается доступ» к незаконному контенту, «хранить материалы в безопасном месте» и «обеспечивать полное уничтожение любого визуального изображения по запросу от органов правопорядка».

Новости партнеров

Вам будет интересно