Сеть TikTok оригинальным образом защищала уязвимых пользователей от травли — ограничивая показы их роликов.
TikTok — социальная сеть, где можно создавать короткие музыкальные клипы — была запущена китайской компанией ByteDance в 2018 году и быстро стала популярной, особенно у молодых пользователей. На Западе компания старается отвести от себя подозрения в связях с китайским правительством и проводит различные мероприятия в поддержку инклюзии и против кибербуллинга и онлайн-преследований.
Но в декабре 2019 года немецкому сайту Netzpolitik удалось получить внутренние документы компании, а также пообщаться с инсайдерами, которые рассказали о довольно необычной практике ограничения видимости контента. Модераторы TikTok были обязаны просматривать видео пользователей, и, если те подпадали под категорию «уязвимых для кибербуллинга» групп населения — ставить на них специальную пометку Risk 4.
К уязвимым лицам, согласно правилам компании, относились люди с дефектами внешности (косоглазие, родимые пятна и т. п.), аутизмом, синдромом Дауна. Пометка Risk 4 приводила к тому, что их видео можно было просматривать только в стране, где оно было опубликовано. Например, для немецкого пользователя это означало, что вместо шанса показать свой клип миллиарду подписчиков во всём мире, он был ограничен примерно 5,5 миллионами немецких подписчиков.
Если же видео «уязвимого» лица всё равно набирало много просмотров — от 6—10 тысяч — он рисковал получить новую отметку — Auto R. Это значит, что теперь его популярные ролики не попадут в автоматически генерируемую ленту рекомендованных видео. А ведь именно на это и рассчитывают пользователи, стремящиеся к известности.
Наконец, в компании был введён специальный список «особых пользователей», которым также присвоили статус Auto R по не вполне ясным основаниям. Среди них были люди, использовавшие хэштеги типа disabled, люди с радужными флагами в юзеринфо и так далее. Например, среди них оказалась и бодипозитивная блогерша Miss_Anni21 с 23 тысячами подписчиков. Она, конечно, получала негативные отзывы на свои клипы, но не жаловалась на них и не просила сеть о защите и ограничении распространения её контента.
Сами модераторы компании признались, что были обескуражены задачей за 15—30 секунд просмотра принимать решение, например, есть ли у человека синдром Дауна или нет.
Эта новость вызвала серьёзное возмущение пользователей, и общественное мнение свелось к тому, что невидимость не защищает, а, напротив, дискриминирует уязвимые группы населения, сокращая возможность найти единомышленников или, например, прославиться и заработать денег.
Представители компании признались, что такая политика и правда существовала, но была ошибочной, устаревшей и изначально была лишь временной мерой по борьбе с кибербуллингом. Сколько точно она действовала, неизвестно, но, свидетельства о ней появились уже в сентябре 2019 года. Сегодня пользователи, страдавшие от ограничения показов, сообщают, что просмотров стало больше.