Руководство социальной сети TikTok объявило о начале тестирования автоматической системы удаления противоправного контента, которая базируется на специально обученной нейросети. Разработчики заявили, что видеоролики порнографического характера, а также со сценами насилия, издевательств, суицида, шок-контента и прочих незаконных действий будут немедленно удаляться с платформы. При этом автор видео сможет подать обращение к модератору-человеку для объективной оценки.
Тестовый запуск автоматизированных средств модерации показал, что только 5% роликов, заблокированных системой, должны были быть допущены к публикации. Разработчики алгоритмов определения незаконного контента продолжают работать над улучшением точности анализа.
До настоящего времени все видеоролики в TikTok, в отношении которых были поданы жалобы, рассматривались небольшим штатом сотрудников-модераторов. При этом процесс оценки шёл крайне медленно. На окончательную модерацию могло уходить до 7-10 дней.
Нововведение призвано сократить объём видео, которое анализируется живыми людьми, а также дать им больше времени на работу с более сложными случаями, например, содержащими дезинформацию. Ожидается, что нововведение положительно скажется на нагрузке модераторов.
Если система обнаружит видео с обнажённым телом, сценами секса, насилия или незаконных действий, оно сразу же будет удалено, а создателю контента будет предоставлена возможность обратиться к модератору-человеку, если он уверен в ошибочном удалении.
В заявлении TikTok отмечается, что сначала новая система будет запущена в США и Канаде, а позже её работа распространится и на другие страны.
Стоит отметить, что за первые три месяца 2021 года в США была отклонена публикация 8,5 млн видео в связи с нарушением норм, правил и законов. В России модерация осуществляется в ручном режиме. По этой причине TikTok получает огромное количество предостережений с требованиями удалить незаконный контент от Роскомнадзора.