Раньше модерацию видео в TikTok проверяли люди. Да, процесс был неидеальным: могли ошибаться, пропускать что-то лишнее или, наоборот, блокировать на всякий случай. Но главное – с человеком можно было хоть как-то взаимодействовать: обжаловать блокировку, объяснить контекст, переделать креатив так, чтобы он соответствовал правилам. Теперь же всё решает алгоритм, который не умеет думать, анализировать или разбираться в нюансах.
Как работает AI-модерация в TikTok?
По сути, это автоматическая система фильтров, которая анализирует видео на основе заранее обученных триггеров. Она ищет подозрительные элементы: текст на экране, слова в аудиодорожке, общее оформление, даже выражение лиц или движения. Если хоть что-то показалось алгоритму «не таким» – бан или теневой бан без объяснений.
На первый взгляд это кажется логичным – ИИ быстрее, дешевле и эффективнее, чем живая модерация. Но проблема в том, что алгоритм не разбирается в контексте. Он просто срабатывает по определенным шаблонам, что приводит к массе нелепых ситуаций.
Как AI-модерация мешает арбитражу?
- Баны без объяснений
Раньше, если видео не проходило модерацию, можно было получить конкретную причину блокировки. Сейчас же TikTok просто пишет «нарушение правил сообщества», и дальше разбирайся сам. Чаще всего невозможно даже понять, что именно не так: текст? Музыка? Лицо актёра? Движения? Всё, что остаётся – методом проб и ошибок пытаться угадать, что не понравилось алгоритму. - Одинаковый креатив – разный результат
Сегодня одно видео прошло модерацию и запустилось в рекламу, а завтра точно такое же – в бане. Причём без изменений в правилах. Алгоритмы работают нестабильно, и это делает арбитраж непредсказуемым. Можно вложить деньги в тестирование связки, увидеть, что она работает, начать масштабирование – и внезапно получить бан за те же самые креативы, которые вчера были одобрены. - Искажение рынка
Поскольку AI-модерация работает по заученным шаблонам, настоящие нарушители быстро находят лазейки. Они тестируют сотни вариантов, находят способы обхода фильтров и продолжают работать. В итоге добросовестные арбитражники получают баны, а серые схемы живут и процветают. - Затягивание процесса
Раньше, если видео не прошло модерацию, можно было быстро переделать и подать на повторную проверку, где его уже смотрел человек. Сейчас это делается автоматически, и в 90% случаев обжалования просто игнорируются. Это тормозит работу. Пока одно видео висит в бане, конкуренты уже запускают десятки других. - Невозможность общения с модерацией
Раньше в TikTok были аккаунт-менеджеры, через которых можно было решить спорные моменты. Сейчас этот канал практически бесполезен – в ответ дают шаблонные рекомендации или просто не отвечают. Общение с поддержкой сводится к бесполезной формальности, где единственное решение – пробовать загружать новые креативы в надежде, что алгоритм их пропустит.
Что с этим делать?
На самом деле решение очевидно – TikTok должен вернуться к гибридной системе модерации. Пусть AI отсеивает очевидные нарушения, но в сложных случаях последнее слово должно оставаться за человеком. Без этого платформа рискует потерять качественных рекламодателей, а рынок окончательно уйдёт в тень.
Арбитражники и УБТшники вынуждены постоянно искать обходные пути, тратить время на борьбу с алгоритмом, вместо того чтобы просто запускать рекламу и заливать ролики. И пока TikTok не поймёт, что AI – это всего лишь инструмент, а не абсолютная замена живых модераторов, ситуация будет только ухудшаться.