Многие считают, что модерация сейчас — это единая думающая ИИ-система. Но на практике используются разные фильтры, где LLM — лишь один из этапов, применяемый только для спорных и уникальных случаев.
Рассмотрим основные модули проверки, которые проходят ваши аккаунты в GoogleADS:
Policy Risk Engine
Автоматическая система проверок, предназначенная для выявления и классификации нарушений текущих политик. Сопоставляет общие паттерны с ранее заблокированными кейсами и не задействует LLM-вычисления. Принцип работы которого мы уже подробно разбирали в своем закрытом телеграмм канале.
Ragnarok
Математическая система для обнаружения мультиаккаунтинга, сходства между ранее заблокированными сайтами, связанными с ним элементами, а также выявления клоакинга и взломанных/вредоносных сайтов. Для сканирования используются человекоподобные боты, которые проводят глубокий технический анализ сайта.
Уникализация вайтов, блека, а также хороший технический сетап помогут, лучше проходить эту проверку.
Семантический анализ с помощью ИИ
Новая система фильтрации с использованием базовых ИИ-функций, которая отсеивает 80-90 % кейсов.
Эта модель не размышляет — ее задача составить описание креатива и сравнить его с базой ранее заблокированных. Если показатель схожести высокий — аккаунт блокируется или креатив отклоняется. При неоднозначном результате кейс отправляется на дополнительную проверку.
Частая уникализация креативов за счет смены контекста снижает вероятность попадания связки в базу, а также позволяет продлить срок жизни всего сетапа.
LLM-анализатор намерения рекламодателя
Этот модуль задействуется при неоднозначных результатах прошлых проверок. Его задача — ответить на вопрос: «Что рекламодатель продвигает и насколько это похоже на уже известные нарушения?»
Анализируются следующие ключевые данные:
- Содержимое объявления (текст + креатив);
- Мета-сигналы: домены, история аккаунта и объявлений, поведенческие паттерны, вертикаль;
- Сопоставляется смысл изображения с действующими политиками.
После этого составляется промпт с ранее заблокированными кейсами и вопросом: «Это действительно нарушение или просто похоже на него?»
На этом этапе модель работает не как классификатор, а как инструмент интерпретации. Именно здесь система пытается снизить количество ложных срабатываний, но ценой высоких вычислительных затрат. Чтобы не попадать под внимание LLM-анализатора, необходимо не триггерить стандартные проверки.
RAG (Retrieval-Augmented Generation)
LLM-модуль для глубокого анализа контекста креативов и выявления новых сценариев обхода политик. Полученные кейсы используются для расширения общей базы нарушений, включая данные из аккаунтов, заблокированных по иным причинам. Также он подключается в случаях, когда у других проверок появилось подозрение на новый способ обхода системы. RAG делает бессмысленной уникализацию отдельных элементов на креативе. Система работает с контекстом и сценариями, а не с текстом или изображением по отдельности.
ALF (Advertiser Large Foundation Model)
Модель агрегирует все цифровые поведенческие следы рекламодателя (данные аккаунта + контент) в единый массив и на его основе определяет, является ли рекламодатель надежным или есть вероятность будущих нарушений. ALF не принимает мгновенных решений, но напрямую влияет на то, какие уровни модерации будут применяться к аккаунту в дальнейшем.
Модель обучали по принципу работы Policy Risk Engine. Чтобы не триггерить попадание в контейнер наблюдения или блокировку, необходимо делать меньше шаблонных, триггерных и резких действий на аккаунте.
Google экономически не заинтересован использовать LLM без необходимости. Даже простые ИИ или старые математические механизмы, работающие на сравнении с базой ранее заблокированных кейсов, дают лучший результат по соотношению стоимости и эффективности, чем сложные думающие семантические LLM-модели.
Поэтому главная задача » не прохождение LLM-модулей, а отсутствие подозрений со стороны базовых проверок.
Читай гайды и мануалы по работе с GoogleADS первым, в нашем ТГК.
Источник
