Баннер Conversion.im
28 ноября 2025

Сгенерировано ИИ: как площадки вычисляют AI-креативы

Аватар Команда ConversionКоманда Conversion
275

За пару лет ленты соцсетей превратились в витрину нейрослопа. В рекламе появляются видео с известными людьми, которые якобы советуют вложиться в крипту, хотя к ролику не имеют никакого отношения. Или продукт рекламирует врач или эксперт, которого не существует — его лицо и голос полностью сгенерированы нейросетью. Если подобный ролик связан со скамом, это портит репутацию платформы и создает юридические риски.

На этом фоне Meta*, Google и TikTok усилили антифрод. Площадки теперь следят не только за ботами и откровенным скамом. Если система считывает набор подозрительных сигналов, она может снизить показы, отправить креатив на дополнительную проверку или ввести ограничения для аккаунта. Рассказываем, как это связано с ИИ-контентом, за что теперь могут забанить и как работать дальше.

  1. Как изменилась модерация
  2. Как алгоритмы Meta*, Google и TikTok выявляют ИИ-контент
  3. Как работать с AI-креативами и не ловить антифрод
  4. Когда лучше делать ручной продакшен

Как изменилась модерация

Регуляторы в США и ЕС требуют прозрачности в работе с ИИ и понятных правил для рекламодателей. В ЕС уже действует закон AI Act: он обязывает компании помечать сгенерированный контент и дает право назначать крупные штрафы за материалы, которые вводят людей в заблуждение, — до 35 млн евро или 7% мирового оборота компании.

Meta*

В 2024 году Meta* объявила новый подход к синтетическому контенту. Раньше у компании были отдельные правила о deepfake-роликах. Сейчас она ввела общий подход: любой реалистичный визуал, который создан или заметно изменен при помощи ИИ, нужно помечать. Особенно в тематиках, касающихся политики, выборов или других важных общественных вопросов. Facebook*, Instagram* и Threads* показывают на таком контенте бейджи вроде Made with AI.

Как Meta* определяет ИИ-креативы. Алгоритмы просматривают каждый файл, который человек загружает в Facebook*, Instagram* или Threads*. Проверяют несколько вещей:

  • Метаданные и водяные знаки. Многие генераторы и редакторы ИИ записывают в файл служебную информацию — отметку, что картинку или фрагмент видео собрала нейросеть. В Meta* научились считывать такие маркеры и по ним ставят лейбл Made with AI. 
  • Само содержимое креатива. Meta* также анализирует картинку, видео и звук. Ее интересуют сюжеты, где ИИ меняет смысл: дорисовывает событие, которого не было, меняет слова публичного человека, клонирует голос известного лица для рекламы и так далее. Здесь просматривают не только технические признаки, но и общий контекст публикации.
  • Поведение аккаунта. Анализируют, как часто аккаунт заливает похожие ролики, на кого они таргетируются, куда ведет ссылка. Если вместе с ИИ-креативами видна типичная схема скама, риски для такого аккаунта растут.

Что Meta* просит маркировать. Платформа требует от автора указывать маркировку Made with AI, если контент выглядит реалистично и может ввести людей в заблуждение. В первую очередь это:

  • фото и видео, где ИИ целиком создал людей или сцены с ними;
  • ролики, в которых ИИ сильно меняет внешность героя — омолаживает, подкачивает, дорисовывает эмоции;
  • аудио с клонированным голосом реального человека или полностью синтетической речью;
  • политические и социально значимые сюжеты, где нейросеть меняет действительно произошедшее событие.

Что грозит за проблемный ИИ-креатив. Использование нейросетей само по себе не запрещено. Meta* наказывает не за факт генерации, а за нарушения базовых правил:

  • мошенничество и скам;
  • вводящие в заблуждение медицинские, финансовые и политические обещания;
  • использование чужого лица в рекламе без согласия, особенно если это известный человек.

В таких случаях модерация может срезать охваты, убрать контент из рекомендаций или отклонить рекламную кампанию. А могут вообще ограничить или отключить рекламный аккаунт. Например, если вы собрали креатив с ИИ-доктором, который обещает вылечить тяжелую болезнь одним БАДом. 

TikTok

За последние пару лет TikTok ужесточил правила для нейроконтента. Площадка ввела обязательную маркировку реалистичных ИИ-роликов, подключилась к стандарту C2PA/Content Credentials и начала использовать невидимые водяные знаки, чтобы не терять следы генерации при перезаливках.

Как TikTok распознает ИИ-контент. Платформа проверяет сразу несколько вещей:

  • Контент, сделанный в самом TikTok. Если вы собираете ролик с помощью встроенных AI-эффектов, платформа сама ставит системный ярлык вроде AI-generated и показывает его зрителям.
  • Файлы с Content Credentials. TikTok читает метаданные C2PA в загруженных видео и фото. Если сервис-генератор (например, Firefly или другой инструмент, который поддерживает Content Credentials) записал в файл отметку, что его собрал ИИ, TikTok использует эти данные и автоматически подставит лейбл AI-generated.

Все ролики, которые вы делаете с TikTok-инструментами или загружаете с Content Credentials, получают дополнительный невидимый водяной знак. Его видят только алгоритмы TikTok. Это помогает сохранить маркеры генерации, даже если кто-то скачал ролик, порезал его и снова залил.

Что TikTok требует маркировать. TikTok просит помечать любой контент, который вы сильно доработали ИИ. Нужно ставить пометку, если ролик содержит реалистичные изображения, видео или звук, которые обычный зритель может принять за реальность. Это относится к «говорящим головам» с ИИ-речью, сценам, где реальный человек делает или говорит то, чего не было, лицам, которые вы радикально изменили или подменили.

Допустим, вы делаете видео с «врачом», которого полностью собрала нейросеть, и включаете в ролик агрессивные обещания по нутра-офферу. Для TikTok это реалистичный ИИ-герой, и ролик должен иметь маркировку.

Что грозит за проблемный ИИ-креатив. TikTok смотрит не только на факт использования ИИ, но и на то, как вы его применяете. Площадка может удалить видео или ограничить аккаунт, если креатив попадает в одну из зон риска:

  • Дипфейки. Фейковые новости, поддельные кадры кризисов, приписанные кому-то заявления, ложные обещания по здоровью и финансам.
  • Имитация реальных людей без их разрешения. Публичные фигуры, селебрити, частные лица и тем более несовершеннолетние, которых вы добавили в ролик через ИИ.

За такой контент TikTok может ограничить показы, убрать видео из рекомендательной ленты и удалить ролик за нарушение «Synthetic and manipulated media». При повторных нарушениях возможен бан аккаунта.

Google

Еще в 2024 году Google сильно ужесточил работу Ads. Согласно отчету, за год сервис удалил 5,1 млрд объявлений, ограничил показ еще 9,1 млрд и заблокировал 39,2 млн рекламных аккаунтов — это в несколько раз больше, чем раньше. 

Google выделил новую проблему: объявления, где ИИ имитирует публичных людей и бренды. Под такие кейсы собрали команду из ста с лишним специалистов и переписали раздел Misrepresentation так, чтобы сразу навсегда отключать подобные аккаунты. За 2024-й Google перманентно отключил более 700 тыс. рекламодателей и почти в десять раз сократил жалобы на такие объявления.

За что Google действительно банит. Google не банит объявления только за то, что вы сделали их в нейросети. Они призывают использовать качественные креативы без видимых машинных артефактов. Модерацию не проходят изображения с заметными ИИ-недочетами, сухим и нелогичным текстом и другими нейробагами.

В официальной политике Google Ads сказано, что если объявление нарушает правила, его могут отклонить, а при систематических или грубых нарушениях — приостановить работу аккаунта рекламодателя. Например:

  • Ложные медицинские и финансовые обещания, подкрепленные нереальными фото до/после и выдуманными отзывами. Нельзя обещать чудесное лечение тяжелых болезней, экстремальное похудение без усилий и быстрые гарантированные доходы.
  • Нельзя менять фото и видео так, чтобы человек поверил в событие, которого не было. Сюда попадает deepfake-имитация публичных фигур, фейковые до/после с выдуманным результатом, поддельные скриншоты доходности по инвестициям.

Отдельно Google обновил политику по адалт-контенту и прямо запретил рекламу сервисов, которые генерируют deepfake-порно и другие несанкционированные интимные изображения. Такие сервисы попадают в категорию грубых нарушений, и аккаунт рекламодателя отключают без предупреждения.

Как алгоритмы Meta*, Google и TikTok выявляют ИИ-контент

Антифрод-системы площадок работают по-разному, но логика везде одна: каждая платформа ищет признаки того, что контент сделал не человек, а нейросеть. Разберем несколько групп сигналов.

1. Текстовые сигналы. Площадки анализируют структуру текста и повторы характерных для ИИ конструкций. Вот что относится к текстовым признакам:

  • Парцелляция и рубленые лозунги. Это когда весь текст состоит из обрывков, а не из нормальных предложений. Например, «Быстро. Удобно. Результат. Без сложностей. Без стресса. Для любого бизнеса».
  • Вездесущие тире. Нейросеть любит склеивать существительные через тире и делать из этого псевдоритм в духе «Бизнес — растет. Расходы — падают. Клиенты — довольны. Вы — в плюсе».
  • Выпадение глаголов. Классический нейротекст частенько выглядит так: «С нутрой осторожнее всего: именно здесь максимум фейковых обещаний, чудо-результатов и поддельных отзывов».
  • Неуместные метафоры и кавычки. Нейросеть часто пытается казаться остроумной и выдает фразы в духе «Мы становимся вашим цифровым “партнером по росту”. Бизнес выходит на новый уровень и перестает “топтаться на месте”». Такие конструкции выглядят фальшиво.
  • Одинаковые шаблоны предложений. Каждое предложение копирует предыдущие по структуре. Меняется только одно-два слова. Например, «Сервис собирает лиды из формы на сайте и из рекламы. Менеджер видит все заявки в одной таблице и не теряет обращения. Владелец смотрит сводку по выручке и видит, какие кампании окупаются».

2. Визуальные сигналы. Изображения и видео проходят свой антифрод. Площадки анализируют:

  • Лишние или склеенные пальцы. Вы наверняка видели подобные картинки — на одной руке видно шесть пальцев, на другой два пальца срослись.
  • Странные глаза. Например, зрачки разного размера, блики стоят не в том месте, взгляд уводит в разные стороны. В ресницах нет отдельных волосков, линия века сливается в ровную черную полоску.
  • Пластмассовая кожа. Лицо и шея имеют один и тот же оттенок, пор не видно совсем. Свет якобы падает сбоку, а тени на лице и одежде лежат так, как будто источник стоит прямо перед моделью.
  • Поломанные суставы. Например, человек на картинке якобы сидит расслабленно, но колено вывернуто под неестественным углом, плечо проваливается в корпус, шея живет отдельно от остального тела.
  • Заблюренный задний фон. Нейросети всегда размывают фон — деревья, улицу, мебель, даже если по задумке эти предметы находятся в сантиметре от персонажа.
  • Нечитаемые надписи. Допустим, на фото якобы изображена витрина с акцией, но буквы на ценниках выглядят в духе симлиша. Или по какой-то причине слово написано только наполовину. То же самое происходит с цифрами.
Как вычислить ИИ-креативы | Изображение 1
Источник: ChatGPT
Как понять что контент сгенерирован нейросетью | Изображение 2
Источник: ChatGPT

3. Метаданные и поведение. Помимо текстов и картинки, платформы анализируют технические данные и поведение аудитории:

  • В Meta* сканируют отраслевые сигналы в метаданных и на их основании добавляют плашку AI info / Made with AI. Если внутри файла есть C2PA-метка или другая служебная запись о генерации, Meta автоматически помечает такой креатив.
  • В TikTok алгоритм ищет записи Content Credentials от C2PA. Если генератор записал в файл, что его сделал ИИ, TikTok сразу добавляет подпись AI-generated. 
  • В Google добавляют собственные водяные знаки (например, SynthID) в текст и изображения, которые создают его модели. Благодаря этому в будущем алгоритмы сразу заметят, что рекламодатель использует сгенерированный контент, и может жестче проверять такие объявления, если тематика рискованная.

Дополнительные поведенческие сигналы:

  • резкий всплеск активности на новых креативах (часто признак накрутки или фейкового контента);
  • одинаковый паттерн просмотров от подозрительных аккаунтов;
  • аномально низкое удержание у внешне «идеального» контента;
  • одинаковые шаблонные описания под разными видео.

Google отмечает, что схожие аномалии чаще всего связаны с мошенничеством и синтетическими креативами — это одна из причин, почему в 2024 году система заблокировала свыше 5 млрд объявлений.

Как работать с AI-креативами и не ловить антифрод

Тексты. Вот какие вещи стоит поправить:

  1. Проверьте любые проценты («89% женщин…»), даты («исследование 2023 года…»), должности и фамилии («врач-диетолог Брэгг…»), громкие статусы («одобрено институтом…», «сертифицированный эксперт…»). Каждому такому фрагменту нужно найти подтверждение в нормальном источнике. А если его нет, надо переписать.
  2. Уберите машинные украшательства. Нейросеть любит писать фразы в духе «гарантирует результат», «топ-1 на рынке», «без риска и вложений». Такие формулировки нужно просмотреть, и все, что не опирается на документы и цифры, вычеркнуть. Либо переформулировать более приземленно. Например, «помогаем снизить расходы на рекламу» вместо «гарантируем снижение затрат в 2 раза».
  3. Превратите рубленые лозунги в нормальные предложения. Например, если нейронка выдала нечто вроде «Быстро. Удобно. Результат. Без лишних усилий. Для любого бизнеса», это можно превратить в нормальный текст, добавив конкретики: «Сервис собирает лиды из рекламы и экономит маркетологу несколько часов в неделю на отчетах».
  4. Уберите вездесущие тире. Например, фразы «Ваш бизнес — растет. Затраты — снижаются. Команда — работает эффективнее» можно поменять на более читабельное «Бизнес растет за счет новых заявок. Затраты на рекламу снижаются, потому что вы отключаете нерабочие кампании».
  5. Уберите неуместные метафоры и кавычки. В той же фразе «Мы становимся вашим цифровым “партнером по росту” и выводим бизнес на “новый уровень”» достаточно просто убрать кавычки, и она перестанет резать глаз.

Картинки и баннеры. Тут сразу две истории: визуальные странности и цифровые хвосты, которые оставляют генераторы.

Как работать с ИИ-креативами | Изображение 3
Источник: Sora

Что можно сделать:

  • после генерации пропустить баннер через обычный редактор (Photoshop, Figma), вручную подправить лицо, руки, фон;
  • поверх сгенерированного фона поставить реальные элементы: фото продукта, логотип, кусок интерфейса, скрин реального дашборда.

Но важно понимать, что, просто прогнав креатив через «Фигму», стереть цифровые хвосты полностью не получится. Метаданные и характерные паттерны генерации часто сохраняются, и антифрод все равно может их уловить. Ручная правка помогает смягчить синтетический вид, но не превращает иишный контент в человеческий.

Учитывайте цифровые водяные знаки и метаданные. Полностью стереть такие метки не всегда возможно. Вот что получится сделать:

  • не заливать как есть сток с нейросети, который уже помечен как AI на исходной платформе;
  • отредактировать картинку, то есть вам нужно собрать макет заново, добавить свои слои в редакторе, подправить ключевые детали вручную и сохранить проект как новый файл, чтобы уменьшить количество типичных ИИ-паттернов.

И главное — помнить, что водяной знак сам по себе не проблема. Проблема начинается, когда вскрывается обман пользователей.

Видео и озвучка. Чтобы видео не выглядело как чистый дипфейк, вот что можно сделать:

  • добавляйте реальные скрины, чтобы разбавить ИИ-фон, например, заскриньте рекламный кабинет и покажите коэффициенты;
  • снимайте хотя бы фоновый материал вручную: для товарки это могут быть ролики с реальным продуктом или настоящий экран смартфона на нейрофоне;
  • используйте AI скорее как прослойку: используйте фон, частичную анимацию, дополнения, а не генерируйте весь ролик.

Google в своих отчетах по рекламе честно пишет, что под блокировки и доппроверки чаще всего попадает именно синтетический контент, который плохо стыкуется с реальностью и используется в сомнительных схемах. 

Будьте честны в сценариях. Даже если видео частично или полностью сгенерировано, к нему применяются обычные правила:

  • нельзя показывать результаты, которых у оффера нет;
  • нельзя имитировать официальные заявления брендов, компаний, власти;
  • нельзя подкручивать интерфейсы (курсы, коэффициенты, суммы), если в реальном продукте такого нет.

Когда лучше делать ручной продакшен

Есть ситуации, где проще сразу отказаться от AI, чем потом получать баны.

  1. Брендовые и имиджевые кампании. Когда важна аутентичность: живые лица, реальные кейсы, узнаваемые амбассадоры. Любая подозрительная синтетика здесь бьет по доверию, как и экономия на продакшене.
  2. Чувствительные вертикали. Здоровье, финансы, безопасность, сложные юридические темы. Регуляторы и платформы особенно внимательно смотрят на такие категории и требуют ясной, проверяемой информации. 
  3. Сценарии, где важна интонация и эмоция. Истории клиентов, сложная персональная боль, работа с недоверием к продукту. Нейросеть может собрать текст, но живая подача в щепетильных темах заходит лучше.

* Принадлежит компании Meta, признанной экстремистской и запрещенной на территории РФ.

Вам была полезна эта статья?
1
0
Похожие статьи
AI-контент и антифрод: как нейросети палятся в Meta*, Google и TikTok | Conversion