ИИ и фрод в 2026 году: новая экономика мошенничества в digital
Массовое создание ботов и сайтов-клонов — вот, для чего мошенники используют ИИ в 2026 году. Но эту же технологию можно превратить в оружие защиты. Head of Analytics в TargetADS Кирилл Горелов рассказывает, как выстроить систему, которая видит обман на трех уровнях и отражает атаки в режиме реального времени.
Последние пару лет повсеместно твердят одно и то же: «ИИ изменил всё». К нам приходят с запросами и ждут, что мы расскажем про изменение рынка на 180 градусов из-за ИИ. Здесь будет первое разочарование: изменил — да, но не так, как обычно рассказывают на конференциях. ИИ не сделал ни нас, ни фродеров умнее — он просто дал нам бустер. В этом материале разберем, как использовать ИИ, чтобы защищать свой трафик от фрода и бороться с мошенниками:
ИИ как помощник фродера
Главное, что меняет ИИ — масштаб и скорость. LLM — это системы, которые выполняют заложенные в них функции и задачи. Они не обладают сознанием, это не какой-то «мегамозг», а просто генератор следующей вероятной единицы информации в том или ином виде. В руках фродера они превращаются в дополнительный инструмент автоматизации. Ярче всего это видно на примере контентных ферм (MFA-сайтах):
-
раньше, чтобы собрать сетку площадок, заточенную под размещение рекламы, нужны были люди: копирайтеры, верстальщики, программисты;
-
сейчас LLM позволяет за считанные часы генерировать десятки тысяч страниц и сайтов.
И это больше не пустышки — тексты смотрятся правдоподобно, структура стройная, визуально всё выглядит адекватным. «Конца света» тут нет. Есть практическая боль: много «качественно выглядящих» площадок без реальной аудитории.
Также ИИ ускорил вторую часть конвейера — код и управление инфраструктурой. Ассистенты генерируют шаблоны сайтов, автоматизируют ротацию конфигураций и исправление ошибок.
Вот такой индустриальный апгрейд экосистемы, который по сути и процессам схож с ИИ-адаптацией на других рынках. Везде искусственный интеллект играет примерно ту же роль: удешевляет генерацию контента и кода, помогает быстрее «маскироваться» и обновляться.
ИИ против фрода: верификация
ИИ давно работает и на другой стороне баррикад — в антифроде. Мы используем классический ML не первый год. Привычные инструменты:
-
Кластеризация (k-means) — способ автоматически группировать похожие объекты или пользователей, чтобы увидеть аномалии.
-
Поиск аномалий — действий или паттернов, которые не соответствуют обычному поведению.
-
Градиентный бустинг — метод, который шаг за шагом исправляет ошибки модели, чтобы она точнее определяла нарушения.
-
Автоэнкодеры — нейросети, которые учатся «понимать» нормальное поведение и сигнализируют, если что-то выглядит необычно.
Но за последнее время произошел технологический сдвиг:
-
GPU (графические процессоры для молниеносной обработки данных) стали более доступными, появились качественные фреймворки (готовые инструменты для обучения моделей), в дата-центрах стало проще работать с видеокартами с большой памятью. Это позволило учить модели на действительно крупных массивах логов и реализовать то, что раньше считалось экспериментом.
-
Теперь нейросети можно тренировать не на отдельных выборках, а на полном потоке сигналов. Чем больше контекста видит модель, тем выше вероятность, что она найдет нарушения. При этом сократился и цикл между экспериментом и внедрением: если раньше на это уходили месяцы, то теперь — недели.
На практике это привело к переходу к многоуровневой архитектуре детекции:
-
Базовый слой — модели машинного обучения, анализирующие суммарные и поведенческие показатели (клики, частоты, историю конверсий). Они стабильны, хорошо интерпретируются и закрывают основной объем трафика.
-
Поверх него — слой нейросетей, которые умеют смотреть не на один срез, а на последовательности и связи между объектами:
-
цепочки событий;
-
группы доменов;
-
повторяющиеся паттерны устройств.
Такая связка позволяет выявлять не только «плоские» аномалии отдельных запросов, но и структурные — родственные доменные семейства, типовые сценарии генеративного фрода и подозрительно «гладкую» телеметрию, которую ИИ сгенерировал без естественного шума.
При этом рост качества детекции (выявления фрода) неизбежно повышает риск ложных срабатываний — ситуаций, когда система по ошибке принимает нормальный трафик за фрод.
Поэтому на практике ни одна модель не работает в одиночку, решения принимаются ансамблем: модель + правила. Модель находит подозрительный паттерн, а правила адаптируют его к реальности, чтобы не блокировать нормальный трафик ради идеальной чистоты отчета.
LLM-агенты и новые риски
По сути, LLM-агенты — это еще один способ управлять теми же браузерами/скриптами. Если раньше боту задавали паттерн руками, то сейчас его может генерировать модель. Базово для нас ничего не поменялось: те же классы сигналов, та же логика верификации.
Важно отличать фродовые бот-фермы от LLM-агентов, работающих на закрытие человеческих нужд: они ищут за вас информацию, записывают вас к врачу и выполняют другие рутинные задачи.
С официальными агентами вроде OpenAI, Anthropic, Perplexity всё просто: у них предсказуемые user-agent и диапазоны IP, их можно идентифицировать и обработать по правилам.
Сложнее с неофициальными стековыми решениями. Резидентские прокси, подмена user-agent, имитация человеческого поведения — скролл, курсор, паузы — здесь простых признаков уже не хватает. В этих случаях мы анализируем комбинацию сигналов:
-
повторяющиеся паттерны поведения;
-
слишком стабильные траектории;
-
одинаковый ритм взаимодействия.
Это позволяет отличить живого пользователя от бота.
Но чтобы такая детекция была устойчивой и не давала ложных срабатываний, ее выстраивают как многоуровневую архитектуру — с проверками на уровне устройства, поведения и продуктовой логики.
Уровень 1: устройства и браузеры
Проверяются технические отпечатки среды:
-
fingerprintJS или собственный device fingerprint;
-
анализ Canvas/WebGL/TLS-отпечатков;
-
поиск несовместимых конфигураций среды (когда параметры устройства, ОС и браузера противоречат друг другу).
LLM-агенты и автоматизированные решения часто маскируются, но оставляют технические несостыковки.
Уровень 2: поведенческий
Анализируется взаимодействие со страницей:
-
собственный JS-SDK для логирования событий;
-
хранение и анализ сессий в ClickHouse/визуализация в Grafana;
-
поиск «слишком стабильного» поведения — одинаковые паузы, идеальный скролл, точные клики.
У человека всегда есть случайность: микропаузы, неточные движения, возвраты. У агента поведение чаще ровное и предсказуемое.
Уровень 3: продуктовый
Проверяется логика действий внутри сервиса:
-
правила и ML-скоринг в аналитике;
-
анализ последовательности шагов, возвратов, исправлений пользователя.
Человек действует неидеально. Агент чаще проходит сценарий слишком последовательно, как по инструкции.
В результате решение принимается не по одному признаку, а по совокупности сигналов. Именно такая многоуровневая модель позволяет отделить легитимных пользователей и полезных агентов от фродовой автоматизации.
Прогноз на 2026 год и советы для рекламодателей, агентств и паблишеров
В 2026 году ИИ не меняет саму природу фрода, но радикально меняет его масштаб. Поэтому нужно сместить фокус с разовых проверок на системный контроль качества трафика.
Прогноз на 2026 год
Чего стоит ждать:
-
Порог входа во фрод продолжит снижаться. Генеративные модели и готовые ML-фреймворки помогают быстрее запускать новые домены и скрипты, а также правдоподобнее имитировать действия пользователей. Рост ИИ-ботов был заметен уже в 2025 году — в 2026 эта тенденция сохранится.
-
Доля фродового трафика будет расти. Даже крупные верификаторы в 2025 признавали, что часть ботов продолжает проходить проверку из-за слепых зон и ограниченности сигналов. Поэтому в 2026 году рекламодателю недостаточно просто «довериться рынку» — нужен независимый контроль качества трафика или второй слой собственной проверки.
-
Фрод станет более структурным. Всё чаще это не одна площадка, а семейства доменов, группы приложений и повторяющиеся сценарии со «слишком ровными» метриками. Нормой становится не одна табличная модель, а связка подходов: бустинг (базовые модели по агрегированным признакам) и более продвинутые, которые выявляют аномалии в цепочках событий.
Практические рекомендации
Что делать рекламодателям:
-
Сделайте «двойную верификацию» стандартом. Фильтруйте рискованный инвентарь в DSP еще до закупки (pre-bid) и обязательно проверяйте качество после открутки (post-bid) через независимый аудит логов или внешнего верификатора. Это закрывает те слепые зоны, которые в 2025 году проявлялись даже у крупных игроков.
-
Закладывайте в ТЗ не только видимость, но и качество сессии. Помимо viewability (видимость рекламы) фиксируйте метрики внимания и «честной» телеметрии (события, длительность, ошибки, поведение). Такие сигналы сложнее реалистично сгенерировать ИИ и стабильно поддерживать без естественного шума.
-
Сместите цель с «0% фрода» на скорость реакции. В 2026 году «нулевой фрод» — скорее маркетинговое обещание, а не операционная цель. Важно быстро обнаружить аномалии, вернуть средства и перераспределить бюджет. Заранее заложите это в свои процессы.
Как агентствам бороться с фродом:
-
Включайте антифрод по умолчанию. Не «по запросу клиента», а как базовую часть закупки. Если верификатор отмечает подозрительные источники, задача агентства — последовательно ограничивать их во всех используемых DSP и оперативно перераспределять бюджет в более надежные зоны. Так эффективность и качество результата будет выше.
-
Сегментируйте инвентарь по уровню доверия:
-
премиальные веб-площадки с прозрачной цепочкой поставки — верхний уровень (меньше рисков, выше ставка);
-
открытый веб и приложения — только при усиленной post-bid-проверке и с пониженной ставкой.
Это отражает реальность 2025 года: больше проблем проявлялось именно в открытых зонах.
-
Что делать паблишерам:
-
Усильте доказательство прозрачности инвентаря:
-
поддерживайте актуальные ads.txt/sellers.json;
-
корректно подписывайте CTV-трафик;
-
не позволяйте посредникам переупаковывать ваш инвентарь под другие устройства: на таких подменах сегодня и паразитируют боты.
-
-
Отсекайте подозрительный трафик на входе. В 2026 году гнать «серый» трафик и надеяться, «прокатит или нет», становится слишком дорогой стратегией: байеры чаще будут исключать вашу площадку целиком при первых признаках фрода.
-
Передавайте больше сигналов для верификации. User-agent, события плеера, длительности, ошибки, device/fingerprint-сигналы — чем богаче телеметрия, тем проще отличить живого пользователя.
-
Готовьтесь к запросам на мгновенную блокировку. Рекламодатель будет ожидать от паблишера техническую возможность «не показывать прямо сейчас» по сигналу верификатора. Значит, инфраструктура паблишера должна уметь оперативно применять блокировки и исключения на уровне показов.
Вывод
ИИ — не только технологический фактор, но и экономический. Он просто снизил порог входа во фрод. Если смотреть на экономику, ИИ упростил самое затратное место для фродера — производство контента и обновление кода.
Как теперь искать ботов? Доменов и вариаций становится больше, качество «маскировки» выше. Простых эвристик (быстрых и очевидных правил детекции) и ручных проверок не хватает — приходится смещаться в сторону моделей, которые видят нестандартные паттерны.
С другой стороны, антифрод-составляющая стала технически проще в смысле входа: GPU и фреймворки стали доступнее, не нужно писать низкоуровневую математику, можно учить более емкие модели на больших логах.
В 2026 году выигрывать будут не те, кто ищет «идеально чистый трафик», а те, кто выстраивает системный контроль качества и умеет быстро адаптироваться к новым сценариям фрода.
Возможно, вам будет интересно:
Ваша реклама на ppc.world
от 10 000 ₽ в неделю
Читайте также
Главные конференции для digital-специалистов в 2026 году — вносите в календари
Что такое Telegram-клиенты и зачем они нужны бизнесу, авторам каналов и обычным пользователям
Последние комментарии