Добавить
Событие
Вакансию
Войти
Зарегистрироваться
Внимание: Чтобы публиковать статьи и комментарии зарегистрируйтесь на сайте.
Совет: Зарегистрируйтесь на сайте и вы сможете оценивать статьи и комментарии.
Совет: Зарегистрируйтесь на сайте чтобы подписаться на дайджест лучших материалов сайта.
Внимание: Чтобы встретиться и пообщаться лично с авторами Cossa, посетите мероприятия, которые мы рекомендуем.
Внимание: Чтобы встретиться и пообщаться лично с авторами Cossa, посетите мероприятия, которые мы рекомендуем.
Внимание: У нас пока немного вакансий, но все они очень интересные.
Статьи
Новости
События
Вакансии
Спецпроекты
Блоги
Рейтинги
Реклама
16 февраля, 16:50
AI против медиа: новая экономика трафика и кликов
ИИ с удовольствием читает ваш экспертный контент. Не скажет ли он вам за это спасибо?
Татьяна Филина,
Digital Caramel
Поделиться
Поделиться
Вы создаёте свежий, продуманный, полезный материал и нажимаете «опубликовать». Но первым его «читателем» оказывается вовсе не человек, а бот. И не один.
Раньше всё было понятно: YandexBot и GoogleBot индексировали, приводили трафик, помогали расти. Сегодня же у паблишеров целый букет из ботов: GPTBot (ChatGPT, созданный американской компанией OpenAI), Google-Extended (нейросеть Gemini от американской Google), ClaudeBot (модель Claude от американской Anthropic), DeepSeekBot (китайская нейросеть DeepSeek) и десятки других. Их цель — не привести пользователя на сайт, а ответить за него.
Одни паблишеры надеются попасть в рекомендации AI-ассистентов и получить новую видимость. Другие всё чаще говорят: «AI просто съедает наш контент». И это ощущение небезосновательно.
Но действительно ли у паблишеров нет шансов или мы наблюдаем очередной переломный момент, где выживут те, кто быстрее адаптируется? В этой статье специалисты Digital Caramel попробуют разобраться в вопросе.
От поисковых ботов к AI-экосистемам
Всего несколько лет назад краулеры были посредниками. Они индексировали страницы и возвращали пользователя на сайт. AI-краулеры играют по другим правилам: они забирают информацию, обобщают её и оставляют пользователя внутри своей экосистемы.
Исследования показывают, что сегодня AI-боты занимают заметную долю всего crawl-трафика. Иногда — критичную.
Показательный кейс — недавняя история с open-source-платформой Read the Docs. После того как сайт заблокировал AI-ботов, ежедневный объём трафика снизился примерно с 800 ГБ до 200 ГБ. То есть минус 75% нагрузки и около $1500 экономии в месяц. Это наглядно показывает: значительная часть запросов идёт вовсе не от живых пользователей.
С одной стороны, доступ AI-краулеров даёт шанс появиться в ответах ChatGPT, Perplexity или AI-поиске. С другой, они:
создают серьёзную нагрузку на серверы;
не кликают;
не покупают;
не монетизируются;
и всё чаще заменяют сам переход на сайт готовым ответом.
Неудивительно, что всё больше паблишеров тянутся к кнопке block.
«AI-ловушка»: когда видимость есть, а кликов нет
Главная проблема заключается не в самом факте сканирования контента. Проблема в том, что происходит после.
AI-сводки в поиске («Поиск с Алисой», AI Overviews и аналоги) отвечают пользователю прямо в выдаче, используя материалы паблишеров как сырьё. Пользователь получает готовый ответ и на сайт просто не заходит.
AI не пытается навредить. Но его логика разрушительна по своей природе:
удерживать пользователя внутри собственной платформы.
SEO стремительно меняется. Мы уходим от гонки позиций к эпохе «кормления LLM-моделей». Если раньше поисковик ещё делился трафиком, то теперь он всё чаще становится конечной точкой. Для паблишера это означает болезненный парадокс: позиции и импрессии сохраняются, а CTR падает.
Цифры подтверждают тренд.
Semrush: AI Overviews показываются более чем в 13% запросов, сильнее всего ударяя по информационному контенту.
The Guardian: некоторые новостные сайты теряют до 80% CTR, если их ссылка оказывается под AI-сводкой.
Reuters: независимые издатели в Европе уже подали антимонопольные жалобы на Google.
На практике это выглядит так:
брендовые запросы почти не страдают;
топ-1 начинает вести себя как бывшие позиции 6–10;
информационные запросы резко падают.
Если раньше CTR топ-1 был 28–40%, то сегодня он часто опускается до 10–22%. Это уже не исключения, а системный сдвиг.
Рач Хумалян
СЕО Digital Caramel
«Проблема заключается не столько в самих AI-ботах, сколько в структурной трансформации экономики клика. Если ранее поисковые системы выступали посредником между пользователем и сайтом, то сегодня они все чаще становятся конечной точкой взаимодействия. AI-ответы лишь логично завершают этот сдвиг, концентрируя потребление контента внутри экосистемы поисковика. Для паблишеров это создаёт болезненный эффект: видимость и позиции в поиске сохраняются, но кликабельность снижается. В результате падает объём просмотров, ухудшается заполняемость рекламного инвентаря, снижается эффективный CPM на информационных страницах и, как следствие, общая монетизация.
При этом сегменты, связанные с уникальными данными, инструментами, аналитикой, практическим опытом и экспертизой, демонстрируют значительно большую устойчивость. Это подтверждается как поведением аудитории, так и финансовыми показателями. Пользователи по-прежнему готовы переходить туда, где поисковик или AI не могут заменить ценность первоисточника, а бизнес-модель таких продуктов оказывается менее зависимой от классической поисковой дистрибуции».
Контент, который AI «съедает» первым
Сильнее всего страдают форматы, которые легко упростить до одного абзаца.
1. Простые how-to и определения
Форматы вроде «Как настроить Алису», «Симптомы гриппа», «Что такое ROI» — всё, что можно свести к короткому абзацу или списку — AI легко перехватывает и выдаёт пользователю самостоятельно.
2. Шаблонные обзоры и affiliate-топы
Материалы уровня «Лучший VPN» или «10 лучших рекламных сетей…» — классический пример контента, который AI может сравнить и структурировать самостоятельно.
3. Коммодитизированные новости
AI-резюме почти идеально пересказывает стандартные новости вроде анонсов обновлений, функций, слухов или оперативных данных (например, криптокурсов). В связке с разделом Яндекс Новости пользователю, чтобы получить всю информацию, часто достаточно одного взгляда.
4. Простые рецепты
Запросы вроде «Как приготовить борщ» уже хорошо закрываются Яндексом: ингредиенты, шаги, изображения — всё доступно прямо в выдаче.
Где AI пока не выигрывает
И вот здесь начинаются хорошие новости. AI по-прежнему критически зависит от источников, которые он не способен заменить.
1. Оригинальная аналитика и исследования
Сохраняет нужные нам клики всё, что невозможно «синтезировать»: бенчмарки, кейсы, исследования, обзоры, эксперименты, собственные инсайты и данные.
Пример исследования Digital Caramel и Mobidriven на Cossa
2. Собственные базы данных
Практически не заменимы каталоги, индексы, таблицы, которые вы собираете сами.
Таблица из статьи Digital Caramel «Какой CPM считается хорошим в 2025 году? Честный разбор» на Sostav
3. Мультимедиа
В AI-сводку плохо укладываются видео, схемы, скриншоты и визуальные данные. Такие материалы остаются ценным трафиковым активом.
4. Экспертный и личный опыт
AI не проживал ваш путь, не ошибался и не принимал решений. Лучше всего работают форматы «что пошло не так», AMA-сессии, разборы реальных бюджетов.
Пример статьи Digital Caramel в Т-Бизнес секретах
5. Интерактивные инструменты
Это один из самых «будущеустойчивых» форматов:
калькуляторы;
визуализаторы;
подборщики и селекторы продуктов;
прогнозные модели.
Такие страницы решают конкретные задачи пользователя и создают повод возвращаться.
6. Ясная, смелая позиция
AI стремится к нейтральности. Сильным преимуществом остаётся чёткое, аргументированное мнение.
Пример экспертного комментария из статьи Digital Caramel «Тренды диджитал-рынка 2026: 15 тенденций развития онлайна» на Sostav
Диана Алейникова
Коммерческий директор Digital Caramel
«С точки зрения коммерции для паблишера сегодня критичны три направления.
Во-первых, жёсткий контроль качества трафика. Любые аномальные источники, создающие нагрузку без участия в монетизации, представляют собой прямые потери и должны не просто фиксироваться, а системно отсекаться.
Во-вторых, переход от масштабирования контента к развитию продуктовых форматов: интерактивных инструментов, собственных данных, аналитики, кейсов и экспертизы. Всё, что невозможно свести к одному абзацу AI-ответа, сохраняет клики и остаётся ценным для рекламодателя.
В-третьих, корректно выстроенная рекламная стратегия. В условиях снижения CTR из-за AI-блоков каждая оставшаяся сессия должна монетизироваться максимально эффективно — за счёт форматов, частоты, viewability и прозрачной аналитики. Именно здесь ключевую роль начинают играть programmatic-подход и контроль показов.
AI не уничтожает рынок паблишеров. Он ускоряет отказ от устаревших моделей монетизации. Те, кто адаптируется к этим изменениям уже сейчас, в перспективе получат более устойчивый и прогнозируемый доход».
Блокировать ли AI-краулеров?
SEO это не убьёт.
Ранжирование Яндекса зависит только от его ботов (YandexBot, YandexImages и другие). Блокировка GPTBot, ClaudeBot или других AI-сканеров напрямую не влияет на позиции.
Но существуют косвенные риски. Если AI-платформы не видят ваш контент, вы лишаетесь:
присутствия в AI-ответах;
шансов попасть в AI-поисковые интерфейсы;
видимости внутри Perplexity, Bing + ChatGPT, SGE и других ассистентов.
Это может оказаться чувствительной потерей, если ваш сайт живёт за счёт новостей, обзоров и инструкций.
Причины, по которым паблишеры всё-таки не хотят никаких краулеров:
превращение контента в ресурс для конкурирующих сервисов;
неконтролируемое и непрозрачное использование материалов;
юридические и лицензионные ограничения;
рост затрат на инфраструктуру и серверные ресурсы;
потеря контроля над контекстом, авторством и качеством интерпретации;
размывание бренда и усиление вторичного контента, конкурирующего с первоисточником.
В результате блокировка GPTBot, ClaudeBot, CCBot и других AI-краулеров становится для многих паблишеров не жестом конфронтации, а инструментом защиты: контента, бренда, инфраструктуры и собственной бизнес-модели.
Как выстроить грамотную защиту от AI-краулеров
Копировать чужой robots.txt — плохая идея. Универсального шаблона не существует: у каждого сайта своя нагрузка, своя модель монетизации и свои риски. Поэтому вместо формального запрета важно выстроить осознанную политику доступа.
К тому же рассчитывать только на robots.txt уже наивно. Значительная часть AI-краулеров либо частично его игнорирует, либо маскируется под обычный пользовательский трафик. В реальности эффективная защита всегда должна быть многоуровневой.
Как правило, она включает:
ограничения и правила на уровне сервера (Nginx, .htaccess);
инструменты вроде Cloudflare Bot Management;
лимиты на частоту запросов;
фильтрацию трафика через WAF;
блокировку известных дата-центров и ASN;
постоянный анализ и аудит логов.
CAPTCHA больше не является надёжным барьером. Современные AI-агенты способны имитировать поведение реального пользователя и обходить даже продвинутые решения вроде Turnstile. Поэтому защита должна строиться не вокруг одного инструмента, а вокруг системы.
Эта система опирается на:
чётко сформулированные правила доступа;
блокировки на edge-уровне;
регулярный пересмотр и корректировку фильтров.
Особое внимание стоит уделять мониторингу аномалий, в том числе:
большому объёму сессий без какой-либо монетизации;
резким всплескам трафика без роста доходов;
подозрительным IP-диапазонам и нестандартным паттернам поведения.
При этом сами по себе AI-краулеры не являются «злом». Их влияние неоднозначно:
они подрывают эффективность простых информационных страниц;
в меньшей степени, но всё же снижают отдачу от коммерческого и экспертного контента;
заставляют пересматривать подходы к индексированию и дистрибуции;
повышают ценность контента и продуктов, которые невозможно свести к короткому AI-ответу.
На практике наиболее устойчивая стратегия сегодня выглядит так:
системно отсекать бесполезный и затратный бот-трафик;
инвестировать в форматы, которые нельзя легко упростить или воспроизвести в AI-сводке;
работать над максимальной ценностью каждой сессии живого пользователя.
Татьяна Филина
Менеджер по коммуникациям Digital Caramel
«Стратегия работы с AI-краулерами не должна быть бинарной. Речь не идёт о простом выборе „пускать или блокировать всех“. Гораздо эффективнее рассматривать ботов с точки зрения их ценности и реального вклада в бизнес: какие из них создают хотя бы косвенную пользу, а какие формируют исключительно нагрузку и риски. Любые решения о блокировке должны приниматься на основе метрик: влияния на серверную нагрузку, скорости сайта, качества трафика и его вклада в доход. В условиях быстро меняющейся AI-экосистемы политика доступа требует регулярного пересмотра и корректировки, а не разовой настройки».
Важный момент: даже качественный трафик не принесёт результата без корректной монетизации. В условиях падения CTR из-за AI-блоков важно, чтобы рекламные форматы, частота показов и аналитика были настроены максимально точно. Стабильный доход — лучший индикатор того, что сайт выходит из «AI-ловушки» и остаётся востребованным у реальной аудитории.
Так кто кого?
Пока AI выигрывает тактически, но стратегически без паблишеров он проиграет.
Если исчезнет мотивация создавать качественный контент, модели начнут обучаться на вторичных пересказах, деградируя. «Контентная инфляция» — реальная угроза для ИИ.
Паблишеры же стоят перед выбором: бороться за старую модель или переизобрести свою роль в мире, где информация больше не дефицит, а доверие и экспертиза — да.
Мнение редакции может не совпадать с мнением автора. Ваши статьи присылайте нам на 42@cossa.ru. А наши требования к ним — вот тут.
Поделиться
Поделиться
⚡
Телеграм Коссы — здесь самый быстрый диджитал и самые честные обсуждения: @cossaru
📬 Письма Коссы — рассылка о маркетинге и бизнесе в интернете. Раз в неделю, без инфошума: cossa.pulse.is
Популярные новости
Бюджеты заморозили, эксперименты нарастили: как бизнес планирует рекламу в 2026 году
17 февраля 2026, 18:10
Инвестиции китайских рекламодателей в продвижение на платформах VK превысили 2,6 млрд рублей в 2025 году
17 февраля 2026, 17:48
Сказка кончается пиром: «Король и Шут» закатили панк-пир в «Пятёрочке»
17 февраля 2026, 15:02
Приоритет — искусственный интеллект: в России заработал национальный штаб по развитию ИИ
16 февраля 2026, 15:00
PW agency провело кампанию для проекта «ТопБЛОГ» президентской платформы «Россия — страна возможностей»
16 февраля 2026, 13:42
-->-->
✉️✨
Письма Коссы — лаконичная рассылка для тех, кто ценит своё время: cossa.pulse.is
Блоги
Невидимые потери ритейла: как отзывы в сети съедают продажи
Исследование Rambler&Co: россияне рассказали, как относятся к ограничениям в интернете
Чем заменить контекстную рекламу, если ставки растут, а продажи — нет
Создать свой блог
Ближайшие события
12
Марта
BUSINESS FORCE FORUM 2026: выставка-форум по маркетингу, продажам и клиентскому сервису
27
Марта
GLOBAL TECH FORUM | Цифровая трансформация и автоматизация бизнеса
13
Апреля
БИТВА ЗА IT-ТАЛАНТЫ | HR IT & TEAM LEAD КОНФЕРЕНЦИЯ
Все события
Cossa использует технологию "cookie" - сохранение на компьютере пользователя небольших текстовых файлов. Кроме того, мы автоматически записываем в серверные логи техническую информацию из вашего браузера: IP адрес и посещённые страницы, а также используем сервис Яндекс.Метрика.
Эта информация не позволит идентифицировать вас, однако может помочь нам улучшить работу нашего сайта.
Согласен ✔
© Cossa. При воспроизведении редакционных материалов сайта обязательна установка активной гиперссылки на источник — страницу с этой публикацией на Cossa.ru.
Компания
О проекте
Реклама на сайте
Прислать статью
Политика обработки персональных данных
Статьи
Мнение
Кейсы
Тренды
Исследования
Интервью
Репортаж
Подписывайтесь
RSS
Рассылка
Telegram
ВКонтакте
Дзен
Тwitter
Сопровождение сайта — компания «Факт»
Meta* (Instagram*, Facebook*) и другие признанные экстремистскими организации/ресурсы запрещены в РФ.
Упоминания иностранных агентов сопровождаются маркировкой по закону.
Информационный материал. 18+.