О клиенте:
Сайт-агрегатор билетов на поезда, находящийся на этапе стартапа. На сайте необходимо продвигать несколько основных типов страниц:
- Маршрут: пользователи ищут билеты на поезда между городами.
- Станция: информация о станции и направлениях поездов.
- Город: информация о городе (вокзалы, маршруты, отправления).
- Страна: общая информация о железнодорожном сообщении в стране.
- Поезд: информация о конкретном поезде (актуально для некоторых стран, например, Японии).
- Перевозчик: все маршруты конкретного перевозчика.
Цель: Полная AI автоматизация SEO и экономия бюджета
Внедрение автоматизации позволило сэкономить миллионы рублей на создании контента.
Исходные данные:
- 126 156 страниц в индексе.
- 20% страниц (~25 231) требуют SEO-оптимизации с помощью текстов.
- Большая часть автоматизации внедряется за счет подтягивания по API данных от поставщиков билетов. Но примерно на 500 рублей нужно проработать уникальный контент с SEO ключами для одной страницы.
- Расчетный бюджет на ручное создание контента: 12 600 000 рублей (около 3 лет работы).
- Необходимый бюджет при ручном подходе: 350 000 рублей в месяц.
Такой бюджет был недоступен для молодого агрегатора, поэтому требовалось применение нейросетей в SEO.
Эксперт Проекта

Максим Котенков
Автоматизация SEO - это не просто использование ChatGPT. Важно понимать, как правильно настроить промты , какие данные использовать и как интегрировать это с вашим сайтом. Мой опыт позволяет создавать системы, которые не просто генерируют тексты, но и приводят к реальному росту трафика.
Инструменты: ChatGPT и Собственные Разработки
- API ChatGPT.
- Собственные алгоритмы и разработки для промпт-инжиниринга и анализа данных.
Проблема: Слабые Промпты и Ручное SEO
Изначально клиент самостоятельно разработал промпты для описания страниц, разбивая страницу на сегменты (примерно 10 запросов на страницу). Это был правильный подход, но промпты были недостаточно проработаны:
На описание одной страницы делается примерно 10 запросов.
Но промты достаточно слабые. Просьбы написать качественный текст без перечисления критериев качества бесполезны .
Также не были внедрены ключевые фразы, тематические слова. Из-за этого тексты были водянистые и слабо оптимизированные.
Вся SEO оптимизация сайта держалась на удаче “впишет ли GPT ключи или нет”.
Количество кликов в сутки держалось на уровне 100 и вообще не росло.
Что мы сделали
Первое ТЗ прикладываю тут https://docs.google.com/document/d/1dw7ic1-fyEEXjWMuASpsCPqSX5Fpg1ZTpLW3aeH1WJo/edit?tab=t.0
Это самый первый файл. Он не чистовой. Чистовой вариант уже дорабатывался мидлами.
И таких ТЗ было сделано 6 шт.
Шаг 1. Закрытия интента страницы
Когда человек пишет Osoka to Tokyo train он может иметь ввиду:
- получить расписание поездов
- купить билет
- информация о маршруте
- нужна информация о поезде
- что можно увидеть
- и много чего еще
Чтобы это все это закрыть мы собрали таблицу с доменами сущностей:
Домены сущностей, именованные сущности и атрибуты сущностей в Google: кратко
Домены сущностей — это широкие категории, к которым относятся сущности. Например, домен сущностей «Люди» включает в себя всех людей, когда-либо живших или живущих на Земле. Домен сущностей «Организации» включает в себя все компании, фонды, учреждения и т.д.
Именованные сущности — это конкретные объекты или понятия, которые можно идентифицировать и отличить от других. Например, «Альберт Эйнштейн» — это именованная сущность, относящаяся к домену сущностей «Люди». «Google» — это именованная сущность, относящаяся к домену сущностей «Организации».
Атрибуты сущностей — это характеристики, которые описывают именованные сущности. Например, атрибуты сущности «Альберт Эйнштейн» могут включать: «дата рождения», «национальность», «род деятельности» и т.д. Атрибуты сущности «Google» могут включать: «год основания», «штаб-квартира», «основные продукты» и т.д.
В Google для работы с сущностями используются различные технологии, такие как Knowledge Graph и Natural Language Processing (NLP). Knowledge Graph — это база данных, содержащая информацию о множестве сущностей и их связях. NLP — это технология, которая позволяет компьютерам понимать и обрабатывать естественный язык, что позволяет извлекать информацию о сущностях из текста.
В кратце:
- Домен сущностей: Категория (Люди, Организации).
- Именованная сущность: Конкретный объект (Альберт Эйнштейн, Google).
- Атрибут сущности: Характеристика объекта (дата рождения, год основания).
Промт для их получения вы можете забрать в моем файле https://docs.google.com/document/d/1tIozVHO3WbTqA2kN3_anMv3zrMMoVH-1xjvKqAG6ENY/edit?tab=t.0
Закрытие сущностей на сайте
Чтобы их закрыть качественно мы проанализировали какие блоки есть сайта, а чего не хватает, как их закрывают конкуренты.
Закрытие подинтентов поисковых запросов
Мы отобрали все запросы для типов страниц и разложили по интернетам, которые могут возникать у пользователей по ним.
Далее распределили, что у нас уже хорошо закрыто, а что нужно доработать.
Шаг 2. Закрытие ключевых фраз и тематических слов
Чтобы Google точно определил домен сущности его необходимо качественно описать.
Для этого под каждый блок страницы мы прописали какие ключевые слова должны быть вписаны в нем, о чем должен быть блок, чтобы закрыть поисковый интент, какие тематические слова должны быть вписаны в страницу.
Шаг 3. Оптимизация тегов
Определяем какие ключевые слова должны быть h1, title, keywords. Чтобы Google лучше понял смысл страницы.
Шаг 4. Дотачиваем промт
Даем критерии что такое SEO френдли текст:
Что такое AI-undetectable:
Результат
Google потребовалось время, чтобы все проиндексировать и сайт пошел в рост.
В итоге сэкономлены миллионы рублей на вредные оптимизации за счет ИИ автоматизации SEO.
Заказывайте AI автоматизацию вашего сайта
Для заказа автоматизации SEO вы можете обратиться напрямую к Максиму Котенкову в Телеграм. Или оставьте заявку на сайте, мы с вами свяжемся и предложим вам решения.
- Стоимость реализации считается индивидуально от каждого проекта.
- Не разрабатываем единичные промты. Только полная реализации автоматизации.