Анализ покрытия

Сравнение семантики с контентом страниц: какие леммы и n-граммы пропущены. Без контента — работает как Семантический словарь.

Семантика (хотя бы одно из двух)
Превью файла
По одному запросу на строку. Можно добавить URL через ;купить диван;site.ru/divany
Если файл содержит URL без домена (только пути), укажите домен.
Маппинг колонок (для файлов)
Номера столбцов. Если файл с заголовками — система подставит автоматически, но можно изменить.
Контент страниц (опционально)
Вставьте текст одной страницы для проверки покрытия.
Файл из инструмента «Сбор текста с URL». Формат: блоки, разделённые ████.
Система скачает и проанализирует страницы по URL из семантики. Займёт время, часть страниц может не загрузиться.
Настройки

Доступ ограничен

Этот инструмент доступен только авторизованным пользователям с активной подпиской.

Подписка 1 500 р/мес
или
Бесплатный тест на сутки

Оформить можно через личные сообщения:

Какую задачу решает инструмент

Анализ покрытия сравнивает ваше семантическое ядро с реальным контентом страниц. Инструмент показывает, какие леммы и n-граммы из запросов пользователей отсутствуют в текстах ваших страниц. Без контента работает как Семантический словарь — строит частотный словарь из запросов.

Как пользоваться

1. Подготовьте данные

Загрузите файл семантики (Excel, CSV, TXT) или вставьте запросы текстом. Для анализа покрытия добавьте контент страниц одним из трёх способов: вставьте текст одной страницы, загрузите TXT-файл из «Сбора текста с URL» или включите автоматический краулинг по URL из семантики.

2. Загрузите и обработайте

Укажите маппинг колонок если нужно, выберите источник контента. При необходимости включите удаление стоп-слов. Нажмите «Запустить».

3. Результат

Excel-файл с частотным словарём лемм, биграмм и триграмм. Если был указан контент, для каждой единицы отмечено, присутствует ли она в тексте страниц. Пропущенные слова выделены — их можно использовать для доработки контента.