Кейс «Антиминусинск»: как получить НЧ-трафик из поиска?

14.06.2015 ред (25.12.2023)
1286 просмотров

В моей предыдущей статье описывались стратегические выводы по Минусинску: что произошло, и почему произошло именно так. В частности, в статье говорилось о том, почему привлечение поискового трафика по огромным массивам НЧ станет особенно актуально, в связи с запуском нового фильтра Яндекса. В этом материале вашему вниманию будет предложен способ работы, позволяющий устойчиво взаимодействовать с поисковыми системами в текущих условиях.

Рассмотрим концептуальные подходы, которые мы используем сами и рекомендуем использовать другим:

а) продвигать объект вместо запроса

б) получать трафик по неизвестным запросам

в) покупать ссылки для НЧ (как это делать)

Итак, если мы решили продвигаться по НЧ-запросам, необходимо позаботиться о том, чтобы собрать максимально качественное ядро: чем больше фраз, тем лучше, особенно - если есть неконкурентный источник ключевых слов. Давайте пошагово разберем, как это сделать, перечислив все стадии обработки ядра и получения контента.

Сайты, которые мы отслеживаем, с большими НЧ-ядрами (как с большим количеством sape-ссылок, так и совсем незначительным), после Минусинска, продемонстрировали рост поискового трафика в среднем на 10%:

Рост трафика на этом и других сайтах после Минусинска составил 10%

Как собрать хорошее семантическое ядро для сайта, мы подробно рассмотрели здесь. Однако дальше многие останавливаются: «А что мне делать с этой массой запросов? Как продвинуться по 100 000 запросов, это же нереально?»

Еще как реально! При этом результат получается прогнозируемым, стабильным и независящим от многочисленных «изменений алгоритма» и апдейтов Яндекса. Если хотите забыть о волнении при съеме позиций после каждого апдейта и получать дешевый стабильный трафик из ПС – этот рецепт для вас. Говоря по существу, мы давно уже отказались от измерения позиций по НЧ, так как при ядре в несколько миллионов НЧ-запросов, изменение позиции не говорит ни о чем – но такая метрика, как трафик, сообщает все нужные данные гораздо проще и быстрее.

Итак, у нас есть семантическое ядро. Представим, что нам нужно получить низкочастотный поисковый трафик для компании, занятой в сфере строительства: продажа и аренда спецтехники для перевозки бетона, строительные конструкции из бетона, различные связанные услуги. Очень важно собирать ядро из таких источников, в которых много ключевых слов с низкой конкуренцией.

В качестве примера возьмем выборку в 170 000 наиболее частотных запросов по слову «бетон» из базы MOAB, в которой суммарно представлено на данный момент более 4,5 млрд запросов (3,2 млрд из Метрики + 1,4 млрд из Яндекс.Подсказок). Для ознакомления с обсуждаемой выборкой предлагается файл из 5000 наиболее частотных запросов по слову «бетон» - скачать файл.

Необходимо учитывать, что я, собственно говоря, не являюсь специалистом ни в области строительства, ни в области бетона, поэтому нижеприведенный кейс не преследует цели создать идеальный сайт про бетон, а лишь демонстрирует методологию работы с НЧ-ядром на конкретном примере.

Шаг 1: сбор ядра

  • собираем весь Wordstat, все ключи с точными показами 1 или более
  • добавляем выборки из MOAB Base/Pro + MOAB Suggest. В случае если массив очень большой – можно ограничить визиты, взяв 40-60% наиболее частотных ключей.
  • добавляем выборки из собственной статистики, если таковая есть – чем больше, тем лучше
  • если вам очень важен Google – добавьте Google.Подсказки, собрав их KeyCollector. Mы в MOAB в ближайшее время планируем добавить отдельную базу MOAB Google.Подсказки, тогда эта задача несколько упроститься.

Почему мы собирали именно выборку по запросу «бетон», хотя нас по факту интересуют более конкретные направления – бетономешалки, услуги по доставке и заливке? Почему бы не собрать ключевые слова по запросу «бетономешалка»?

Ответ подробно рассмотрен в п.2 здесь, т.н. «принцип верхней сущности». Получив обширное ядро по запросу «бетон» мы точно, полно и быстро выберем из него нужные нам ключевые слова, добившись максимального количества запросов – а значит, и максимального трафика.

Шаг 2: предварительная очистка в Key Collector

Заливаем все полученные ключевые слова в одну вкладку в Key Collector:

Массив ключевых фраз по запросу «бетон» - 173006 самых популярных фраз, проект Key Collector для ознакомления.

173000 ключевых слов – это немало. В первую очередь нужно распределить их по группам. Как мы помним, наша компания занимается транспортировкой бетона, продажей спецтехники, услугами по заливке и продажей бетоноконструкций.

На этом этапе нужно наложить реальный бизнес на семантическое ядро и извлечь из семантического ядра все запросы, авторов которых бизнес может сделать «счастливыми». На этом моменте нужно остановиться подробнее, обратившись в первую очередь к состоявшимся компаниям среднего бизнеса, планирующим рекламные кампании в интернете: трезво оценивайте возможности своего бизнеса! Не стоит инвестировать серьезные средства в интернет-маркетинг по тому или иному направлению, не будучи уверенными в идеальности своих оффлайновых механизмов. Спросите себя:

  • - а сколько у меня операторов на телефоне? все ли они идеально знают товар/услугу?
  • справиться ли колл-центр с неравномерным распределением звонков, когда 80% звонков поступят в течение 20% времени (обычно это 2 пика: в 11.00 и около 13.00), что будет, когда на одну линию одновременно поступит 4-5 звонков?
  • есть ли у меня собственная логистика?
  • через сколько секунд происходит перезвон клиенту по входящей заявке из формы на сайте?
  • могу ли я предложить цены, сопоставимые, как минимум, со средней ценой конкурентов по выдаче? Провел ли я анализ цен в той выдаче, за которую собираюсь бороться?

Это было - лирическое отступление. У нас пока – семантическое ядро, и первым делом нужно приступить к его очистке.

Открываем инструмент «Анализ групп» на вкладке «Данные»:

Вычисляем группировку «По отдельным словам»:

Начинаем просматривать отдельные группы ключевых слов сверху вниз, отмечая «мусорные запросы»:

Отмечаем «мусорные» запросы галочками – фактически, в два клика из массива было убрано 2620 ненужных запроса, очевидно, что все, что содержит «своими» или «руками» - коммерческого интереса для бизнеса не представляет. Просмотрев только верхние 5% списка, мы смогли убрать более 10000 мусорных запросов:

Это – только предварительная очистка.

Шаг 3: предварительная группировка в Key Collector

Снова возвращаемся к группировке фраз. Начнем с того, что попытаемся собрать в группировке все ключевые слова, относящиеся к строительным конструкциям:

На скриншоте приведены лишь некоторые примеры, более подробно смотрите в представленном примере проекта.

Например, в обрабатываемом массиве мы видим группу «Лестницы», содержащую 2900 ключей:

Переходим обратно в проект и применяем фильтр «Фраза содержит «лестн»:

Получаем выборку, которую переносим в заранее созданную группу «Лестницы»:

По аналогичной схеме просматриваем группы далее и группируем ключевые слова.

В нашем примере, мы, согласно поставленной бизнесом задаче, создали три основных направления: • «Спецтехника» • «Строительные объекты из бетона» • «Услуги»

а затем распределили ключевые слова по этим группам, получив в итоге вот такую картину:

Итоговая картина распределения фраз. Важно заметить, что за 15-20 минут мы распределили по группам около 60000 фраз, при этом каждая группа содержит в себе в среднем несколько тысяч фраз, что уже далеко не так страшно, как изначальные 170 000. Конечно, при необходимости можно, действуя по аналогии, сравнительно быстро распределить весь оставшийся массив.

Шаг 4: тонкая очистка и группировка ключевых слов

Итак, первоначальная группировка проведена, перед нами – будущая структура сайта. Необходимо приступить к тонкой очистке и группировке ключевых слов, сформировать будущие посадочные страницы. Здесь уже вряд ли хватит одного только Key Collector, придется воспользоваться одним из специализированных решений для группировки ключевых слов.

Среди них можно рекомендовать два наиболее приемлемых, с моей точки зрения:

- десктопное решение от Amazingsoftware - МегаЛемма
- серверное решение Keysa

Внутри нашей компании мы используем софт собственной разработки, позволяющий обрабатывать в одном окне массивы в несколько сот тысяч ключевых слов, обладающий повышенной производительностью и рядом других преимуществ, по сравнению с упомянутыми программами. Софт, к сожалению, приватный, поэтому рекомендую наиболее приемлемые решения из имеющихся в публичном поле. Оба решения мы тестировали перед тем, как приступить к разработке собственного, поэтому для наглядности дальнейшую работу по кейсу разберем на примере программы МегаЛемма, благо авторы предоставляют бесплатный триал.

Полный список решений для группировки и очистки ядра рекомендую смотреть на этом сайте, если не подходят предложенные выше решения, то можно выбрать что-то другое по душе.

Каждый из разделов в сформированном нами файле Key Collector – это отдельный будущий каталог статей. Объектом дальнейшей группировки послужит именно каждая отдельная подгруппа:

Каждая из подгрупп будет разбита на большее количество статей при помощи процедуры тонкой очистки и группировки

Создаем новый проект и добавляем в него запросы. Для примера давайте попробуем сгруппировать раздел «Заборы», содержащий 3784 фраз:

Затем проект нужно сохранить – не очень «юзабельный» момент – и можно перейти к автоматическому удалению запросов с опечатками и с ошибочной раскладкой клавиатуры по версии Яндекса, который в программе назван «Нормализация». Настраиваем нормализацию:

Мы рекомендуем использовать Яндекс.XML или напрямую, или через сервис SeoZOO, позапросно продающий платный XML c тем же форматом запроса, что и у Яндекса. Запускаем процесс:

Почему обязательно нужно исправлять опечатки в массивах запросов?

Так как мы работаем с большими массивами запросов, автоматизация и экономия времени - не пустые слова. А статистика показывает, что в любом массиве запросов содержится как минимум 10% опечаток – по ним бессмысленно продвигаться, учитывая, что Яндекс все равно редиректит такие запросы на «правильную» версию. Соответственно, нормализация – отличная возможность уменьшить размер обрабатываемого массива за счет исправления «неправильных» запросов и их слияния с правильной версией, которая, чаще всего, тоже есть в массиве. 3700 запросов обработались за 20-25 минут на i7 – могло бы быть и быстрее.

После нормализации ключевых слов нажимаем кнопку «Удалить нечеткие дубли».

Теперь жмем кнопку «Частотный анализ», по сути – это та же самая группировка, по отдельным словам, которую мы видели в Key Collector. Далее переходим на следующую вкладку, просматриваем группы ключей снизу-вверх и нажимаем F5 на «мусорных» ключах:

Поскольку наша компания работает только по Москве и области, убираем много ключей с географией и различные некоммерческие запросы. За 10 минут было убрано еще 1400 мусорных запросов.

Вот ссылка на проект, а вот ссылка на инструкцию по эксплуатации – юзабилити в программе, к сожалению, на крепкую тройку, не более – хорошо хоть, инструкция есть.

Теперь проект очищен и можно приступать к группировке ключей на вкладке «Тексты/Объявления», для этого просматриваем группы снизу-вверх (это важно! обязательно именно в таком порядке!) и формируем группы нажатием на F6. Начать можно с групп, содержащих внутри хотя бы 10-15 запросов, это явственно свидетельствует о том, что реальный объект, стоящий за этими запросами привлекает достаточно трафика не только по этим запросам, но и по их вариациям, перекомбинациям и пр.:

Группа «Промышленные бетонные заборы» - будущая страница на нашем сайте, и многих ключей, по которым она будет получать трафик мы даже не знаем, однако знаем, что все они будут так или иначе связаны с объектом – промышленными бетонными заборами. Сразу же на странице входа мы сможем предложить пользователю все необходимое для принятия решения: каталог заборов для промышленности с ценами и фото, видео монтажа забора нашими сотрудниками, сертификаты, форму контактов, калькулятор стоимости и многое другое – то есть, мы, фактически сегментируем низкочастотные запросы ядра на небольшие группы и каждому из пользователей дадим ответ, релевантный именно его вопросу – что позволяет нашей компании добиваться конверсии в звонки в 6-10% на объеме в 15 000 – 20 000 пользователей в сутки.

Продолжим группировку, синонимичные сущности можно объединять:

Две группы про секционные заборы должны быть объединены. При этом абсолютно все равно, сколько ключевых слов вы «повесите» на 1 страницу. Это низкочастотка, Карл;) В реальности одна целевая страница за год-два продвижения накапливает как точка входа ядро из нескольких тысяч, а иногда и десятков тысяч запросов, поэтому нет беды в том, чтобы «повесить» на одну страницу 300-400 запросов. Большое количество низкочастотных запросов – просто показатель востребованности реального объекта в реальном мире, вот и все.

Руководствуйтесь тем, чтоб одна страница была посвящена какой-то одной реальной вещи – секционным заборам, заборам из бетонной ленты или чему-то еще:

Итого мы получили 15 групп, это 15 статей различной направленности, и весь процесс занял 10-15 минут – вот она, быстрая обработка больших объемов ключей.

На практике, конечно, групп будет в 2-3 раза больше, многое я пропустил, так как в тематике не разбираюсь и спросить не у кого – но сути методологии это не меняет, сгруппировать 50 или 100 статей не сложнее, просто это займет 1,5-2 часа.

Теперь нажимаем кнопку «В задания копирайтерам» и переходим на следующую вкладку. Там много разных кнопок, но нам нужна всего одна – «Экспорт в Word». Экспортируем и получаем вот такой файл – в нем все ядро уже разбито по группам, удобным для выдачи задания копирайтеру.

Например, статья №5, которая будет агрегировать большое низкочастотное ядро по изготовлению бетонных заборов:

Теперь получившийся файл можно отдать копирайтеру для написания контента и заполнения мета-тегов.

Шаг 5: мета-теги для статей и контент

Тема достаточно банальная, однако кратко осветить ее необходимо. Во-первых, формирование title и H1: используйте в них основу от ваших НЧ запросов - больше ничего не нужно. Для ключевых слов:

бетонный забор промышленный
промышленный бетонный забор
забор бетонный промышленный
бетонный промышленный забор
бетонные заборы промышленные
установка промышленного бетонного забора
промышленные бетонные заборы
промышленные заборы из бетона
промышленный бетонный забор цена
смета на перенос промышленного бетонного забора

вполне достаточно title и H1 – «Промышленные бетонные заборы». Будьте уверены, что сами по себе конкретные запросы не важны – через год продвижения такой страницы, вы увидите, что получали много трафика по высококонверсионной низкочастотке и суммарное ядро составило как минимум пару сотен запросов, являющихся комбинациями и вариациями исходных. Важны реальные объекты – важно знать в какие реальные проблемы можно сгруппировать исходные низкочастотные запросы, и как ответить на эти проблемы так, чтобы пользователь ушел с вашего сайта к телефону, а не к конкурентам.

Именно поэтому не важна пресловутая уникальность контента в процентах, которую любят измерять копирайтеры – это уже давно не играет никакой роли. Несмотря на то, что работа с контентом заслуживает отдельной статьи, кратко я все же скажу – понимайте под контентом не просто текст, а всю информацию в совокупности на вашей странице: удобный каталог цен на услуги и товары, возможность сортировки и фильтрации по ключевым параметрам, видеоролик про то, как работает ваша компания, сертификаты производителя, реальные отзывы от именитых заказчиков, дельные советы по выбору продукта в тексте, максимальный набор характеристик товара, фото с 3D-моделированием товара и количество методов оплаты.

Именно это есть уникальность контента в правильном понимании. Парадоксально, но зачастую Яндекс.Маркет, практически не использующий текстовые описания товаров, предлагает более уникальный контент – в том смысле, как это понимает Яндекс – чем сотни специализированных магазинов. Измеряйте уникальность фактического наполнения страницы, а не уникальность сочетания отдельных букв в скучном и неинтересном seo-тексте.

Шаг 6: ссылки

Пропустим долгую и тяжелую стадию работы с копирайтером, загрузки контента на сайт, оформления перелинковки и пр. – уверен, что читатель и сам в этом в достаточной мере компетентен, кроме того, у всех этот процесс имеет свои особенности.

Представим, что материалы проиндексировались и начали давать первый поисковый трафик. Меня сразу же спросят: а что делать со ссылками? Как работать с огромным массивом низкочастотных запросов? Ведь, казалось бы, даже «подталкивание» такого огромного количества запросов в ТОП, потребует, как огромного количества ссылок (=риск поймать Минусинск), так и огромного бюджета.

На самом деле, все гораздо проще.

Несмотря на то, что реальных ситуаций может быть множество и все они требуют отдельного анализа, я попытаюсь описать общую схему, методологию, которая позволит вам с уверенностью действовать в конкретной ситуации.

Если сайт новый, то я бы рекомендовал купить небольшое (не более 15-30 ссылок на 1000 страниц «будущего» индекса) количество качественных ссылок с «быстроботных» ресурсов одновременно с выкладкой сайта в публичный доступ. Это позволит сайту быстрее проиндексироваться, а вам – сократить промежуток времени от момента публикации материалов до того момента, как они начнут приносить прибыль, учитывая некоторую нерегулярность апдейтов Яндекса в последнее время.

Как определить «быстророботные» сайты?

Для подбора сайтов можно использовать известный многим pr.Sape.ru, фильтр следующий:

Условия фильтра: цена – до 600 рублей, тИЦ- от 10, возраст – от 365 рублей, состоит в Яндекс.Новостях

Берем случайный сайт из выборки и делаем запрос:

(url:www.arh-info.ru/* | url:arh-info.ru/* | url:arh-info.ru | url:www.arh-info.ru)

Очень удобно этот запрос делать при помощи RDS-бара. В результате получаем ответ:

Ссылка на выдачу – тут, результаты могут измениться с момента написания статьи.

Страницы с датой появления в индексе позже последнего апдейта ясно свидетельствуют о том, что быстроробот часто посещает сайт донора, и вы с высокой вероятностью можете рассчитывать на ускорение индексации вашего сайта. Данный рецепт – не универсален, на индексацию влияют и множество других параметров, но эта мера значительно увеличивает вероятность ускорения индексации. Никакие дополнительные критерии не нужны, не усложняйте себе жизнь: есть быстробот – берем ссылку, чем больше таких страниц – тем лучше. Анкоры не нужны, используйте «безанкорное» ссылочное на данном этапе.

После этого рекомендуется приостановить закупку ссылок на 2-3 месяца и посвятить это время работе с источниками трафика, дающими конверсии на коротком плече: Яндекс.Маркет, PPC-системы, недооцененный и не всеми используемый Google.Mercant, собственно улучшению качества сайта – займитесь проверкой релевантности контента на страницах, в зависимости от того какой трафик вы планируете привлекать, уменьшением кол-ва кликов, которые пользователю нужно пройти до заказа, и так далее. Кроме того, не забывайте о семантической микроразметке, о ПРСЯ, ответе last-modified и адаптивном дизайне – большинство покупателей ссылок редко дорастают до реализации даже таких базовых вещей.

По прошествии этого времени вы можете проверить позиции вашего сайта по всему собранному ранее ядру; вы обнаружите пусть и небольшой, но вполне ощутимый трафик, и НЧ-СЧ запросы, самостоятельно вылезшие в топ.

Следующим шагом будет покупка ссылок по «основам запросов». Например, у вас есть страница, семантическое ядро которой состоит из запросов:

бетонный забор промышленный
промышленный бетонный забор
забор бетонный промышленный
бетонный промышленный забор
бетонные заборы промышленные
установка промышленного бетонного забора
промышленные бетонные заборы
промышленные заборы из бетона
промышленный бетонный забор цена
смета на перенос промышленного бетонного забора

Все или большинство запросов в этой группе включают в себя запрос «промышленные бетонные заборы»: ссылку именно с таким анкором вам и нужно купить. Можно ограничиться небольшим на первом этапе набором ссылок, по 2-3 ссылки на страницу. Все анкоры будут одинаковые: «промышленные бетонные заборы»

Критерии подбора в pr.Sape.ru:

Условия фильтра: цена – до 400 рублей, тИЦ- от 10, возраст – от 365 рублей, состоит в Яндекс.Каталоге, не торгующие ссылками.

Теперь начинается самое интересное, так как, вероятнее всего, купленные 2-3 ссылки не принесут сайту топа по запросу «промышленные бетонные заборы». Однако, эти 2-3 ссылки вытащат его в топ по большому количеству расширений и вариаций этого запроса. Многие из этих запросов еще не заданы на момент покупки ссылки, и покупая ее – вы увеличиваете вероятность попадания в топ по большому количеству еще незаданных запросов, которые сами по себе являются ультра-НЧ или вообще уникальными, но в сумме дадут вам столь желанный трафик и конверсии.

При этом, здесь очень важен эффект масштаба – на объеме в 10-15 статей и 20-30 ссылок вы вряд ли добьетесь успеха. Технология начинает работать, когда массив потенциально релевантной вашим страницам низкочастотки достаточно велик, чтобы начать генерировать ощутимый для бизнеса трафик хотя бы в 200-300 уников уже на раннем этапе продвижения. Конечно, бывают очень узкие темы, где много семантики собрать невозможно в принципе. Но чаще всего, проблема не в теме, а в неграмотной работе с семантикой самой по себе – для большинства интернет-проектов реальная релевантная семантика всегда значительно больше, чем тот ее объем, который реально используется в продвижении.

Для этого необходимо работать с группировкой достаточно массивного ядра (как в примере выше, см. проект), группируя хотя бы 300-500 страниц под низкочастотные запросы.

В дальнейшем, можно постепенно подключать к продвижению анкорные ссылки, направленные на продвижение конкретных ВЧ-СЧ, однако делать это надо аккуратно, учитывая то, что Минусинск, вероятно, будет реагировать на ссылочные лимиты в зависимости от тематики сайта, а также быть готовым либо потерять собственный сайт в поисках границы, либо по мере более массовой раскатки алгоритма накопить статистику о конкурентах, попавших под фильтр.

Очень часто звучит вопрос: какие ссылки покупать? Что важно, а что нет?

В нашей компании используется собственный алгоритм оценки работоспособности ссылок. Однако, разработка и использование подобного программного комплекса имеет смысл только при очень больших объемах закупки, когда повышенная точность помогает сэкономить существенные средства.

На «обычном» уровне закупки, когда речь идет о 1000-2000 ссылок на проект, будь они из pr.Sape.ru или просто из Sape.ru, на что бы я посоветовал обращать внимание на:

1. Поисковый трафик. Это самый простой, самый важный и самый легкодосутпный критерий, позволяющий понять отношение ПС к сайту. Если сайт хороший – у него много трафика с поиска, если плохой – трафика мало. При этом, трафик – понятие относительное, зависящее от индекса. Я бы рекомендовал ориентироваться на ваших топовых конкурентов, рассчитывая по ним соотношение «нормального» для тематики трафика из поиска на 1000 страниц индекса.

2. Полезность для пользователя. Старайтесь не покупать ссылки на сайтах, сделанных исключительно «под биржу» - уверен, многие из вас часто видели такие. Желательно, чтобы торговля ссылками была крайне второстепенной для монетизации сайта, а сам сайт, привлекая поисковый трафик, позволял посетителям решать какие-то важные для них задачи.

Косвенным параметром, помогающим понять «предназачение» сайта, может служить ссылочный профиль, который легко проанализировать при помощи LinkPad.

Например, сайт globalaffairs.ru, активно торгующий в Sape, имеет явный seo-профиль исходящих ссылок, для этого достаточно взглянуть на анкоры исходящих ссылок. В то же время, очевидно, что этот сайт был создан не для торговли ссылками, а для других задач, а его внешнее ссылочное существенно превышает количество исходящих ссылок:

Таким образом, ссылки с этого сайта можно рекомендовать к приобретению. Важно учитывать, что без существенных инвестиций в ПО и аналитику невозможно обеспечить работоспособность 100% массива приобретенных ссылок – да это и не нужно. Неизбежно часть ссылок, приобретенных вами не будет реально влиять на позиции сайта – и это нормально. Важно, что, покупая ссылки, согласно рекомендациям выше, вы обеспечите высокую вероятность работоспособности значительной (50-70%) доли купленных ссылок, а это, в свою очередь, даст вам возможность добиться нужного результата.

В то же время пресловутая «индексация» ссылок на данный момент не может служить критерием, определяющим качество ссылки. Внутренними экспериментами нашей компании подтверждается, что непроиндексированные ссылки влияют на выдачу, более того, снятие большого числа непроиндексированных ссылок, может нанести сайту ощутимый ущерб.

Напоследок хотелось бы сказать несколько слов о том, почему описанный мною подход обеспечивает ряд конкурентных преимуществ над конкурентами в глазах пользователей и поисковой системы:

1. В первую очередь, данная концепция обеспечивает возможность отказаться от конкретного запроса, как объекта продвижения, и принять в качестве объекта группу пользовательских запросов. При этом не имеет значения, сколько запросов «повешено» на одну страницу – их может быть от 10 до 200-300 – главное, чтобы они были объединены одной реальной сущностью.

В этом случае, вы получаете трафик не только по тем запросам, которые попали в ваше семантическое ядро, но также и по огромному количеству уникальных запросов, которых не было в вашем ядре как таковых. Это и запросы, синонимичные найденным, и запросы, являющиеся расширениями и перекомбинациями тех, которые удалось найти. В итоге, вы получаете трафик по огромному количеству неизвестных запросов. В такой ситуации объектом продвижения становится не столько запрос, так это понятие размывается на тысячи микро-НЧ и уникальных ключей, сколько страница, как объект, удовлетворяющая интерес пользователей по большой группе запросов. Именно это обеспечивает невероятную стабильность трафика и позволяет не беспокоиться о позициях по тому или иному запросу, так как доля каждого отдельного запроса в общей структуре трафика становится чрезвычайно низкой.

2. Во-вторых, качественно сгруппировав ядро, вы увидите, что любая тематика разбита на огромное количество подтем, а интересы пользователей, готовых приобрести тот или иной товар или услугу, вполне конкретны и осязаемы. Ярким показателем наличия большого количества НЧ-трафика служит разница между точной и общей частотностью «основного» ключа тематики – именно об этой разнице в 15 раз по запросу [туры +на майские праздники 2015] мы говорили ранее.

Разбивая все ядро на группы, вы получите возможность представлять на каждой странице только те товары и услуги, которые релевантны данной группе ключевых слов. Таким образом, каждая страница категории на cайте будет создана не потому, что она присутствует в каталоге производителя, как это часто бывает, а потому, что она представляет отдельную группу реальных интересов пользователей с реальным спросом.

Возможность представить на каждой странице товары, релевантные поисковому запросу, обеспечивает повышенную конверсию – пользователю не нужно лишний раз пользоваться поиском и подбором. Кроме того, получая трафик по большому количеству НЧ-запросов, вы обеспечиваете поток гораздо более лояльных посетителей, четко понимающих, какой товар им нужен – а это, в свою очередь, требует меньшей квалификации операторов на телефоне и снижает нагрузку на колл-центр в целом.

3. Горизонтальная стабильность – многолетний опыт свидетельствует, что привлечение трафика по большому числу НЧ-запросов обеспечивает сайту отличную устойчивость перед лицом различных изменений алгоритма и «глюками» ПС. Если 80% трафика на ваш сайт приходят по 10-30 СЧ-ВЧ запросов, то даже обыкновенные «глюки» поисковой системы, способны здорово подорвать его экономику. В то же время практика показывает, что если в структуре трафика сайта только НЧ-запросы, и доля каждого из них в общем трафике не превышает сотых и десятых долей процента – подобные нововведения сказываются на трафике в минимальной степени.

Например, в нашей практике есть крупный интернет-магазин, с трафиком около 10 000 посетителей в сутки. В структуре его есть всего лишь 30-40 запросов, приносящих более 15 посетителей в сутки. Весь остальной трафик – переходы по уникальным ультра-НЧ запросам. Трафик поддерживается на стабильном уровне или растет вот уже более 5 лет, независимо от алгоритмов ПС.

При этом данный пример не завязан на конкретную тематику – конкуренты, как это обычно и бывает, все так же получают трафик по СЧ-ВЧ, тратят ссылочные бюджеты и с волнением снимают позиции.

4. Пример упомянутого выше сайта можно отлично проиллюстрировать следующей статистикой: «запланированное», подобранное нами семантическое ядро сайта на данный момент составляет около 300 000 – 350 000 ключевых слов. При этом ежегодно мы выгружаем из Яндекс.Метрики около полутора миллионов новых запросов, то есть происходит эффект «саморазрастания ядра» за счет новых и уникальных запросов.

В заключение хотелось бы резюмировать: будьте внимательны к семантическому ядру, именно в нем – вся необходимая информация о ваших клиентах, используйте качественные источники ключевых слов, работайте с большими массивами НЧ-запросов, предлагайте на страницах своего сайта товары, релевантные поисковым запросам, входящим на страницу – и убедитесь, что даже в кризисные времена данная стратегия обеспечивает сайту отличный рост.

Евгений Суминов, Ya.Metrika Lab