Индексация сайта в поисковых системах Яндекс и Google: как проверить, ускорить или запретить

Виталий Серебрянников
17.11.2023 ред (27.12.2023)
8983 просмотра


В базу поисковых систем попадают не все сайты и их страницы, и причин тому много. А если ваш ресурс не обнаружен в индексе, значит, и пользователь не найдёт его через поисковик. Это грозит потерей ценного трафика и потенциальных клиентов.

Рассказываем, как контролировать и проверять индексацию сайта, а при необходимости запретить или ускорить. 

Зачем проверять и контролировать индексацию

Индексацией называется процесс, когда поисковые роботы исследуют страницы вашего сайта, переходя с одной на другую, и передают данные в базу поисковиков. Только после этого ресурс появляется на определённой позиции в поисковой выдаче в ответ на запрос пользователя.

Зачем проверять, проиндексирован ли ресурс:

  • Для повышения видимости страниц в поисковой выдаче

    Если страница вашего сайта попадает в индекс, пользователь сможет найти её через поиск и перейти. Для этого каждую веб-страницу ресурса оптимизируют под определённый перечень поисковых запросов, по которым она стремится обойти конкурентов в выдаче поиска. Это повышает её видимость для пользователей.

  • Для обновления контента

    Поисковики время от времени обновляют индекс с целью актуализации выдачи. Вебмастера тоже стремятся оптимизировать уже существующий контент, сделать более ценным для пользователей. Но если страницы нет в индексе, то актуализация контента, размещение ссылок на другие ресурсы и многие другие действия – бессмысленны. 

  • Для выявления проблем с сайтом

    Обнаруженное при проверке изменение процента проиндексированных страниц может говорить о различных проблемах, например, о блокировке сайта поисковыми системами. А ещё часто индексации препятствует неверно составленный файл robots.txt или тег noindex. 

    Кроме того, проверка нужна, чтобы контролировать действия поисковых систем. Ведь робот, придя на сайт, видит всю его подноготную. И если его вовремя не прервать, он будет проходить все страницы без разбора, а значит, в поиске могут оказаться и те из них, которые вам совсем не нужно выставлять на всеобщее обозрение.

    А ещё ресурсы робота ограничены, за определённый период он может обойти только конкретное количество страниц (краулинговый бюджет). Если ваш ресурс многостраничный, высока вероятность, что робот пройдёт совсем не те веб-страницы, которые вам нужны в поиске, а важные оставит на потом.

Поэтому индексирование требует управления и контроля. Как это сделать — рассказываем далее.

Как проверить индексацию через панели вебмастеров

Яндекс.Вебмастер и Google Search Console – главные инструменты вебмастеров, которые выдают подробные сведения об индексировании, причём бесплатно и достоверно. Учитывайте, что они доступны вам, только если вы владелец сайта, сторонние ресурсы по ним не проверить.

Яндекс.Вебмастер

Общие сведения об индексировании смотрите на главной странице панели — во вкладке «Сводка». Здесь отражены, сколько и какие страницы попали в поиск, история обхода, клики в поиске, наличие проблем на сайте, его индекс качества (ИКС). 

Есть и отдельный раздел под названием «Индексирование», в котором собран комплекс отчётов и инструментов:

  • «Статистика обхода»

    Статистика обхода

    Раздел «Индексирование» в Яндекс.Вебмастере

    Здесь приведена информация о сканировании роботом веб-страниц и о проблемах, с которыми он столкнулся. Вы можете посмотреть отчёт по последним событиям или по всем просканированным веб-страницам, начиная с последних. Обращайте внимание на код ответа сервера: если всё хорошо, он будет 200 ОК. Если вы удалили веб-страницу, увидите ошибку 404 Not Found. У правильно работающего ресурса не должно быть ответов 500.

  • «Страницы в поиске»

    Страницы в поиске

    «Последние изменения» показывают текущие сведения о URL, которые участвуют в поисковой выдаче Яндекса

    Страницы в поиске

    «Исключённые страницы» показывают URL, выпавшие из индекса.

    Во вкладке можно посмотреть проиндексированные страницы. В разделе «Последние изменения» вы получите текущие сведения о URL, которые участвуют в поисковой выдаче Яндекса. А в «Исключённых страницах» показаны URL, выпавшие из индекса, и причины этого.

  • «Все страницы»

    Все страницы

    Выгрузка таблицы со сведениями об индексации страниц, присутствующих в файле sitemap

    Все страницы

    Отметка "Searchable" напротив URL показывает, что страница в поиске.

    Из этого раздела можно выгрузить таблицу со сведениями об индексации страниц, присутствующих в файле sitemap. По таблице считывать данные не очень удобно, но если вы видите напротив URL отметку searchable, значит, она в поиске. 

  • «Мониторинг важных страниц»

    Мониторинг важных страниц

    Мониторинг важных страниц в Яндекс.Вебмастере. Позволяет внести собственный список адресов для отслеживания индексирования.

    Ещё одна нужная опция, которая позволяет составить список до 100 адресов для отслеживания их индексирования. Так отпадает необходимость искать определённые URL в перечне проиндексированных. Если настроите уведомления, поисковик будет информировать вас об изменениях в веб-страницах из списка. 

А если хотите, чтобы Яндекс чаще сканировал ваш сайт и новые страницы, активируйте обход по счётчикам в этом же разделе. Для этого ресурс должен быть сопряжён со счётчиком Метрики.

Мониторинг важных страниц

Активация обхода страниц с помощью счетчиков Яндекс Метрики

Google Search Console

Узнать об индексации сайта в поисковике Google тоже можно с помощью панели для вебмастеров — в разделе «Покрытие». Все страницы сайта здесь разделены на четыре категории:

  • Без ошибок. Зелёная зона. Желательно, чтобы все важные URL попали именно в этот список.

  • С ошибками. Красная зона.

  • Без ошибок, но с предупреждениями. Жёлтая зона.

  • Исключённые из поиска. Серая зона.

Визуализирует данные график.

Зеленый график в GTM

Google Search Console: Зеленая зона - без ошибок

Серая зона в GTM

Google Search Console: Серая зона - исключена из поиска

Желтый график в GTM

Google Search Console: Желтая зона - без ошибок, с предупреждениями

Если число страниц вашего ресурса соответствует количеству URL в зелёной и жёлтой зоне, значит с индексацией всё в порядке. Отметим, что в категорию «Жёлтая зона» часто попадают страницы, запрещённые robots.txt. Ниже графика представлены сведения, почему страницы были отнесены к той или иной группе. 

Как проверить индексацию с помощью расширений для браузеров и букмарклетов

Автоматизируют проверку специальные плагины для браузера, которые агрегируют сведения о странице и ресурсе в целом, включая данные об индексировании. 

Одно из самых популярных браузерных расширений — RDS Bar, которым пользуется почти каждый SEO-специалист. Плагин может быть установлен на Хром, Оперу, Firefox. Запустите RDS Bar на нужной веб-странице и дождитесь загрузки данных. Если нажмёте на текст статуса индексирования, будет открыто окно поисковой системы с уже сформированным запросом через поискового оператора site. Напомним, этот оператор «site:»+URL позволяет определить примерное число веб-страниц в поиске, которые начинаются с обозначенного URL.

Браузерное расширение RDS Bar

Браузерное расширение RDS Bar. Вид в браузере Chrome

Браузерное расширение RDS Bar

Браузерное расширение RDS Bar. Автоматическая проверка и вывод данных в ячейках при нажатии на кнопку RDS.

Браузерное расширение RDS Bar

Браузерное расширение RDS Bar. Автоматическое открытие вкладок с операторами при нажатии на кнопку.

Альтернативный способ — использование bookmarklet. С его помощью автоматом формируется ссылка с поисковым запросом через оператор site.

Букмарклет — это скрипт-программа с оформлением как javascript: URL, который сохраняется как браузерная закладка. Большой список bookmarklet можно найти здесь. Зажмите кнопку нужного скрипта и перетащите её на панель закладок браузера. Когда вы впоследствии будете находиться на нужной странице ресурса, нажмите на закладку, которая перенесёт вас в браузер с уже сформированным запросом.

Букмарклет

Пример работы скрипт-программы букмарклет.

Почему сайт может не индексироваться

Хорошо, если все желаемые URL сайта проиндексированы, их число и количество страниц в поиске плюс-минус одинаковое. Но так бывает не всегда, препятствием для индексации могут быть следующие причины:

  • Некорректно составленный файл robots.txt. Это текстовый документ с параметрами индексирования. Он запрещает или разрешает поисковым роботам индексацию страниц. Если директивы используются неправильно, весь сайт или конкретные его веб-страницы могут быть закрыты от индексирования. Периодически проверяйте файл — все ли нужные страницы разрешены для сканирования.

    Анализ robots.txt

    Анализ файла robots.txt в Яндекс Вебмастере

    Анализ robots.txt

    Пример, когда сканирование страницы запрещено в файле robots.txt

  • Отсутствие карты сайта (файла sitemap.xml). Документ находится в корневом каталоге сайта и содержит ссылки на все страницы. Это оптимизирует сканирование контента поисковыми роботами. Добавляйте сюда только те страницы, которые хотите видеть в поиске.

  • Проблемы с мета-тегами. Из-за отсутствия title и description или их повторений на разных страницах поисковики не могут распознать контент. Решается проблема добавлением уникальных мета-тегов на каждую страницу ресурса. 

  • Дублирование контента. Если на сайте есть страницы с повторяющимся или очень схожим содержанием, некоторые из них могут не попасть в индекс. Нужно избавиться от «копий» или объединить контент на одной странице.

  • Низкое качество контента. Малополезными для пользователей могут быть признаны страницы с неуникальным, коротким контентом или не отвечающим поисковым запросам. В эту группу могут также попасть материалы, сгенерированные искусственным интеллектом.

  • Новый сайт. Индексирование нового ресурса требует времени, поэтому в этом случае придётся подождать.

  • Приватные настройки. В некоторых CMS, например, WordPress и MegaGroup, через админку можно скрыть страницы от индексирования, при этом настройка может быть выставлена по умолчанию. 

  • Тег «noindex». Страницы могут быть закрыты для индексации в коде с помощью мета-тега name="robots" content="noindex, nofollow" />. Решение – убрать мета-тег или подкорректировать на «index» и «follow». 

Это не весь перечень проблем, которые требуют анализа. Иногда страницы не индексируются из-за ошибок сканирования, блокировки ресурса в файле .htaccess, низкого uptime хостинга, медленной скорости загрузки сайта, блокировок и фильтров поисковых систем. 

Даже если страница попала в индекс, нет никакой гарантии, что там она останется навсегда. Поэтому время от времени проводите проверки.

Как контролировать индексацию

Чтобы контролировать работу поисковых роботов и добиться лучших результатов индексирования, придерживайтесь следующих рекомендаций: 

  • Внесите сайт в Яндекс.Вебмастер и Google Search Console. Так вы из первых уст будете узнавать о количестве проиндексированных страниц и другие актуальные данные об индексации и техническом состоянии ресурса. 

  • Создайте карту сайта в формате xml. В WordPress это можно сделать с помощью плагинов, например, Google XML Sitemaps. А ещё можно воспользоваться онлайн-сервисами, например, Gensitemap и XML-Sitemaps.

  • Создание файла robots.txt. С его помощью разрешайте или запрещайте роботу обход конкретных страниц ресурса. 

  • Используйте опцию ручного сканирования. Запускайте «Переобход страниц», если нужные вам веб-страницы долго не попадают в индекс, или вы актуализировали контент. 

А ещё контролируйте актуальность контента, периодически внося изменения. 

Как ускорить индексацию сайта

Поисковые роботы активнее сканируют сайты, на которых появляется что-то новое. Поэтому чем больше материалов вы публикуете, тем быстрее они будут попадать в индекс. 

Следите, чтобы на сайте не было ошибок, повторов контента, малополезных страниц. Они не только снижают скорость индексирования, но и расходуют краулинговый бюджет. В результате поисковые алгоритмы сосредотачиваются на ошибках и низкокачественном контенте, вместо того, чтобы заниматься важными для вас URL.

Ускорение индексирования – комплексные работы, которые требуют индивидуального подхода, поскольку должны учитывать специфику и характеристики конкретного сайта и сервера, на котором он расположен. Мы приведём общие рекомендации:

  • Избавляйтесь от ошибок, повторов и «малоценных» страниц.

  • Настройте перелинковку. К каждой веб-странице должны вести конкретная ссылка с правильными анкорами и околоссылочным текстом. Чтобы ускорить индексирование новых страниц, публикуйте ссылки на них на главной странице сайта, которую поисковые роботы посещают чаще остальных. Ускорить процесс способны также репосты статей в соцсетях. 

  • Настройте автообновление карты сайта. Все новые URL должны заноситься в sitemap, а удаленные – извлекаться из карты. 

  • Повышайте скорость загрузки страниц. Чем быстрее они будут загружаться, тем лучше. За ориентир можно взять усреднённые показатели скорости конкурентов. 

Но прежде всего ваш сайт должен быть удобен и полезен пользователю. Понятная и простая навигация, грамотная перелинковка и «сарафанное радио» в сети может положительно сказаться на индексировании сайта.

Выводы

От индексирования зависит ранжируемость сайта в выдаче поиска, поэтому обязательно контролируйте этот процесс и облегчайте работу поисковым роботам. Чтобы не только попасть в индекс, но и занимать первые позиции в поиске, создавайте полезный и уникальный контент, диагностируйте сайт на наличие ошибок и исправляйте их, оптимизируйте скорость загрузки и анализируйте результаты работы поискового робота. А мониторить позиции сайта вам поможет сервис MOAB Tools Top.