Малоценные или маловостребованные страницы
В поисковой базе Яндекса хранятся данные о множестве страниц. По запросу пользователя может найтись большое количество результатов, релевантных в той или иной степени.
Алгоритм может не включать страницу в поиск, если у нее мало шансов оказаться востребованной пользователями. Так может произойти, например, если страница дублирует уже известные роботу страницы, не содержит контента, либо ее контент не совсем соответствует запросам пользователей. Это автоматический регулярный процесс, поэтому решение алгоритма о включении в поиск конкретной страницы может измениться.
Если у сайта есть такие страницы, это не означает, что у него есть нарушения и ограничения в ранжировании. Наличие у сайта ограничений можно проверить в Вебмастере на странице
.Не включенные в поиск страницы можно увидеть в Вебмастере на странице Исключённые страницы) со статусом «малоценная или маловостребованная».
(Почему страница считается малоценной или маловостребованной
При выборе страниц алгоритм учитывает множество факторов. В зависимости от этого не включенные в поиск страницы можно условно разделить на типы:
Страница может быть признана малоценной, если она является дублем или не содержит видимый роботу контент.
- Как исправить
-
- Проверьте контент страницы и доступность его роботу:
- Верны ли заголовки страницы (title, h1, h2 и т.д.), хорошо ли они описывают ее содержимое.
- Нет ли важного контента, который дан как изображение.
- Не выводится ли важный контент страницы JS-скриптами. Проверьте ответ сервера, чтобы увидеть HTML-код страницы таким, каким его получает робот.
- Не используется ли iframe для вывода контента.
Если страница не представляет ценности, стоит закрыть ее от поиска:
- Если страница повторяет содержимое других страниц сайта, используйте директиву rel="canonical" для указания оригинальной страницы или укажите незначащие GET-параметры в инструкции Clean-param в robots.txt. Можно также запретить индексацию страницы редиректом с HTTP-кодом 301, инструкциями robots.txt, метатегом или HTTP-заголовком noindex.
- Если страница носит технический характер и не содержит полезного контента, запретите индексацию страницы директивой Disallow в robots.txt, метатегом или HTTP-заголовком noindex.
Робот Яндекса проверяет, насколько востребован контент страницы пользователями. Алгоритм оценивает каждую страницу, будет ли она показана по запросам на тех позициях, где пользователь сможет ее найти. Если страница без ошибок в HTML-коде, содержит контент, но в поиске нет пользователей и запросов, на которые она могла бы ответить, страница может быть исключена из поиска как маловостребованная.
- Как исправить
-
Если какие-то страницы имеют контент, но исключаются из поиска, обратите внимание на их содержимое. Возможно, контент не отвечает запросам пользователей. В этом случае измените его, чтобы он лучше соответствовал пользовательским интересам.
Попробуйте встать на место потенциальных посетителей своего сайта. Как бы вы пытались найти информацию по этой теме, как могли бы сформулировать запрос? Чтобы найти актуальные темы, воспользуйтесь сервисом Подбор слов, а также в Вебмастере страницами Статистика поисковых запросов и Управление группами.
Действия алгоритма не являются ограничениями для сайта в поиске. Например, если какая-либо из страниц, исключенных ранее, была обновлена и получила возможность появиться в выдаче по запросам, алгоритм проверит ее повторно.
Посмотрите рекомендации:
Вопросы и ответы
Алгоритм проверяет все страницы регулярно, почти каждый день. Результаты поиска могут меняться, поэтому релевантность страниц в поиске также может изменяться, даже если их содержимое осталось прежним. В этом случае решение алгоритма может исключать страницы из поиска и снова возвращать их.
Алгоритм не выполняет повторного индексирования страниц, а проверяет тот контент страниц, который на этот момент есть в базе. Если ранее страницы были доступны, отвечали кодом 200 ОК и были проиндексированы, алгоритм может проверять их до тех пор, пока робот не посетит страницы повторно и не отследит изменения в коде ответа.
Ускорить процесс удаления таких страниц можно, запретив их индексирование в robots.txt сайта. Тогда ссылки автоматически пропадут из базы робота в течение двух недель.
Если такой возможности нет, см. рекомендации в разделе Индексирование сайта.
При проверке страниц алгоритм оценивает очень большое число факторов ранжирования и индексирования. В результате проверки с учетом всех факторов решение по разным страницам, даже очень схожим по контенту, может быть разным. Возможно, похожие страницы отвечают на один и тот же запрос пользователя, поэтому алгоритм оставляет в поиске только одну, которая, по его мнению, является более релевантной.
Число исключенных таким образом страниц негативно не влияет на ранжирование сайта. Но если страницы удалены как маловостребованные, они доступны и могут участвовать в поиске. Возможны ситуации, при которых такие ссылки будут включены алгоритмом в выдачу. Если вы уверены, что такие страницы не нужны в поиске, лучше запретить их индексирование.