Критичные проблемы
Долгий ответ сервера
Сообщение означает, что во время обхода сайта поисковым роботом среднее время ответа страниц превысило 3 секунды. Проблема могла возникнуть из-за долгого ответа, возвращаемого сервером при обращении робота к некоторым страницам сайта. Примеры таких страниц можно увидеть в самом сообщении.
Долгий ответ сервера может привести к задержкам при индексировании сайта. Если на данный момент ответ сервера быстрый, то на сообщение не надо обращать внимание. Оно исчезнет при следующем обходе сайта поисковым роботом.
Как ускорить переиндексирование страниц роботом см. Как добавить сайт в поиск. Проверить время ответа сервера можно при помощи инструмента Проверка ответа сервера.
Некорректная настройка SSL-сертификата
Сообщение отображается в следующих случаях:
- Истек срок действия сертификата.
- Сертификат выдан на другой домен или выписан не на все поддомены, на которых используется. Например,сертификат выписан на домен example.com, но используется на домене www.example.com.
- Cертификат Удостоверяющего центра отсутствует в браузерах пользователей или отозван.
- Используется самоподписанный сертификат.
Чтобы устранить ошибку, проверьте SSL-сертификат и настройки сервера. Для этого обратитесь к вашему хостинг-провайдеру.
Робот Яндекса узнает об изменениях при очередном посещении сайта. Если он не обнаружит ошибку, сообщение о ней перестанет отображаться в Вебмастере.
Найдены страницы-дубли с GET-параметрами
Дублирующими считаются страницы с одинаковым контентом, но доступные по разным адресам. Ссылки с GET-параметрами также могут считаться дублями, так как робот Яндекса считает их разными страницами. Такие страницы объединяются в группу дублей.
Если на сайте есть страницы-дубли:
Из результатов поиска может пропасть нужная вам страница, так как робот выбрал другую страницу из группы дублей.
Также в некоторых случаях страницы могут не объединяться в группу и участвовать в поиске как разные документы. Таким образом конкурировать между собой. Это может оказать влияние на сайт в поиске.
- В зависимости от того, какая страница останется в поиске, адрес документа может измениться. Это может вызвать трудности при просмотре статистики в сервисах веб-аналитики.
- Индексирующий робот дольше обходит страницы сайта, а значит данные о важных для вас страницах медленнее передаются в поисковую базу. Кроме этого, робот может создать дополнительную нагрузку на сайт.
Чтобы указать Яндексу, какая страница должна участвовать в поиске и избавиться от дублей, добавьте в файл robots.txt директиву Clean-param, чтобы робот не учитывал параметры в URL.
User-agent: *
будет проигнорирована.- Пример директивы Clean-param
-
#для адресов вида: https://example.com/page?utm_source=link&utm_medium=cpc&utm_campaign=new #robots.txt будет содержать: User-agent: Yandex Clean-param: utm_source&utm_medium&utm_campaign /page #таким образом указываем роботу, что нужно оставить в поиске адрес https://example.com/page #чтобы директива применялась к параметрам на страницах по любому адресу, не указывайте адрес: User-agent: Yandex Clean-param: utm_source&utm_medium&utm_campaign