Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Как лучше делать страницы для индексации в Яндексе?

Почему-то много не индексируется
ТехнологииМаркетинг+3
Konstantin Smirnov
  ·   · 3,5 K
SEO и поисковый маркетинг  · 5 февр 2023  · textarget.ru
Во-первых, надо понимать, что есть разница между сканированием, индексацией и ранжированием. Так что для начала нужно разобраться: страница была ли просканирована? Данные можно взять из серверных логов и панели Вебмастера.
Обычно Яндекс находит новые страницы моментально, и если он страницу всё таки просканировал, и в индекс не внёс - есть ряд вариантов.
  • Индексатор увидел URL, но в силу технических препятствий не стал вносить в индекс (не смог скачать, например). Надо проверять техническую доступность URL для роботов.
  • Робот нашёл и просканировал страницу, но ещё не внёс в индекс. В этом случае достаточно подождать апдейта индекса. В последнее время эти апдейты очень неравномерны по времени, но в целом 5-14 дней процесс занимает.
  • Робот просканировал страницу и даже внёс в индекс, но после пересчёта каких-то метрик (текстовых, поведенческих и т.п.) счёл страницу некачественной и выбросил из индекса (деиндексировал). В этом случае нужен более подробный анализ контента (возможно, страница является семантическим дублем, чётким или нечетким), или за период страница получила слишком мало пользовательских сигналов (отказной трафик, отсутствие переходов и т.п.).
Если речь идёт о "много", то вероятно, речь идёт именно о фильтре МПК (малопопулярный или малоценный контент). В интернет-магазинах в эту категорию попадают чаще всего карточки товаров с почти идентичным контентом (надо добавлять товарную микроразметку, чтобы робот увидел отличия) или не получившие пользовательских переходов. Если речь о поведенческих метриках - надо дать трафик на сайт, предварительно обеспечив возможность перехода на эту страницу - средствами перелинковки прежде всего. Часто бывает, что людям просто неоткуда зайти - единственная ссылка есть только в sitemap.xml, оттуда могут зайти только поисковые роботы.
Если речь идёт об информационных страницах - то решается оценкой контента (не дублирует ли он по смыслу и качеству тысячи аналогичных материалов на других сайтах), обеспечением трафика (откуда угодно) и прочими важными для поисковых систем сигналами (ссылки, цитаты, "прокачанные" хостовые метрики - то есть видимость домена в поиске, авторитетность компании-владельца и т.п.).
Добавлю лишь, что Google уже давно "ленится" индексировать новый контент: ему нужно ещё доказать, что страничка достойна показов в поиске и места в базе данных. Яндекс с минувшей весны также начал индексировать новый контент с большим скрипом, хотя бы потому, что многие метрики теперь пытается просчитывать в реальном времени, как и Гугл, и научился работать с JS-контентом, что дополнительно увеличило расход системных ресурсов на сканирование и индексирование интернета.
Консультации по SEO и услуги по продвижению сайтовПерейти на textarget.ru
Спасибо. Много страниц с новостями, цитаты. Остальные страницы свои, контент нормальный