Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Удалил некоторые страницы сайта, а они все равно показываются в поиске, как их убрать из поиска?

Так же закрыл эти страницы в Robots.txt и дополнительно добавил ссылки каждой страницы в список для удаления в Вебмастере.
ТехнологииПрограммирование+2
Иван Горшков
  ·   · 64,6 K
С 1998 года в сети. С 2008 официально. Работаю про...  · 24 мар 2022
Про robots.txt - запрет нужен. Без этого страница может снова быть проиндексирована, если она не отдаёт 404 ответ. Если отдаёт 404 - сама отвалится, просто наберитесь терпения. Переобход тут не всегда помогает, т.к. он не влияет напрямую на обновление выдачи. Робот обращает внимание на robots.txt, но для него это лишь приоритетный сигнал, не более того. Это приблизительный ответ Платона, спрашивал лет 5 назад.
SEO крайне медленная фигня :) Из последнего - description страницы изменился в выдаче спустя 3 недели после реального изменения. И да, это с переобходом в Я.Вебмастере в день изменения. Такая история.
Коллега, доброе утро. Про роботс соглашусь только в случае когда страница уже вывалилась из инлекса. Но если она... Читать дальше
SEO-Специалист, самоучка. 🏆 Всегда тестирую...  · 16 мар 2022  · seo-personal.ru
Дополнительные меры, чтобы страница больше не попадала в выдачу: 1.Посмотрите были ли данные страницы в sitemap, если да, то удалите их от туда, чтобы не просить поисковых ботов постоянно обходить их 2.Закройте дополнительно... Читать далее
30 минут бесплатной консультации по вопросам вашего сайтаПерейти на seo-personal.ru/seo-konsultacziya
Лучший
S͓̘̺̦E̸͕͈͉͎O̡͙: о̼̘̮̬̺́п͟т̵̞̯и̸м͉̘̺͙̲͟и͟з̻̝̥͚͉а͎̟̯...  · 23 мар 2022  · seo-victor.clients.site
Отвечает
.!.
Какой robots.txt? Вы сами закрыли возможность поисковым роботам убедиться в том, что эти страницы не существуют. 1. Уберите все disallow на них из роботс 2. Убедитесь, что они отдают или 404 или в ноиндекс 3. Инструмент... Читать далее
3 эксперта согласны
Только вместо 404 ответа, я бы сделал 410)
Руководитель в Socialit Service: IT аутсорсинг...  · 16 мар 2022
Нужно подождать пока пройдет обновление на поисковиках. Это, как правило, занимает какое-то время. Иногда неделю, иногда больше. Принудительное удаление страниц в вебмастере ускорит дело, но это все равно не мгновенно.
Отвечает
Ника 5
  1. Закройте их в файле robots.txt. Этот файл находится в корне сайта. Строка закрытия должна выглядеть так: Disallow: /адрес страницы сайта/
важно вписать только последнюю часть адреса страницы
  1. Зайдите в Вебмастер Яндекса,
Да я это сделал и все равно показывается.