Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Удалил некоторые страницы сайта, а они все равно показываются в поиске, как их убрать из поиска?

Так же закрыл эти страницы в Robots.txt и дополнительно добавил ссылки каждой страницы в список для удаления в Вебмастере.
ТехнологииПрограммирование+2
Иван Горшков
  ·   · 64,6 K
SEO-Специалист, самоучка. 🏆 Всегда тестирую...  · 16 мар 2022  · seo-personal.ru
Дополнительные меры, чтобы страница больше не попадала в выдачу:
1.Посмотрите были ли данные страницы в sitemap, если да, то удалите их от туда, чтобы не просить поисковых ботов постоянно обходить их
2.Закройте дополнительно страницы с помощью meta-тега robots 
3.Если данные страницы вам не нужны, а они были сгенерированны CMS сайта, то я бы настроил 301-редирект. Но это только в том случае, если данные страницы вам больше не нужны
  1. Удалите ссылки на сайте
С помощью SF проверьте есть ли на вашем сайте ссылки на данные страницы. Если есть, то удалите их, либо закройте в nofollow, чтобы роботы не переходили на данную страницу при очередном обходе сайта. 
5.Ждите
Иногда другого варианты просто не остаётся. Яндекс и Google могут держать ненужные страницы в индексе и месяц, после того, как вы их нашли
Такое конечно редко случается, но стоит пометить.
Были моменты, когда SEO-специалисты удаляли страницы в Яндекс Вебмастер, а проверяли есть ли они в индексе Google, но при этом не удаляли их в GSC😬.
Проверьте нету ли у вас такого. Страницы из Google - удаляем через Google Search Console
Из Яндекс - Яндекс Вебмастер
30 минут бесплатной консультации по вопросам вашего сайтаПерейти на seo-personal.ru/seo-konsultacziya
С 1998 года в сети. С 2008 официально. Работаю про...  · 24 мар 2022
Про robots.txt - запрет нужен. Без этого страница может снова быть проиндексирована, если она не отдаёт 404 ответ. Если отдаёт 404 - сама отвалится, просто наберитесь терпения. Переобход тут не всегда помогает, т.к. он не... Читать далее
Коллега, доброе утро. Про роботс соглашусь только в случае когда страница уже вывалилась из инлекса. Но если она... Читать дальше
Лучший
S͓̘̺̦E̸͕͈͉͎O̡͙: о̼̘̮̬̺́п͟т̵̞̯и̸м͉̘̺͙̲͟и͟з̻̝̥͚͉а͎̟̯...  · 23 мар 2022  · seo-victor.clients.site
Отвечает
.!.
Какой robots.txt? Вы сами закрыли возможность поисковым роботам убедиться в том, что эти страницы не существуют. 1. Уберите все disallow на них из роботс 2. Убедитесь, что они отдают или 404 или в ноиндекс 3. Инструмент... Читать далее
3 эксперта согласны
Только вместо 404 ответа, я бы сделал 410)
Руководитель в Socialit Service: IT аутсорсинг...  · 16 мар 2022
Нужно подождать пока пройдет обновление на поисковиках. Это, как правило, занимает какое-то время. Иногда неделю, иногда больше. Принудительное удаление страниц в вебмастере ускорит дело, но это все равно не мгновенно.
Отвечает
Ника 5
  1. Закройте их в файле robots.txt. Этот файл находится в корне сайта. Строка закрытия должна выглядеть так: Disallow: /адрес страницы сайта/
важно вписать только последнюю часть адреса страницы
  1. Зайдите в Вебмастер Яндекса,
Да я это сделал и все равно показывается.