Руководитель в Socialit Service: IT аутсорсинг... · 16 мар 2022
Нужно подождать пока пройдет обновление на поисковиках. Это, как правило, занимает какое-то время. Иногда неделю, иногда больше. Принудительное удаление страниц в вебмастере ускорит дело, но это все равно не мгновенно.
С 1998 года в сети. С 2008 официально. Работаю про... · 24 мар 2022
Про robots.txt - запрет нужен. Без этого страница может снова быть проиндексирована, если она не отдаёт 404 ответ. Если отдаёт 404 - сама отвалится, просто наберитесь терпения. Переобход тут не всегда помогает, т.к. он не... Читать далее
Дополнительные меры, чтобы страница больше не попадала в выдачу:
1.Посмотрите были ли данные страницы в sitemap, если да, то удалите их от туда, чтобы не просить поисковых ботов постоянно обходить их
2.Закройте дополнительно... Читать далее
Какой robots.txt? Вы сами закрыли возможность поисковым роботам убедиться в том, что эти страницы не существуют.
1. Уберите все disallow на них из роботс
2. Убедитесь, что они отдают или 404 или в ноиндекс
3. Инструмент... Читать далее