Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Помогите правильно исправить: мой сайт/?s={search_term_string}. Проиндексировано, несмотря на блокировку в файле robots.txt

ИнтернетСайты+3
Отели Билеты
  ·   · 542
SEO аналитик. Нравится помогать - это развивает...  · 30 сент 2020  · antonvelichko.ru

Для того, чтобы закрыть от индекса страницы, которые вы не хотите видеть в индексе, необходимо:

  1. разрешить их индексацию в файле robots.txt, т.е. удалить запрещающие директивы, которые ранее были прописаны (и, с ваших слов, не сработали);
  2. задать до закрывающего /head на всех страницах сайта , которые решили закрыть, в мета-теге robots: <meta name=“robots” content=“noindex,follow”> (в вашем случае это все страницы, URL которых содержит переменную "/?s=")

Примечание: п.2 должен заниматься программист, потому что варианты реализации зависят от CMS и компетенции специалиста.

SEO e-commerce, услуг, статейников, наставничество и консультации:Перейти на antonvelichko.ru
Веб-студия "Сайт-Протект" (Москва): создание и...  · 9 окт 2020  · site-protect.ru
robots.txt - не набор приказов для ротботов. Если робот считает, что внешние сигналы, подтверждающие важность страницы слишком сильны, то страничку он проиндексирует несмотря на запрет. Например, на страницу стоят ссылки с... Читать далее
разработка и продвижение сайтовПерейти на site-protect.ru
Частный SEO-специалист, интернет-маркетолог https:...  · 30 сент 2020

Проверьте на всякий случай в Я.Вебмастере в разделе Инструменты - > Анализ robots.txt Добавьте страницу и нажмите проверить, узнаете заблокирована страница или нет. Может быть не правильно прописали правило.

HTML, CSS, JS, jQuery, MySQL, PHP, Laravel, Vue...  · 30 сент 2020
Поисковики не всегда обращают внимание на robots.txt, сразу не найду, но где-то у гугла в поддержке было написано, что он может игнорироваться. Добавьте на все страницы с результатами поиска meta тэги: <meta name="robots" conte... Читать далее