Попробуйте закрыть нужные разделы через файл robots.txt и плагин использовать не надо. Это позволит и нагрузку на сайт снизить. Ну и собственно боты Google будут считывать его в первую очередь
План действий:
Открываете FTP редактор
Прописывайте в robots.txt конструкцию которая представлена ниже, вместо "/" указывайте ссылки на те архивы, которые надо закрыть. Пути относительные.
Переключатель на против пункта "Метатеги robots архивов Рубрика" должен быть включен - иначе настройка ниже не играет роли. Посмотрите исходный код рубрики.
При правильной настройке должен быть:
<meta name="robots" content="f... Читать далее
Разрабатываю и продвигаю сайты 🚀. Держу руку на пульсе web технологий и SEOПерейти на web-revenue.ru
Занимаюсь созданием сайтов. Есть большой опыт... · 6 янв 2022
По всей видимости, где-то пропустили нужную опцию в настройках плагина. Потому что сейчас архивы открыты для индексации. Это видно в исходном коде.
К сожалению, никогда не пользовался SEO от Rank Math, поэтому ничего не могу... Читать далее
Не торопитесь. Если на уровне meta вы выставили noindex, follow, а в robots.txt не закрыли архивы для сканирования - всё в порядке. Гугл может деиндексировать URL месяцами и годами, так что есть смысл просто подождать.
Дополните... Читать далее
На Ваш вопрос уже дали несколько ответов, но хочу дополнить. Тогда, возможно, Вы найдете другое решение, а не исключение категорий из поиска.
Насколько вижу, Вы используете оператор "site" в поиске. Понятно, что по иерархии... Читать далее