Теперь Кью работает в режиме чтения

Мы сохранили весь контент, но добавить что-то новое уже нельзя

Что вы закрываете от индексации в robots.txt?

ТехнологииМаркетинг+3
Иван Кобяков
  ·   · 7,2 K
Технарь, эникейщик, CRM, DevOps, сети, железо...  · 30 окт 2021
Стараюсь закрывать от индексации:
  • Страницы регистрации и авторизации
  • Личный кабинет
  • Профили юзеров
  • Системные файлы и каталоги
  • Пустые страницы, если такие имеются
SEO и поисковый маркетинг  · 22 янв 2022  · textarget.ru
В robots.txt добавляю то, что в принципе роботам сканировать не нужно. Обычно это служебные разделы, какие-то персонализированные данные и т.п. Особо отмечу: robots.txt - не инструмент для управления индексированием, его стоит... Читать далее
Консультации по SEO и услуги по продвижению сайтовПерейти на textarget.ru
2 эксперта согласны
Согласен
SEO-специалист с 18-летним стажем 📈 Свободомысля...  · 20 окт 2021  · freethinker.ru
Чаще всего в Disallow у меня попадают ненужные параметры. Например, utm_source, fbclid и какие-то внутрисайтовые параметры (вроде параметров фильтрации). Для Яндекса дополнительно прописываю Clean-param, чтобы он не учитывал... Читать далее
1 эксперт согласен
Илья Карт
подтверждает
20 окт 2021
Верно перечислен список параметров рекомендуемых к запрету индексации. Но при этом есть и немного лишнего, то что... Читать дальше
Web разработчик и SEO специалист. Автор блога http...  · 19 окт 2021  · web-revenue.ru
Все то что не должно попасть в поиск (кроме стилей и скриптов): дубли страниц (к примеру с какими-либо параметрами или utm метками), файлы движка (если сайт на cms), страницы (к примеру поиск по сайту, дубли главной, к примеру... Читать далее
Разрабатываю и продвигаю сайты 🚀. Держу руку на пульсе web технологий и SEOПерейти на web-revenue.ru
1 эксперт согласен
В robots.txt закрываю служебные папки, страницы сортировки и результатов поиска, страницы с рекламными метками, дубли или страницы с GET-параметрами.  Проверяю вебмастер на наличие "мусорных страниц" в индексе и закрывают... Читать далее