Периодически пишу статьи, в том числе экспертные, на ИТ-тематику, иногда и другие тоже. Когда собираю материал, забиваю в поисковике определенные запросы. Обнаружил такую интересную штуку. Нахожу на первой странице Яндекса несколько похожих статей, размещенных на разных ресурсах. Мало того, что обнаруживаю первоисточник (иногда просто машинный перевод с англоязычного ресурса), так еще и некоторые статьи даже толком не отрерайтили, просто скопировали с небольшими правками и все. Сайты на вскидку даже не аффилированные. Получается, что самый первый показатель в оценке работы копирайтера, уникальность, вовсе не так важен для поисковых скриптов при индексации по КС? Достаточно, чтобы материал был релевантен запросу и все. Или когда тайтл совпадает с запросом, то остальной контент не анализируется? Но они ведь тоже абсолютно идентичны.
Вот на скрине по одному запросу на первом месте [моя статья] (https://www.everywriters.com/post/kak-pisat-20k-v-den), которая один в один размещена на стороннем ресурсе. На втором месте — оригинал с моего сайта из блога [joxi_screenshot_1616476844485.png] (https://avatars.mds.yandex.net/get-znatoki/1449939/2a000001785d9211dc6d8aeb8cc1fd1a7b26). На счет формирования сниппета в выдаче Яндекс и "влияния" на него дискрипшена — вообще отдельная тема.
Для поисковых систем важно все и уникальность статьи, и посещаемость страницы где размещена статья, и показатели сайта где размещена статья.
Причем показатели сайта складываются из десятков параметров.
Яндекс подходит для поиска товаров или продуктов или мест где их можно приобрести. Для поиска информации больше подходит Гугл.
Оба поисковика очень плохо справляются с мусорными* статьями. *Мусорными я называю такие статьи которые соблюдают требования ПС но полезной или уникальной информации в них НУЛЬ. Кстати ваш пример очень яркий показатель таких вот мусорных статей.
Поисковая система это робот.И ей по барабану уникальна она или нет.Главное найти ответы на заданный вопрос.А уникальна она или не уникальна,всё равно.