Для того что бы мы с Вами могли найти как можно быстрее то, что нам нужно, поисковики должны постоянно корректировать и изменять алгоритмы поиска. Это и ежу понятно. Особенно если учесть тот факт что за последнее время в сети расплодилось очень много копировальщиков. Сайты создаются только ради заработка на продаже сылок и для этого нужно очень много контента. А где его взять? Само собой скопировать с других сайтов оригинальный контент, вставить в свой сайт либо блог и через месяц-два греть руки на продаже ссылок.

 Количество сайтов растёт в геометрической прогрессии а количество информации в арифметической. Наверняка все много раз натыкались в поиске на сайты близнецы - когда листаеш страницу за страницей, а там слово в слово повтор того что уже было. Разобратся где оригинал а где дубль бывает часто весьма сложно. Бывает что автор оригинального контента больше уделял внимания именно содержанию, а не оформлению, и поэтому глядя на текст в более красивом оформлении можно перепутать оригинал с копией. Частенько любители потырить чужое настолько ленятся что копируют всё что попадётся под руку. Вместе с неполными путями к файлам и фото, или не затрудняясь скачать файлы оригинала, просто берут их с сайта донора.

   Яндекс, вслед за Гуглем, решил навести порядок в таком раскладе дел. Начиная с 3-го марта поисковик начал выкидывать из индекса все страницы на которых по мнению поискового алгоритма находится не оригинальный контент. Дело очень хорошее, я двумя руками и ногами за это. Не раз находил на говносайтах мои собственные публикации без ссылки на источник. Их просто тайком скопировали и выдают за собственное.  Но проблема в том что сортировкой по определённому алгоритму осуществляет всё же робот, а роботы как известно могут ошибаться, и очень сильно. Кто может гарантировать безошибочное определение оригинала? Сайт с оригинальным контентом спокойно может вылететь а говносай наворовавший контент светиться в верхних строчках поисковых запросов.

   На форумах посвящённых поисковикам, их алгоритмам и СЕО уже появляются жалобы на такие вещи. И это от людей которые каждые сутки контролируют свои позиции в поисковиках. А сколько есть вебмастеров которые делают это реже? Когда они увидят что сайт который своровал у них всё что только мог спокойно сидит в выдаче, а сайт донор в полной жопе? И как потом всё это разруливать? Яндексоиды очень высокомерные люди и не всякий сможет пробиться через их отмазки и отписки для восстановления истинны. И что тогда?

   Но несмотря на столь мрачные прогнозы, всё же сама идея уже настолько долго витала в воздухе, что просто необходимо было её внедрять. Главное что бы под горячую руку не попали белые и пушистые сайты в создании которых люди вложили много труда и частичку души. Заодно и на ссылочных биржах места покачественнее будут, а то проверяеш куда твои ссылки поставили и волосы дыбом - чисто говносайт, и давай их удалять. А потом опять заказываеш и опять удаляеш. Так пока наберёш хотя бы 500 действительно качественных сайтов под свои ссылки, терпение лопнет.