Для того что бы мы с Вами могли найти как можно быстрее то, что нам нужно, поисковики должны постоянно корректировать и изменять алгоритмы поиска. Это и ежу понятно. Особенно если учесть тот факт что за последнее время в сети расплодилось очень много копировальщиков. Сайты создаются только ради заработка на продаже сылок и для этого нужно очень много контента. А где его взять? Само собой скопировать с других сайтов оригинальный контент, вставить в свой сайт либо блог и через месяц-два греть руки на продаже ссылок.
Количество сайтов растёт в геометрической прогрессии а количество информации в арифметической. Наверняка все много раз натыкались в поиске на сайты близнецы - когда листаеш страницу за страницей, а там слово в слово повтор того что уже было. Разобратся где оригинал а где дубль бывает часто весьма сложно. Бывает что автор оригинального контента больше уделял внимания именно содержанию, а не оформлению, и поэтому глядя на текст в более красивом оформлении можно перепутать оригинал с копией. Частенько любители потырить чужое настолько ленятся что копируют всё что попадётся под руку. Вместе с неполными путями к файлам и фото, или не затрудняясь скачать файлы оригинала, просто берут их с сайта донора.
Яндекс, вслед за Гуглем, решил навести порядок в таком раскладе дел. Начиная с 3-го марта поисковик начал выкидывать из индекса все страницы на которых по мнению поискового алгоритма находится не оригинальный контент. Дело очень хорошее, я двумя руками и ногами за это. Не раз находил на говносайтах мои собственные публикации без ссылки на источник. Их просто тайком скопировали и выдают за собственное. Но проблема в том что сортировкой по определённому алгоритму осуществляет всё же робот, а роботы как известно могут ошибаться, и очень сильно. Кто может гарантировать безошибочное определение оригинала? Сайт с оригинальным контентом спокойно может вылететь а говносай наворовавший контент светиться в верхних строчках поисковых запросов.
На форумах посвящённых поисковикам, их алгоритмам и СЕО уже появляются жалобы на такие вещи. И это от людей которые каждые сутки контролируют свои позиции в поисковиках. А сколько есть вебмастеров которые делают это реже? Когда они увидят что сайт который своровал у них всё что только мог спокойно сидит в выдаче, а сайт донор в полной жопе? И как потом всё это разруливать? Яндексоиды очень высокомерные люди и не всякий сможет пробиться через их отмазки и отписки для восстановления истинны. И что тогда?
Но несмотря на столь мрачные прогнозы, всё же сама идея уже настолько долго витала в воздухе, что просто необходимо было её внедрять. Главное что бы под горячую руку не попали белые и пушистые сайты в создании которых люди вложили много труда и частичку души. Заодно и на ссылочных биржах места покачественнее будут, а то проверяеш куда твои ссылки поставили и волосы дыбом - чисто говносайт, и давай их удалять. А потом опять заказываеш и опять удаляеш. Так пока наберёш хотя бы 500 действительно качественных сайтов под свои ссылки, терпение лопнет.
24/03/2009, 09:44
Новость полезная)Да,порой обидно смотреть,когда всю душу в сайт вложил, а он внизу поисковика, а какой-нить ламер скопировал статью и сидит в первой десяточке...мож найдут когда-нить способ,чтобы все некачественные сайты определять...мож по дате попробовать им стоит...