Фильтр Гугла "Duplicate Content" (как его обойти?)
Нельзя, конечно, сказать, что Интернет начался с поисковых систем, но совершенно несомненно то, что именно с появлением поисковых систем Интернет стал тем, чем он является сейчас, и будет развиваться исключительно по законам поисковой оптимизации очень и очень долго, может быть всегда.
Самой первой глобальной поисковой системой стал Гугл (Google, США), и уже 2-й десяток лет он является полным законодателем всех "мод", царящих сейчас в инете в деле поиска нужной информации.
Однако вместе с тем поисковая система Гугл очень хорошо известна своей зловещей непредсказуемостью. Очень часто хорошие на 1-й взгляд сайты в какой-то момент исчезают из выдачи, а то и вовсе туда никогда не попадают, и часто приходится ломать голову над причинами такого досадного явления.
А причины заключаются в наличии так называемых "фильтров", с помощью которых Гугл оценивает все ошибки, допущенные веб-мастерами и по результатам которых он определяет достойное место каждому сайту в своей выдаче. Естественно, от места в выдаче зависит и количество посетителей (поток трафика) на тот или иной сайт, а из этого напрямую вытекает величина заработков владельцев многих коммерческих сайтов.
Одним из самых распространённых "фильтров", по мнению многих оптимизаторов, является "фильтр дублированного контента".
Многие веб-мастера наполняют свои сайты статьями, взятыми с других сайтов, которые уже находятся в базе Гугла, и потому такие сайты, как правило, не имеют возможности прорваться на более-менее значительные позиции.
Дублирование контента на страницах разных сайтов - дело, конечно, неотвратимое, и потому Гугл якобы всеми силами эту неотвратимость сломать. Однако этот "фильтр" (как впрочем и все остальные "фильтры Гугла") существует только в воображении неопытных веб-мастеров.
Сам Гугл никаких "фильтров" никогда не вводит, ограничиваясь исключительно рекомендациями. Другими словами - любой "фильтр" можно запросто обойти, используя несложные приёмы, которыми зачастую пользуются опытные специалисты.
Это не значит, конечно, что они занимаются банальным обманом поисковой системы. Просто нужно следовать чётким рекомендациям Гугла, и тогда никакие его мифические "фильтры" не страшны.
Самый главный приём, применяемый оптимизаторами против "фильтра дублированного контента" заключается в наращивании внешних ссылок.
Есть 2 пути такого наращивания:
искать хорошие, "трастовые" тематические сайты и пытаться обменяться с ними ссылками, либо включить рассылку по достаточно большой базе не не модерируемых ресурсов (форумов, гостевых книг или блогов), на которых можно оставить ссылку в автоматическом режиме и не бояться, что эту ссылку снесут администраторы.
Оба способа достаточно эффективны, если подойти к ним с головой и не лениться. Как показывает опыт, Гугл прежде всего учитывает ссылочную массу, и только потом - уникальность контента.
Можно даже сказать, что уникальность контента его вовсе не волнует, в отличие от Яндекса, и потому сам факт наличия подобного "фильтра" хоть и имеет веские теоретические основания, но на практике никогда не проявляется.
В выдаче Гугла по совершенно разным запросам на самых первых позициях сплошь и рядом можно видеть сайты с "дублированным контентом", у которых имеется серьёзная ссылочная база. А вот "сайты-доноры" этого контента частенько занимают позиции похуже, и только лишь потому, что на них ссылается очень мало других сайтов, невзирая даже на первоначально уникальный контент.
Мораль этого исследования такова: хотите вывести свой не уникальный сайт на хорошие позиции - активно обменивайтесь ссылками с хорошими ресурсами.