создание и продвижение сайта (вбиваю в ТОП-10, как гвозди)Настройка и сопровождение платной рекламы яндекс.директ

Фильтр Гугла "Duplicate Content" (как его обойти?)

Нельзя, конечно, сказать, что Интернет начался с поисковых систем, но совершенно несомненно то, что именно с появлением поисковых систем Интернет стал тем, чем он является сейчас, и будет развиваться исключительно по законам поисковой оптимизации очень и очень долго, может быть всегда.

Самой первой глобальной поисковой системой стал Гугл (Google, США), и уже 2-й десяток лет он является полным законодателем всех "мод", царящих сейчас в инете в деле поиска нужной информации.

Однако вместе с тем поисковая система Гугл очень хорошо известна своей зловещей непредсказуемостью. Очень часто хорошие на 1-й взгляд сайты в какой-то момент исчезают из выдачи, а то и вовсе туда никогда не попадают, и часто приходится ломать голову над причинами такого досадного явления.

А причины заключаются в наличии так называемых "фильтров", с помощью которых Гугл оценивает все ошибки, допущенные веб-мастерами и по результатам которых он определяет достойное место каждому сайту в своей выдаче. Естественно, от места в выдаче зависит и количество посетителей (поток трафика) на тот или иной сайт, а из этого напрямую вытекает величина заработков владельцев многих коммерческих сайтов.

Одним из самых распространённых "фильтров", по мнению многих оптимизаторов, является "фильтр дублированного контента".

Многие веб-мастера наполняют свои сайты статьями, взятыми с других сайтов, которые уже находятся в базе Гугла, и потому такие сайты, как правило, не имеют возможности прорваться на более-менее значительные позиции.

Дублирование контента на страницах разных сайтов - дело, конечно, неотвратимое, и потому Гугл якобы всеми силами эту неотвратимость сломать. Однако этот "фильтр" (как впрочем и все остальные "фильтры Гугла") существует только в воображении неопытных веб-мастеров.

Сам Гугл никаких "фильтров" никогда не вводит, ограничиваясь исключительно рекомендациями. Другими словами - любой "фильтр" можно запросто обойти, используя несложные приёмы, которыми зачастую пользуются опытные специалисты.

Это не значит, конечно, что они занимаются банальным обманом поисковой системы. Просто нужно следовать чётким рекомендациям Гугла, и тогда никакие его мифические "фильтры" не страшны.

Самый главный приём, применяемый оптимизаторами против "фильтра дублированного контента" заключается в наращивании внешних ссылок.

Есть 2 пути такого наращивания:

искать хорошие, "трастовые" тематические сайты и пытаться обменяться с ними ссылками, либо включить рассылку по достаточно большой базе не не модерируемых ресурсов (форумов, гостевых книг или блогов), на которых можно оставить ссылку в автоматическом режиме и не бояться, что эту ссылку снесут администраторы.

Оба способа достаточно эффективны, если подойти к ним с головой и не лениться. Как показывает опыт, Гугл прежде всего учитывает ссылочную массу, и только потом - уникальность контента.

Можно даже сказать, что уникальность контента его вовсе не волнует, в отличие от Яндекса, и потому сам факт наличия подобного "фильтра" хоть и имеет веские теоретические основания, но на практике никогда не проявляется.

В выдаче Гугла по совершенно разным запросам на самых первых позициях сплошь и рядом можно видеть сайты с "дублированным контентом", у которых имеется серьёзная ссылочная база. А вот "сайты-доноры" этого контента частенько занимают позиции похуже, и только лишь потому, что на них ссылается очень мало других сайтов, невзирая даже на первоначально уникальный контент.

Мораль этого исследования такова: хотите вывести свой не уникальный сайт на хорошие позиции - активно обменивайтесь ссылками с хорошими ресурсами.

Отвечу на любые вопросы. С уважением, Дмитрий Владимирович.

Ваше письмо×
Free Web Hosting