Дублированный контент на сайте: стоит ли тратить время на него?
Мои лучшие статьи:
|
Каждый веб-мастер рано или поздно сталкивается с такой проблемой, как дублированный контент на сайте. Практически все seo-специалисты пишут, что от дублей надо обязательно избавляться, и считают это чуть ли не главным заданием при внутренней оптимизации сайта. Однако, давайте разберемся, правда ли, что дубли страниц мешают продвижению сайта?
Как обычно, сначала начну делиться случаем из своей жизни. О дублированном контенте на своем блоге я задумался лишь через два года после его создания. Проведя пару легких процедур, мною было выявлено чуть ли не по 3 дубля на каждую статью блога. Вот такая вот она Joomla, но думаю WordPress в этом плане ни чуть не лучше. К тому моменту я еще не использовал файл .htaccess, поэтому не мог установить редиректы с дублей на оригинальный вариант статей. А в файл Robot.txt я и до сих пор не заключил дубли. Почему? Об этом чуть позже. Найдя кучу дублей страниц на своем сайте, я решил использовать плагин для CMS, чтобы автоматически был проставлен тег rel="canonical" оригинальному контенту. Спустя пару месяцев я не заметил какого-либо изменения в индексации сайта или его выдаче в поисковых системах. Немного почитав об этом, я понял, что ПС могут игнорировать этот тег, и лучше его использовать совместно с мета-тегом "robots". Конечно, может быть я выждал совсем мало времени, а поисковым системах требуется его намного больше в таких случаях, что игнорировать дублированный контент, но я все же решил удалить установленный мною плагин и оставить все как есть. На сегодняшний день на клиентских сайтах я закрываю возможные дубли страниц в Robot.txt еще на этапе создания сайта, так как уже достаточно хорошо знаком с Joomla и знаю построение внутренних ссылок в этой CMS. Но на своем блоге я так больше и не пытался избавиться от дублей. И вот сейчас я отвечаю на вопрос «Почему?». Потому что я не вижу в этом смысла. В индексе Google находится 5 тысяч страниц моего блога, в основной выдаче находится почти 400 страниц. Да, различие большое, но если посчитать количество статей на моем блоге, то примерно 400 и выходит. А это значит, что не смотря на большое количество дублей страниц, все статьи находятся в основной выдаче Google. С Яндексом ситуация аналогичная. Правда, иногда в выдачу попадают именно дубли, но достаточно редко. К тому же, мне абсолютно без разницы, по какой ссылке человек попал на мой сайт: по оригинальной или дублированной. Трафика от этого не меньше. Оказывают ли негативное влияние дубли страниц?С моей точкой зрения Вы ознакомились. Большинство из Вас, наверное, скажет, что вот выскочка тут нашелся самый умный — все удаляют дубли, а он нет! Ну что ж, давайте взглянем, что думает Мэтт Каттс по этому поводу. Руководителю анти-спамного отдела Google задали вопрос:
Мэтт ответил, что веб-мастерам не стоит беспокоиться на счет дублированного контента, если он не является СПАМным или переполненным ключевыми словами (Мэтт Каттс о плотности ключевых слов). В худшем случае дубликаты будут просто проигнорированы. Ни под какие фильтры сайт не попадет. Качество поиска может пострадать, если начать наказывать за дубли страниц. И специалисты Google это понимают. Если не верите мне, поверите руководителю веб-спама Google (если, конечно, знаете английский язык):
P.S. Хотелось бы знать, сколько спортсменов среди моих читателей? Какое спортивное питание Вы используете? И пользуетесь ли им вообще, или предпочитаете органическую пищу. Я вот люблю употреблять салаты перед тренировкой. Вот ссылка на отличный рецепт, как приготовить кукурузный салат.
Оставь комментарий, нажми «Мне нравится» («Like») и «Сохранить», а я напишу для тебя еще что-нибудь интересное :)
|