Закрываем от индексации дублированный контент


Рубрика публикации: Раскрутка сайтов
Опубликовал:
Дата публикации: Апрель 10, 2013 в 01:51
Оцените статью:
1 звезда2 звезды3 звезды4 звезды5 звезд (Вы первым оцените данную публикацию)
Loading ... Loading ...

468x60_2

Дублированный контент – это воплощение зла в глазах веб-мастеров. Опытные оптимизаторы знают, как наиболее эффективно решить проблемы дублированного контента, но для новичков это может быть сложно. Особенно часто интернет-магазины оказываются в  подобной ситуации. Вот 9 наиболее вероятных причин возникновения дублей и пути их устранения.

dubli_stranic1) Многоаспектная навигация – распространенная ситуация в онлайн-магазинах. Решением проблемы станет использование мета-тегов robots с атрибутами noindex, follow и тега Canonical, который показывает, что определенный URL- дублированный,  или настройка параметров Google инструментов для веб-мастеров.

2)  Страница заказа – очень удобна и без нее невозможно представить интернет-магазин. Решение такое же, как и для многоаспектной навигации.

3) Иерархические URL – популярные в прошлом, но проблемные сегодня. Лучше всего переписать адрес страниц (можно снова прибегнуть к тегу Canonical).

4)  Страницы поиска – также могут создавать проблемы. Использование robots.txt поможет их решить, также можно обратиться к «инструментам для веб-мастеров».

5) Интернационализация – e-commerce компании стремятся к продажам на международных рынках: создают сайты до того, как перевести контент. В результате получаются похожие URL с одинаковым контентом. Самым оптимальным решением является перевод материала или блокировка страниц я дублированным контентом.

6) Пагинация - в 2011 Google ввел теги rel=next и prev, их и нужно использовать.

7) ID-сессии – их лучше всего останавливать при создании.

8) Страница для печати -  распространена на старых сайтах. Необходим мета-тег robots с атрибутами noindex, follow для динамических страниц или использование robots.txt.

Страницы отзывов и архивов новостей – бывают отдельными или размещаются непосредственно на странице с товаром. И снова используем мета-тег robots (noindex, follow) или robots.txt.

Как видно, наиболее часто веб-мастера используют специальные теги (мета-тег robots с атрибутами noindex, follow; Canonical; rel=next и prev.

Следите за новостями в мире SEO, интернет-рекламы, заработка на этом блоге и также читайте свежие новости Украины по другим интересным темам, смотрите видео репортажи и фото обзоры. Подписывайтесь на RSS.

Похожие публикации:

Новости от Pr.Sape: прием сайтов с тИЦ от 10
Если сайт не попал в ТОП-3 мобильной выдачи, шансов быть замеченным у него мало
Новая версия алгоритма Penguin скоро стартует
Поднятие позиций сайта

Написать комментарий

You must be Необходимо авторизоваться, что бы публиковать комментарии.