Базовая настройка SEO

Базовая настройка SEO

Обязательные настройки SEO для сайта на «1С-Битрикс», чтобы в дальнейшем исключить дубли страниц и избежать санкций поисковиков
Подробнее Как проверить Заказать

Чем опасны дубли страниц для сайта?

Дубликат — полное или частичное повторение контента на двух или более страницах сайта. Повторы плохо воспринимаются поисковиками и ведут к ухудшению ранжирования, а иногда и к попаданию под фильтры — санкции поисковиков, выпадение сайта из поиска.

Обычно дубли появляются из-за особенностей работы CMS, ошибок в robots.txt или в настройке 301 редиректов.

Появления дублей можно избежать на начальном этапе технической оптимизации сайта, еще до того, как он начнет индексироваться поисковиками.

Что будет сделано:

    Сайты с SSL-сертификатами получают преимущество в результатах выдачи. Но из-за ошибок при переходе на HTTPS появляются дубли.

    Все страницы сайта с устаревшего не защищённого протокола HTTP должны автоматически перебрасывать посетителя на защищённый протокол HTTPS


    КАК ПРОВЕРИТЬ

    Чаще всего перенаправляют на URL без WWW

    URL с множественными слешами создают дублированный контент. Пример URL с повторяющимися слешами (//): https://site.ru/catalog////// или https://site.ru/////catalog/

    URL с /index.php создают дублированный контент.

    URL с /index.html создают дублированный контент.

    Пример:

    https://site.ru/list/

    https://site.ru/list

    Проблема:

    Поисковая система может видеть URL адреса с разным регистром как разные страницы, но с одинаковым контентом, что создаст дубли страниц.


    Пример

    https://site.ru/catalog/DEMO-TOVAR/ является дублем https://site.ru/catalog/demo-tovar/


    Что делать?

    Необходимо создать правило, которое будет автоматически переводить верхний регистр в нижний для всего сайта.


    Поисковые системы утверждают, что они могут автоматически выбирать лучшую версию контента для отображения в результатах поиска, но это не обязательно будет та версия страницы, которую вы хотите проиндексировать. Поэтому похожие или дублированные страницы сайта должны иметь атрибут «rel=canonical», чтобы поисковые системы отображали наиболее авторитетную (каноническую) версию страницы в результатах поиска.

    404 — Not Found — распространенная ошибка 4xx, указывающая на то, что запрошенный URL-адрес не существует.

    По правилам SEO, этой ошибке уделяется особое внимание, так как она может наплодить дубли страниц и отпугнуть посетителей. 

    • Код ответа должен быть 404. 
    • Пользователь должен иметь возможность вернуться с 404 страницы на главную. 
    • 404 страница должна открываться при указании любого несуществующего адреса на вашем сайте. 
    • Страница должна быть в стиле сайта, но без лишних элементов.

    Файл robots.txt представляет собой набор правил (директив) для роботов, с помощью которых можно запретить или разрешить поисковым роботам индексирование определенных разделов и файлов вашего сайта, а также сообщить дополнительные сведения.

    Favicon в некоторых поисковых системах выводится в сниппете (например в Яндексе). При добавлении запоминающего ярлычка вы выделите свой ресурс, тем самым увеличив кликабельность сниппета и процент конверсии. Яндекс.Вебмастер, рекомендует настроить Favicon для всех устройств, в том числе SVG формат.

Бесплатный аудит сайта

Оптимизация вашего сайта и исправление ошибок.

Заказать
Выберите способ заказа – сразу на сайте OGNEVIN.RU или через фриланс-биржу

OGNEVIN.RU

Оплата без комиссии

Без регистрации

Icon
8000
рублей
Заказать

KWORK

Сервисный сбор

Нужна регистрация

Icon
10000
рублей
Заказать