Важна ли карта sitemap.xml?

Алексей Радкевич
Алексей Радкевич
Директор Студии ЯЛ

Поисковые системы учитывают sitemap.xml. Из данной карты они получают информацию о дате, приоритете и частоте изменения страниц. Обход сайта начинается именно с разделов, указанных в карте. Это делается, чтобы загрузить как можно больше полезной информации, а не мусорных страниц. Так что к sitemap.xml нужно относиться серьёзно и формировать её максимально корректно.

Например, Яндекс.Справка говорит нам о том, что sitemap.xml очень сильно поможет вам в индексации страниц на сайте. При помощи алгоритмов Яндекса робот попадает на страницы вашего сайта с помощью внутренних и внешних ссылок. Справка рекомендует использовать sitemap.xml, если на сайте:

  • Много страниц
  • Отдельные страницы без навигационных ссылок
  • Глубокая вложенность

Яндекс предъявляет к sitemap.xml следующие требования:

  • Кодировка UTF-8
  • Максимум 50 000 ссылок
  • Максимальный размер файла – 50МБ
  • Ссылки только на тот домен, на котором будет расположен сайт
  • При обращении к файлу сервер должен возвращать HTTP-код 200.

Важно не забыть указать адрес xml карты в robots.txt, обычно это Sitemap.

Некоторые системы генерируют карту в автоматическом режиме, поэтому адрес может быть иным. Кром того, многие системы имеют модули автоматической генерации карты, например Joomla (Джумла), WordPress (Вордпресс), Bitrix (Битрикс). При этом на сайте можно видеть несколько xml карт, что приводит к путанице в работе с ними.

Почему при всей своей простоте, карта сайта может вызвать много проблем?

  1. Автоматическая генерация через встроенные модули приводит к попаданию «мусорных» страниц в карту
  2. Генерация руками часто приводит к тому же

Поэтому зачастую приходится все просматривать глазами и вылавливать в вебмастере. Все это вызывает проблемы на сайтах с большим количеством страниц, где добавляется десятки и сотни страниц в день. То же касается управления картой сайта на больших интернет-магазинах. На выходе получаем три подхода:

  1. В карту сайта выгружаются только важные страницы
  2. В карту сайта выгружается все, и она постоянно обновляется
  3. Карта сайта начинает отнимать слишком много времени

Карта сайта является важнейшим инструментом получения данных о качестве страниц, которые потом можно отсматривать в вебмастерах яндекса и гугла. Иначе мы просто никогда не увидим полноценную картину здоровья сайта.

Ответы на любые возникшие вопросы вы можете получить из Справок Яндекса и Гугла или у наших специалистов по телефону или в социальных сетях.

Еще ответы по теме:

Наши работы

  • Кико бум
    Интернет-магазин детской одежды
    «Kiko Бум»
  • Стар Текс
    Интернет-магазин тканей
    Стар Текс
  • Look Russian
    Женская одежда оптом
    «Look Russian»
Вернуться в раздел
Комментарии
Андрей Коннонов 08 Июн 21 в 08:21

У меня вопрос, пытаюсь в screaming frog сформировать XML карту. В роботе вроде все прописано, но все равно лягушка забирает страницы которые запрещены robots.txt?

Ответить
1 Ответ
Алексей Радкевич 09 Июн 21 в 02:26

Кому: Андрей Коннонов, скорее всего у вас в роботсе прописаны отдельные правила для Яндекса и Гугла, а лягушка ориентируется на общее правило. Сделайте общее правило и все должно сработать.

Оставьте свой комментарий