Как продвигать сайт СМИ?

Все мы видели взрывной рост новостного трафика в марте-апреле 2020 года? Круто было? Хотите вернуть хотя бы часть? Конечно, хотите.

Основной проблемой сайтов СМИ является бюджет индексации сайта. У поисковых ботов есть некий индивидуальный лимит индексации, который рассчитывается в зависимости от «качества» сайта. В нашей практике (да и в большинстве случаев) основной массив новостей на сайтах СМИ индексируется ботом один раз, и более данную страницу бот не посещает никогда, либо делает это еще несколько раз и благополучно о ней забывает.

Почему это плохо?

Первое, и не самое важное, состоит в том, что если вы внесете изменения в статью, поисковик об этом может никогда и не узнать. Второе, относится к классическому SEO. Бот не посещает страницы с новостями, а значит, не производит перерасчет весовых коэффициентов для них. На практике это означает, что на портале о СМИ мы имеем «айсберг» с огромной частью станиц, которые ничего не весят и ничем не помогают сайту в продвижении в поиске. То есть происходит исключительно разовое привлечение трафика. Но как раз именно сайты СМИ имеют огромный потенциал построения масштабируемой системы управления SEO.

Мы подготовили для вас специальную программу по быстрому продвижению сайта СМИ.

По большому счету, это не продвижение, поскольку ничего двигать не придется, – это устранение основных ошибок на сайте, которые совершенно точно, очень плохо влияют на его положение в поисковой машине.

Почему мы уверены, что они есть на вашем сайте? И откуда вообще появляются данные ошибки? Все очень просто, они накопились «историческим» путем.

Где-то редактор поставил неверную ссылку, где-то ошибка вылезла при смене протокола с http на https и т.д. Что касается протоколов, возможно, вы не видите в этом ничего страшного, поскольку у вас стоит 301 редирект, но вы не знаете, что фактически этот редирект ведет на 404. Возможно, многие страницы сайта никогда не попадали в SITEMAP, а на многие страницы больше не ведет ни одной ссылки, после того как они пропали из основной новостной ленты. Либо ваш сайт изобилует страницами, на которых 30-50 слов, чего не достаточно для признания данной страницы качественной.

Весь наш опыт работы с сайтами СМИ показывает, что если вы не следите за этими направлениями постоянно, то количество страниц с ошибками скорее всего достигнет 10%.

Это очень много, но дело вот в чем: если в случае с «битыми» ссылками и отсутствием обновления SITEMAP это просто приводит к тому, что большинство статей индексируются поисковой машиной однократно и не обходятся больше «никогда», либо значительно снижаются лимиты индексирования сайта, то неправильная структура приводит к тому же эффекту, плюс для поисковиков большая часть вашего сайта по весу равняется нулю, что затруднит продвижение вашего сайта.

Последовательность работ имеет важное значение для оптимизации портала СМИ.

Первый шаг – исправляем все ошибки на сайте. Это касается всех типов «битых» или «кривых» ссылок, картинок и прочего. На данном этапе мы ничего еще не привносим, а только убираем явные ошибки.

Никто не будет спорить, что ошибки надо устранять, однако, как указывалось выше, робот может никогда и не узнать о том, что вы внесли изменения на конкретную страницу сайта. Особенно важными эти исправления являются, если сайт имеет несколько итераций и переезжал с разных протоколов http-https. Это приводит к появлению смешанного контента. А старые версии порталов живут своей жизнью.

Не раз мы сталкивались со значительными проблемами в «старых версиях», когда заброшенная часть сайта генерировала все новые и новые ошибки после очередных «финальных» исправлений. Причиной этого как раз является плохая индексация, которая попросту не позволяет вытащить все страницы сайта. Тут можно пойти тремя путями: либо продолжить работу со старыми версиями, либо превратить их в «плоские» html странички, либо закрыть их от индексации в целом. Последнее становится особенно привлекательным на последующих этапах, когда поисковый бот увеличивают свою активность в десятки раз.

Далее требуется решить вопросы со скоростью загрузки сайта, это относится и к десктопной и к мобильной версии. На текущий момент, этот вопрос должен решаться в безоговорочном порядке. Эффект от исправлений особенно заметен в Гугле, когда страницы из красной зоны перемещаются в зеленую или желтую.

До этого момента внесенные изменения не должны привести к каким-либо проблемам или ухудшениям положения сайта. Дальнейшие правки могут приводить на начальном этапе к краткосрочным проблемам, которые не всегда можно оперативно решить. Более того структурные правки могут стать необратимыми.

Насколько все плохо?

Почти всегда подобные ошибки носят системный характер, а значит все очень плохо, вы продолжаете плодить ошибки, самое время остановится и перейти к постоянному контролю.

Какие базовые ошибки мы выявляем? Каков эффект от нашей работы?

  1. Наличие правильной 404 страницы
  2. 404 страницы и битые ссылки
  3. 404, скрытые редиректами (301 и 302)
  4. Проблемы с редиректами любого характера
  5. Наличие и полнота SITEMAP, либо наличие «левых» страниц в SITEMAP
  6. Пустые, технические, медленные страницы или страницы с малым количеством контента
  7. Лишний индексируемый код на странице
  8. Проблемы с наполнением SEO данных у страниц (их отсутствие или дубли): title, description, H1, alt.
  9. Отсутствие турбо- и amp страниц, проблемы с их отображением
  10. Все возможные дубли контента
  11. Неправильная структура сайта
  12. Использование в рамках сайта одновременно HTTPS и HTTP, а также WWW и адресов без него
  13. Плохая линковка страниц сайта
  14. Отсутствие alt у картинок на сайте
  15. Отсутствие микроформатов SHEMA и OPEN GRAPH
  16. Страницы, закрытые от индексации и другие проблемы и ошибки, которые могут дать массовый эффект.

Для нас главное – найти базовые и шаблонные ошибки, которые влияют на весь сайт в целом. Этим и определяется эффект от нашей работы, это улучшение «общих» параметров сайта, что обычно приводит к взрывному росту поискового трафика на сайт.

Второй шаг. Исправления внесены, явные ошибки устранены – что дальше? Решаем структурные вопросы. Например, будем ли мы менять структуру сайта. В целом мы, как SEO-шники, в этом не заинтересованы, за исключением случаев, когда структура сайта затрудняет его индексацию. На этом же этапе принимается решения по старым версиям сайта – встроим ли мы их в новую структуру или оставим «жить» на новых местах? Также выясняются технические возможности управления старой версией портала.

Третий шаг – приступаем к решению вопросов дублирования контента. Проблемой данного пункта будет являться то, что при структурном дублировании мы зачастую имеем одинаковый индексируемый контент в разных структурах. Придется решить, какую структуру «резать», чтобы осталась только одна. При решении данного вопроса необходимо исходить исключительно из будущей пользы для сайта. Следует учесть – нет гарантии что «новый-старый» контент полностью попадет в индекс поисковой машины, даже если использовать редиректы.

Далее принимаем решение о дублировании отдельных документов. Зачастую это одинаковые теги, картинки или новости с повторяющимися названиями. Правим крупные элементы в автоматическом режиме и игнорируем мелкие. Общая цель, чем меньше страниц с одинаковым title, description, H1, alt, тем лучше.

Затем открываем индекс поисковой машины и ищем технические страницы (не дубли), которые можно закрыть от индексации или удалить. Так и делаем – удаляем и закрываем.

Во время этого же шага мы разбираемся с «недостаточно качественными» страницами. Мы можем удалить их, склеить или улучшить. Наиболее трудоемко улучшение таких страниц, поскольку нам нужно будет увеличить содержание каждой такой страницы до 500 слов с сохранением уникальности контента. Далее мы проверяем вебмастер Яндекса и Гугла, а также устанавливаем объемы работ и решаем, стоит ли работать с контентом.

Четвертый шаг. Когда структурное поле расчищено, можно приступать к разметкам документов под SEO: Title, H1, description. Эти теги должны быть уникальными, отличаться друг от друга в рамках одного документа и не дублироваться по сайту. В каждую новость должна быть вставлена картинка, которая имеет свой уникальный Alt. На этом же этапе подключаем разметки SHEMA и OPEN GRAPH. Не допускайте «текстовые кирпичи» на сайте –размечайте тексты при помощи H2. Это важный блок, после которого мы ожидаем самого серьезного увеличения нагрузки на сайт со стороны различных ботов.

Не относятся к структурным вопросам, но имеют отношение к ссылочной структуре вопросы перелинковки отдельных страниц сайта. Основная проблема состоит в том, что поисковый бот может вообще не получать никаких ссылок на ту или иную новость после того как она вытесняется с главной страницы портала. Вторая проблема – таких ссылок все равно мало. Эти вопросы необходимо решать с помощью отдельных лент новостей для индексации и перелинковки новостей друг с другом и для увеличения количества взаимных ссылок.

Общее, но зачастую несбыточное правило – это получить по 10 внутренних ссылок на каждый новостной материал. Обычно для этого жертвуют архивным “айсбергом” новостей.

Теперь наш сайт готов, и можно «скармливать» его ботам посредством RSS-ленты, карты сайта, xml-карты сайта, отправки страниц на переобходы, в общем, любых способов переиндексации.

Именно на этом этапе нужно запастись новым сервером, старый определенно не выдержит. Боты видят новую ссылочную структуру и начинают обходить сайт в усиленном режиме. Надо учесть, что ботов будет много, и это не только боты поисковых машин. Принимайте усилия в зависимости от ситуации!

Немного в стороне стоят работы по созданию Турбо страниц и страниц AMP. Их необходимо выполнять после вычистки дублированного контента. Индекс AMP и Турбо страниц тоже имеет свои лимиты, не стоит его расходовать на дубли и технические страницы.

И только с этого момента начинается классическое SEO

В проектах для СМИ классическое SEO достаточно ограниченно. Мы со своей стороны предлагаем классическое продвижение персон, наименования предприятий, событий и тегов. Создаем карточки, по сути wiki, и продвигаем их внутренними и внешними ссылками, оптимизируем тексты.

Кроме того, мы познакомим вас с коммерческими инструментами для периодического контроля вашего сайта. Подскажем, куда смотреть и что делать. В дальнейшем вы сможете оперативно устранять ошибки самостоятельно. Почему мы уверены в эффективности этого метода? Да потому что мы не раз успешно продвигали сайты СМИ. И везде исправление подобных ошибок давало резкий рост позиций в выдаче.

  • Дмитрий Тростников
    ГАУ НСО ИД «СОВЕТСКАЯ СИБИРЬ»
    Со Студией ЯЛ мы работаем с 2015 года. Наш новый сайт был создан даже не с нуля, была проделана гораздо большая работа...
Нас постоянно спрашивают: «Что я могу сделать прямо сейчас?»
  1. Первое. Зарегистрируйтесь на сервисе JetOctopus, мы постоянно им пользуемся и решаем часть вопросов именно через него. Можете самостоятельно почистить и проверить свой сайт. Обратите внимание на тарифы и проверьте, какое количество страниц сайта на текущий момент находится в поиске. Но для выявления шаблонных проблем совсем не обязательно парсить весь сайт.
  2. Второе. Начните размещать картинки в Яндекс Коллекциях и сервисе Pinterest прямо сейчас – это прекрасный способ получить ссылки и дополнительный трафик из самих коллекций. У вас, скорее всего огромное количество картинок, они должны начать работать. Это обязательно сработает, особенно, если вы сможете раскидать картинки по рубрикам. Для этого установите своим редакторам расширение «Яндекс коллекций» – это не займет много времени. Затем просто встройте данный этап в рабочий процесс ваших редакторов. Удачного вам продвижения!
  3. Третье. Проверить, все ли новости с вашего сайта попадают в Яндекс Новости. Если не все, то причина может быть в новостной RSS ленте и конфликте форматов. К примеру частная "болезнь" новостников на Wordpress это передача лишних данных о картинках используемых в новостях (автора картинки и текстового описания картинки).
  4. Четвертое. Также необходимо проверить не конфликтуют ли настройки счетчиков (Метрики, Аналитикса, Лайвинтернета, Рамблера, Мэил) в Яндекс вебмастере и настройки RSS ленты. Это может привести к неправильному учету трафика на сайте. Сам Яндекс дает следующую рекомендацию: "Если информация о счетчиках передается в RSS-канале (в элементе turbo:analytics), то настройки счетчиков в Яндекс.Вебмастере не учитываются. Чтобы подключить счетчики в Яндекс.Вебмастере, удалите элементы turbo:analytics из RSS-канала".

Анализ наших ошибок – это дорого? Стоимость услуги составляет от 20 тыс. рублей и зависит от объема сайта. В услугу не входят технические работы по внесению изменений. Выполнение работ ляжет на ваших программистов.

Другие материалы:


Оцените статью:
Комментарии
Владимир 24 Фев 21 в 05:19

А что с "плохими" страницами в гугле, Как с ними быть?

Ответить
2 Ответа
Алексей Радкевич 24 Фев 21 в 05:27

Кому: Владимир, завтра дополним статью

Алексей Радкевич 04 Июн 21 в 01:51

Кому: Владимир, совсем забыли ответить.

1) Идите в Гугл Вебмастер и посмотрите что попало в плохие страницы. Там будут отображены не все "плохие страницы". Главное понять по какой причине этот набор страниц оказался в данном отчете. Выявить общий подход к устранению проблемы. Это могут быть:

- страницы с малым объемом контента
- страницы на которые в настоящее время не идет ни одной ссылки
- страницы с идентичным контентом
- технические ошибки и так далее

Приступайте к устранению шаблонных ошибок. При этом ест некоторые замечания.

2) Удалите "бесполезные страницы", это странички с небольшим объемом контента. До 100 слов. Если у вас большинство страниц таких, то не надо убирать. Надо думать как объединить контент на данных страницах в некий "сюжет" за какой-либо период.

3) Нет возможности удалить страницы? Закройте часть страниц от индексации в robots.txt

4) Провесьте ссылки между страницами

5) Если страниц не много, допишите контент.

6) Проверьте ваш контент на уникальность, возможно его кто-то копирует.

7) И так далее ...............

Горлов Степвн 03 Июн 21 в 05:20

У меня технический вопрос.

Наш новостной сайт на Worpress. Техподдержка Яндекс Дзена, пишет следующие рекомендации.

Во-первых отсылает к рекомендациям по разметке ленты RSS - yandex.ru/support/zen/website/rss-modify.html

Во-вторых, говорит чтобы мы все смотрели через валидатор для проверки ленты: validator.w3.org/feed/

Наша лента: site.ru/feed/zen

Эту же ленту мы используем для Яндекс Новостей, здесь администрация просит удалить лишний текст из тела новости.

Желательно из тегов <content:encoded> удалить и этот текст:

__________________________________________________
От Алексея Радкевича. Здесь был текстовый блок со множеством классов, скриптов И так далее. Я его почистил смысл итак понятен.
__________________________________________________

Дело в том, что всё содержимое тега <yandex:full-text> (и его аналогов <content:encoded>) индексируется и влияет на результаты поиска. Поэтому нам важно, чтобы в этих тегах не содержалась лишняя информация.

Наличие идентичного текста в каждом сообщении может не всегда корректно обрабатываться алгоритмом кластеризации.

Ответить
1 Ответ
Алексей Радкевич 04 Июн 21 в 00:31

Кому: Горлов Степвн, добрый день Степан ответ будет таким:

Если речь идет про Яндекс Дзен, в настойках вашего Wordpress необходимо убрать из <content:encoded> все недопустимые теги, надо убрать <iframe>, <script>, <ins>, <style>. Если не ошибаюсь в плагине для Яндекс.Дзена они прописаны сразу.  Это базовая ошибка.

Посмотрите в плагине Яндекс.Дзен, возможно он просит обновить какой-то другой плагин для своей корректной работы. Возможно ошибка в этом.

Далее валидатор показывает следующие ошибки для вашей ленты:

guid must be a full URL, unless isPermaLink attribute is false
Invalid email address
Missing enclosure attribute: length
item contains more than one enclosure
Invalid HTML
Missing atom:link with rel="self"

Проблема состоит в том, что требования Яндекс Дзена на текущий момент несовместимы со стандартами RSS. Далее текст который я скопировал из одного источника. Предлагается решать вопрос следующим образом:

Если техническая поддержка не принимает вашу ленту и указывает на валидатор, то значит их что-то не устраивает в контенте вашей записи.  К примеру их не устраивают ссылки на Youtube, рекламные скрипты, посторонние теги и прочее. Необходимо уточнить что их не устраивает.

Техподдержка Яндекс Дзена после вашей заявки спросит вас о том, соответствует ли лента рекоммендациям и провели ли вы валидацию. Вам не отказывают! Говорите чт овсе в порядке и все соответствует техническим требованиям.

Алексей Радкевич 10 Авг 21 в 02:56

Еще необходимо учесть, что для новостных сайтов SITEMAP специализированная!  Вот правила:

При работе с файлами Sitemap для Google Новостей учитывайте следующие требования:

Файл Sitemap должен содержать URL статей, опубликованных за последние два дня. Статьи, опубликованные более двух дней назад, можно удалять из файла. При этом они будут оставаться в индексе Google Новостей в течение стандартного срока, составляющего 30 дней.

Файл Sitemap следует обновлять по мере публикации очередных статей. Робот Google Новостей сканирует файлы Sitemap так же часто, как и другие разделы вашего сайта.

В файл Sitemap можно добавить до 1000 URL. Если вам нужно использовать больше, создайте несколько файлов Sitemap и перечислите их в файле индекса Sitemap. Используйте формат XML, описанный в протоколе Sitemap. Включайте в один файл Sitemap не больше 50 000 URL. Эти ограничения гарантируют, что веб-сервер не будет перегружен обработкой больших файлов.

При публикации новых статей не нужно создавать отдельный файл Sitemap. Просто добавляйте URL новых статей в имеющийся файл.

Не используйте генератор файлов Sitemap от компании Google. Он включает в файл URL, которые не соответствуют новостным статьям.

PS При этом наличие такой карты ничего не гарантирует! И карта сайта будет раздута!

Оставьте свой комментарий