Фишки онлайн-конференции “SEO Day”

Фишки онлайн-конференции “SEO Day”

Совсем недавно прошла международная онлайн-конференции “SEO Day” от WebPromoExperts и для тех, кто не успел к ней присоединиться мы подготовили краткую выжимку самых крутых фишек рассказанных на конференции.

Tim Soulo “Как команда Ahrefs получает “сочные мощные” ссылки с помощью гостевых постов”

Интересную информацию предоставил всеми известный Tim Soulo (руководитель отдела маркетинга в Ahrefs). Он поведал о том, как получать крутые ссылки из гостевых постов. Кстати, по его мнению ценность сайтов со ссылочным профилем без ссылок с PBN и добытых другими серыми способами на много выше, поэтому тема его доклада была именно о гостевом постинге. А именно о том как искать площадки для размещения своего контента. Наверняка вы все знаете способ поиска сайтов вручную с помощью ключа. Например:

  • keywords “write for us”;
  • keywords “guest post”;
  • и т.д.

Это очень времязатратный процесс. Но в Ahrefs есть инструмент, который может помочь в поставленной задаче. Он называется Content Explorer.

Content Explorer

Content Explorer

В Content Explorer можно вбить любой ключ, далее Ahrefs находит все страницы с упоминанием этого запроса:

Все результаты Content Explorer

Все результаты Content Explorer

Есть пару рекомендаций от Tima как отфильтровать результаты:

  1. Указать “Одна статья с домена”.
  2. Указать показатель “Domain Rating” от 30 до 40 (DR показывает популярность сайта в зависимости от количества обратных ссылок).
  3. Выделить те сайты, которые ранее не “линковали” на ваш сайт.

Отфильтрованные результаты Content Explorer

Отфильтрованные результаты Content Explorer

Почему же именно DR от 30 до 40? Бытует мнение, что ссылка с сайта с низким DR может даже навредить. Это не так, низкий DR может быть, например, у новых сайтов, которые пока не получили обратные ссылки. Ресурсы с DR 30-40 это некая “золотая середина”, так как ваше предложение может не заинтересовать сайты с более высоким DR, а сайты с более низким DR не настолько популярны для читателей. При желании, можете экспериментировать: вводить разные ключи, уровень DR и тд.

Геннадий Сивашов “Prom.ua: SEO+Developers = Love”

Геннадий Сивашов (Head of SEO в “Evo”) выступил с докладом о технической оптимизации сайта. А именно, раскрыл тему “логов сервера”. Ведь в журнале сервера можно отследить:

  1. Как часто приходит бот на ту или иную страницу.
  2. Индексируются ли страницы сайта.
  3. Какие из них индексируются чаще.
  4. Найти страницы, о которых вы не знали.

Именно благодаря “логам” Геннадий однажды нашел ошибки обработки ботом URL со знаком “;”. Как видно на картинке ниже, бот преобразовывал этот символ как значение “%3B” и такой URL отдавал 404 код ответа сервера:

Знак ; в URL

Знак ; в URL

Данную проблему решили следующим образом. Для страниц, отдающих 404 код ответа сервера, настроили 301-редирект на нужные URL, для того, чтобы бот попадал на нужную страницу и не тратил впустую краулинговый бюджет.

Как мы выяснили ранее, в “логах” можно увидеть как часто бот приходит на страницу и выявить достаточно ли часто он заходит на приоритетные страницы сайта. Важно, чтобы бот своевременно заходил на те страницы, которые были недавно обновлены, а также на новые страницы. В ходе эксперимента проведенного Геннадием было выявлено, что в файле sitemap.xml значение <lastmod> необходимо указывать дату изменения страницы, для того, чтобы бот скорее на нее зашел. Например, удаление товара на странице категории уже можно считать изменением страницы, соответственно необходимо также изменить значение <lastmod> в файле sitemap.xml. По словам Геннадия после изменений средняя индексация страниц увеличилась почти в 3 раза.

Артем Пилипец “Эффективная работа с внутренними ссылками”

И последний спикер, о докладе которого хотелось бы написать, это Артём Пилипец (Руководитель отдела продвижения “SEO7” и основатель проекта “Школа SEO”). Он поведал еще пару крутых фич.

Первая из них “удаление мусора”. Она направлена на то, чтобы страницы закрытые от индексации не собирали ссылочный вес. И вот что нужно сделать:

  1. Отсканировать сайт без учета robots.txt и Meta robots (Например, через Xenu или Screaming Frog).
  2. Сохраняем файл графа. Например, в Xenu link это выглядит следующим образом:

    Сохраняем файл графа

    Сохраняем файл графа
  3. Устанавливаем инструменты для работы с графами (Например, Gephi. Важно: для настройки Gephi необходимо также установить Java Development Kit).
  4. Загружаем файл графа в программу Gephi и рассчитывает PageRank всех страниц сайта.
  5. Полученную таблицу сортируем по убыванию PageRank.
  6. Ищем страницы, которые закрыты в robots.txt и Meta Robots, у которых большой PR.
  7. Удаляем на сайте ссылки на страницы найденные в 6 пункте.
  8. Ждем переиндексации и перерасчета PR для других страниц сайта.

Это могут быть страницы авторов, тегов или ненужные страницы фильтров. При выполнении всех вышеуказанных пунктов вес перераспределится между остальными страницами сайта. Главное мыслить трезво и помнить о юзабилити сайта. Не нужно ломать функционал сайта, только ради повышения PageRank.

Вторая фича “Расширение анкор листа”. Что требуется:

  1. Выгружаем из Search Console или Serpstat список самых популярных посадочных страниц (Артём выгружал до 500 и это работало, больше не пробовал).
  2. По каждой странице выгружаем запросы которые есть в поиске (Например, с помощью Serpstat)
  3. Ищем низко- или среднечастотные ключевые слова состоящие из 4 и более слов и частотностью от 10.
  4. Составляем таблицу, где каждому URL будут соответствовать запросы по этому URL.
  5. Передаем разработчику список URL и анкоров с задачей разработать динамическую карту сайта:

Пример ТЗ по созданию динамической карты сайта от Артёма

Пример ТЗ по созданию динамической карты сайта от Артёма

То есть необходимо создать html карту сайта, на которой поочередно будут выводиться страницы, которые будут в дальнейшем усиливаться с помощью анкоров. Желательно на этой карте сайта убрать из шаблона все навигационные ссылки с меню, футере и оставить исключительно ссылки на нужные страницы. Далее выводим от 50 до 100 ссылок с анкорами тех ключевых слов, по которым мы хотим получить усиление. После индексации ботов этой карты, динамически меняется список на следующие ссылки и анкоры для этих страниц. Когда очередь доходит до ссылок из первой партии подставляем новые анкоры. И так далее. Такой способ отлично работает для усиления среднечастотных запросов, по которым вы находитесь относительно недалеко от топа.

И для тех, кто хочет еще больше углубиться в темы конференции, вы всегда можете приобрести запись трансляции на сайте.


Будем признательны за каждый лайк:


Оставьте комментарий, Ваше мнение очень важно для нас!

Введенный e-mail не будет виден другим пользователям :

Просим ознакомиться с политикой конфиденциальности и соглашением об использовании файлов cookie перед началом использования сайта.

Back to Top

Telegram

Подписывайтесь на наш канал в Telegram, будьте лучше ваших конкурентов

Подпишитесь на наш канал

You have Successfully Subscribed!