Google и поведенческие факторы ранжирования. Эффективное продвижение в Google: методы, которые работают

20.07.2019

О поведенческих факторах и ранжировании

Решил опять коснуться темы ПФ, тем более, что сейчас она как никогда актуальна при . Появление поведенческих факторов , а точнее, их учёт поисковыми системами вдохнул новую жизнь в процесс SEO-оптимизации — появилось чуть больше креатива.

Вообще, в Рунете о них заговорили где-то осенью 2010, затем всплеск активности разговоров пришёлся на весну 2011. Ну а появились они на Западе.

Кто из поисковых систем был первым, мне лично не известно. Вполне возможно, что придумали их в Microsoft для своего Bing.com, в котором ввели параметр BrowseRank — « Letting Web Users Vote for Page Importance» — «позволение пользователям Веб голосовать за важность той или иной страницы».

Также задержать пользователя на сайте помогает грамотное юзабилити — человеку должно быть удобно пользоваться вашим сайтом. Например, если веб-сайт имеет кулинарную тематику, то ссылка на рубрику «Первые блюда» должна находиться на видном месте, а не где-нибудь в футере, чтобы можно было быстро её найти.

Поведенческие факторы в выдаче Яндекса и Гугла

Это здорово, когда с ранжированием вашего сайта поисковыми системами всё в порядке. Но необходимо, чтобы он не только высоко стоял в ТОПе, но и имел хороший CTR. Что это такое?

CTR поисковой выдачи — количество кликов на заголовок сайта в результатах поиска поделить на количество его показов по тому или иному запросу. Во многом всё аналогично .

Почему это важно? Т.к. поисковые системы наблюдают за поведением пользователей в своей выдаче (в SERP), то даже очень оптимизированный и , находящийся на первой позиции, постепенно уступит своё место соседям, если на него редко переходят из SERP’а.

Исправить это можно так:

  • составлять красивые Title для страниц (заголовки);
  • осознанно формировать , Гугла и т.д., тем самым оказывая влияние на кликабельность;
  • возможно, использование также может помочь.

Помимо всего прочего, на прокачивание этих факторов оказывают влияние .

Если на ваш проект производятся прямые заходы (type-in — ввод ссылки в строке браузера), переходы с email’ов, других сайтов, а также , то это говорит поисковым роботам, что «сайт знают, ценят, он известный и ему доверяют» .

Если всё обобщить и подытожить, то можно просто сказать, как всегда — делайте сайт для людей! Если подробнее, то улучшить поведенческие факторы ранжирования поможет всё то, что максимально задерживает пользователя на странице и заставляет его снова и снова возвращаться на ваш сайт — хороший CTR в выдаче, релевантность и .

Чтобы определить, какие ресурсы наиболее соответствуют тем или иным запросам, поисковые системы учитывают множество факторов ранжирования: соответствие поискового запроса контенту сайта, присутствие ключевых слов в основных мета-тегах и тексте документа, возраст и история домена, авторитетность страниц, скорость загрузки страницы и другие технические аспекты – всего более 800 параметров у Яндекс и не менее 271 у Google .

Подробнее остановимся на факторах, возникающих в результате действий посетителя, именуемых поведенческими. Чтобы определить, какие сайты больше нравятся людям, поисковики собирают статистику – какой сайт пользователи добавили в закладки, сколько времени на нем провели, сколько страниц посетили, какие сайты чаще выбирают из выдачи и так далее.

Эти факторы можно разделить на два вида:

  • Формируемые в поисковой выдаче.
  • Формируемые внутри сайта.

Внешние поведенческие факторы

Кликабельность

Если ваш сайт, находясь в выдаче ниже, чем конкуренты, при этом кликается чаще – это сигнал для поисковой системы повысить его позицию в результатах поиска. Это достигается путем повышения качества сниппета – небольшого отрывка текста со страницы, попавшей в выдачу. Так как в большинстве случаев в его роли оказываются мета-теги title и description, улучшая их, мы улучшаем и сниппет.

Так выглядят сниппеты в поисковой выдаче.

Возврат к поисковой выдаче

Этот фактор помогает в измерении естественного ранжирования. Система вычисляет, как быстро человек вернулся к поиску после того, как побывал на сайте, и делает вывод, смог ли он получить ответ на запрос. Если возврата не произошло, значит, результат его удовлетворил.

Переходы из социальных сетей и других ресурсов

Такое поведение пользователей говорит о том, что сайт интересен людям, поэтому поисковики повышают его в выдаче.

Внутренние поведенческие факторы

Для каждого типа сайта и поискового запроса внутренние поведенческие факторы будут иметь индивидуальный набор идеальных показателей.
Эти факторы являются очень важными для ранжирования, но в какой именно степени они оказывают влияние, сказать сложно – алгоритмы поисковых систем оценивают все в комплексе.

Формируя выдачу под каждый вид запроса, поисковик ожидает определенного – разного для каждого вида – поведения пользователя. К примеру, если пользователь ищет руководство по эксплуатации утюга конкретной модели, можно сделать вывод, что его интересует скорейшее получение результата. Яндекс и Google в данном случае ожидают, что люди не будут просматривать несколько страниц на ресурсе в поисках ответа и лучше всего, если он будет находиться на целевой странице. А если человек вводит запрос ”красивые обои на рабочий стол” , то вероятнее всего изучит сайт и его разделы и просмотрит большое количество страниц.

Показатель отказов

Это процент посетителей, которые покинули сайт со страницы входа в течение 15 секунд. Причин этому может быть много: низкая скорость загрузки, несовременный дизайн, низкие показатели юзабилити, несоответствие контента сайта поисковому запросу и так далее.

Для разных типов сайтов нормы будут разными. К примеру, совершенно нормально, если человек зашел в блог прочитать статью, провел там достаточно для чтения времени и покинул, получив ответ на свой вопрос.

Глубина просмотра

Данный показатель показывает количество страниц, просмотренных посетителем за одну сессию. Это важный показатель активности и заинтересованности посетителей.

Если пользователь посещает несколько страниц сайта за один визит, это свидетельствует об общей полезности ресурса не только по заданному запросу.

Для разных типов сайтов (интернет-магазин, социальная сеть, информационный портал) будет считаться оптимальной разная глубина просмотра. Поэтому определить, какая является нормой для вас, можно только в динамике.

Глубина просмотра тесно связана с временем, проведенным на сайте, и оба фактора стоит учитывать в связке. Чем больше пользователь посетит заинтересовавших его страниц, тем больше времени на сайте он проведет. Но если он просмотрел много страниц за короткий промежуток времени, и конверсия при этом низкая – это может указывать на непонятную навигацию и запутанную структуру.

Анализируйте с помощью Яндекс.Метрики и Google Analytics поведение пользователей: каким маршрутом приходят на ту или иную страницу, на каких задерживаются, почему не достигают целевой страницы (например, оплаты заказа).

Увеличить глубину просмотра и тем самым улучшить пользовательские факторы помогает расстановка внутренних ссылок на страницы с дополнительной информацией по теме.

Время пребывания

Учитывается как время, проведенное на сайте в целом, так время пребывания на конкретной странице. Это помогает алгоритмам лучше определить соответствие каждой из них запросу пользователей.

Чем больше времени пользователь проводит на странице, тем выше вероятность того, что он изучил всю предоставленную информацию и получил искомый ответ. Например, если на странице большой объём текстовой информации, а пользователь покинул сайт раньше, чем требуется времени на ее прочтение, это свидетельствует о том, что контент оказался ему не интересен.

Чтобы увеличить время, проводимое пользователями на сайте, нужно позаботиться о полезном и информативном содержимом.

В “Яндекс.Метрике” учитывается разница между длительностью первого и последнего просмотра на протяжении одной сессии. При этом, если посетитель открыл и не обновлял страницу, время, проведенное на сайте, будет считаться равным нулю. Также, если пользователь открыл сайт, но не совершал никаких действий на протяжении получаса, а затем перешел на другую страницу внутри сайта – это будет считаться началом новой сессии (новым визитом).

В Google Analytics среднее время пребывания на сайте определяется отношением общей длительности пребывания к количеству сеансов. Для определения продолжительности одного сеанса учитывается активность на странице. При бездействии посетителя сеанс автоматически заканчивается через 30 минут. Стоит пользователю проявить активность, параметр “время окончания сеанса” сдвигается на полчаса.

Пример сессий Google Analytics

Повторное посещение

Повторное посещение сайта одним и тем же пользователем свидетельствует о том, что сайт заинтересовал его предоставляемой информацией. Совсем хорошо, если он добавил сайт в закладки.

Посещаемость

Чем больше ресурс посещаем по низкочастотным запросам, тем выше его шансы продвинуться в ТОП по высокочастотным.

Активность

В конечном итоге важно, достиг ли пользователь цели или нет. Поэтому все остальные факторы следует учитывать в связке с этим.

Как улучшить поведенческие факторы

Качественный контент

Наполнение сайта действительно интересным и уникальным контентом поможет привлечь и заинтересовать посетителей. Разбавляйте текстовую информацию визуальной – фотографиями и инфографикой. Пользователи лучше реагируют на такой контент и легче воспринимают его. А добавление видео увеличивает время, проведенное на странице.

Юзабилити

Показатель юзабилити напрямую влияет на конверсию. Тяжелый или устаревший дизайн, неудобная навигация и обилие всплывающих окон могут отпугнуть посетителя и увеличить процент отказов.

Навигация на сайте должна быть интуитивно понятна, а его ненавязчивый дизайн – соответствовать тематике и не мешать восприятию контента. И конечно, прежде всего стоит провести техническую оптимизацию сайта: исключить технические ошибки, избавиться от дубликатов страниц, проработать структуру и так далее.

О том, как создать удобный и продающий сайт, повысить юзабилити существующего и сформировать привлекательные триггеры для повышения конверсии на тематическом семинаре Дмитрия Шучалина, спикера нашего обучающего центра.

Привлекательный сниппет

Сниппет – это первое, что пользователи видят в выдаче. На его основании они определяют, насколько сайт удовлетворяет их запросу.
Сниппет должен кратко отражать суть информации, размещенной на сайте – не стоит писать в нем о том, чего пользователь на странице не найдет. Это поможет улучшить конверсию и снизить процент отказов.

«Шеф-редактор блога GetGoodRank, веб-аналитик, блоггер.
Как измерить уровень удовлетворенности пользователя сайтом? Поисковые системы применяют различные методики. Ясно одно, каждый поисковик учитывает поведенческие факторы и действия пользователей на сайте в процессе ранжирования. А многочисленные исследования это доказывают»

Во время очередной видеоконференции Google Джон Мюллер ответил на вопрос вебмастера, что поисковая система не учитывает действия пользователей на сайте в качестве фактора ранжирования. Более того, Google вряд ли видит и учитывает все действия, производимые пользователем на сайте при каждом посещении.

Стоит ли расценивать данный ответ, как официальное заявление, что поисковик не учитывает поведение пользователей на сайте?

Нет. И вот почему.

Поведение пользователей в ранжировании сайтов

Поведение пользователей - наиболее объективный параметр определения качества, удобства сайта. Прибыль сайту приносят именно пользователи, а не поисковые системы.

Поисковая система «видит», что пользователи делают на сайте, и предлагает эти данные вебмастерам для оценки эффективности сайта и СЕО. Так, в панели Google Analytics доступны следующие метрики:

  • сессии
  • пользователи
  • просмотры страниц
  • количество просмотренных страниц за одну сессию
  • средняя длительность сессии
  • показатель отказов
  • новые сессии
  • демография посетителей сайта
  • социальные сигналы
  • и множество других метрик, основанных на реакциях и действиях пользователей на сайте

Если Google не видит, что пользователи делают на сайте, то каким образом эти данные попадают в Google Analytics?

Более того, Google Analytics предлагает вам данные об операционных системах и устройствах, с которых был осуществлен вход на сайт. А в панели инструментов есть раздел под названием «Поведение», где вебмастер видит карты поведения, страницы входа и выхода.

Поисковые системы самостоятельно запустили механизмы черного СЕО, предоставив оптимизаторам четкие руководства к действию: выше ранжируется тот сайт, которые оказывается более релевантным запросу и авторитетным среди прочих. Это спровоцировало ссылочную коммерцию, а также стало причиной низкого качества и ценности контента. Ведь не было необходимости наполнять качественным контентом страницы, если высокому ранжированию способствовали переоптимизированные тексты «ни о чем». Сегодня поисковая система исправляет «ошибки прошлого», уравновешивая параметры релевантности и авторитетности пользовательскими факторами.

Google позиционирует поведение и удовлетворенность пользователей как фактор конверсии. Все рекомендации представителей поисковых систем сводятся к созданию сайтов для людей и улучшению сайтов для простого взаимодействия пользователя и ресурса. Официальный блог Google говорит:

The goal of many of our ranking changes is to help searchers find sites that provide a great user experience and fulfill their information needs. We also want the “good guys” making great sites for users, not just algorithms, to see their effort rewarded.

Мы усовершенствуем алгоритмы ранжирования с единственной целью - обеспечить отличный пользовательский опыт каждого человека и помочь ему найти то, что он ищет. Мы также поощряем тех ребят, которые создают сайты для людей, а не для поисковиков. (перевод редакции )

Алгоритм ранжирования сложен, и формула его не разглашается, с тем чтобы снизить возможность манипулирования результатами выдачи. Алгоритм учитывает множества параметров одновременно, и заявить со 100% уверенностью, что поведенческие факторы не учитываются при ранжировании нельзя.

Непрямые доказательства влияния поведенческих факторов на ранжирование

Компания Searchmetrics опубликовала список факторов ранжирования в виде простой инфографики. Однако из исследования видно, что 25% факторов основаны на поведении и реакциях пользователей на сайт.

Также Google привлекает асессоров для оценки сайтов и выявления факторов, определяющих удовлетворенность пользователя. Оценки асессоров не влияют напрямую на позиции проверяемого сайта, однако учитываются в формуле ранжирования, которая в последующем применяется ко всем сайтам определенного типа (информационные, блоги, форумы, корпоративные и пр.). Доказательством этого факта являются инструкции для асессоров (Google Quality Rating Guidelines), время от времени появляющиеся в сети.

Главный враг поисковых систем - черный поисковый оптимизатор. Закупка ссылок стала индустрией. Ссылочное продвижение работает стабильно. Будет интересно, взгляните на сервис закупки ссылок MegaIndex. Регистрируйтесь . Но, роль ссылочной массы в поисковом продвижении начали размывать новые поисковые алгоритмы, которые обращают внимание на поведенческие факторы.

Продвижение поведенческими факторами

Рекомендую к прочтению.
В материале рассматривается работа с микроформатами (улучшение поведенческих факторов).

Накрутка поведенческих факторов

Поведенческие факторы ранжирования - это комплекс пользовательских метрик, используя которые поисковая система определяет уровень интереса к определенной ссылке в результатах выдачи.

Бороться с накруткой поведенческих факторов в поисковой системе сложно по той причине, что если поисковики начнут банить за накрутку поведенческих, то черные оптимизаторы начнут таким способом избавляться от конкурентов.

Поведенческие факторы Яндекс накручиваются точно также, как поведенческие факторы Google и Bing.

Сервис поведенческих факторов

Принцип работы. Оптимизатор ставит задание работникам системы. Пользователи заходят и исполняют. Сервис по накрутке тривиален. Что же важно здесь. Главное располагать множеством работников. Проверять работу. Очень важно дать оптимизатору возможность настроить работу по накрутке в соответствии с бюджетом на компанию и продвигаемыми запросами.

Рассмотрим подобный популярный сервис. Называется SERP Click .

SERP Click продвигает сайты в поисковых системах за счет поведенческих факторов. Регистрация .

Стоимость перехода реального пользователя составляет 5 рублей.

Работники SERP Click используют разные браузеры с естественным распределением их по популярности.

Ниже вебинар по накрутке поведенческих факторов

Используйте SERP Click для удержания сайтов в топе Yandex, Google.

Заработок на поведенческих факторах

Зарабатывать (от 30 до 500 рублей в день) выполняя задания по накрутке поведенческих факторов можно

В этот раз я спросила мнение известных SEO-экспертов Рунета на очень актуальную тему — «Google vs. Яндекс: нюансы SEO под каждую из поисковых систем».

От себя хочу сказать еще такой важный момент — проверяя позиции, не забывайте смотреть релевантные страницы. Это одна из самых частых ошибок — когда в Гугле и Яндексе разная релевантная страница . То есть, вы уверены у себя в голове, что продвигаете главную, а в поисковой выдаче стоит вообще какая-нибудь карточка товара.

В разных ПС также может быть и разный ТОП — страницы немного разного типа. Хотя по опыту, чаще всего ТОП идет более-менее одинаковый. Опять же низкие позиции в поисковых системах часто бывают потому, что под запрос затачивается не подходящая по типу под ТОП страница (главная вместо раздела каталога или статья вместо карточки интернет-магазина).

Если сайт не имеет серьезных технических ошибок, имеет качественный полезный контент, аккуратную, но осознанную оптимизацию и плавно растущую естественную ссылочную массу, обычно он хорошо стоит одновременно в обеих ПС.

И только когда начинается перегиб в попытке повлиять на какой-то фактор — например, массовая закупка ссылок, то сайт может отлично стоять в Гугле, и иметь санкции в Яндексе.

А может плохо стоять в Гугле, если наоборот, мало ссылок, но при этом иметь топовые позиции в Яндексе.

А может вести себя как-нибудь не очень предсказуемо — вроде все хорошо, а в одной ПС стоит хорошо, в другой плохо.

Этим я обычно и занимаюсь во время своих больших аудитов — тщательно проверяю, в чем может быть проблема.

10 известных SEO-экспертов Рунета дали очень много интересных практических деталей, поэтому читайте внимательно, там много полезного!


Сергей Кокшаров ,
SEO-аналитик, автор блога devaka.ru

В Гугле большой упор нужно делать на качество контента и всего сайта в целом. Например, если вы наделали сотню региональных и, практически, одинаковых поддоменов для Яндекса, то не ждите трафика в Google, для него это будет шаблонный контент и авторитет сайта резко снизится.

Также, Гугл меньше приоритета дает скрытому (любым способом) тексту. Этот текст может давать плюсы в Яндексе, но в Google он не будет работать, или даже за него могут наложить фильтр, при наличии в скрытом тексте избытка ключевых слов.

При изменении рейтинга документа, Google использует функцию перехода, которая зависит от ряда внутренних и внешних параметров. Иногда позиции могут резко понизиться, но через неделю выровняться и начать расти. В алгоритмах Яндекса такого нет, и функция перехода всегда скачкообразная. Часто поэтому, оптимизаторы видят разную реакцию поисковиков на изменение одного и того же фактора.

На продвижение сайта влияют присутствие бизнеса в сервисах поисковой системы и в тех сервисах, откуда поисковик берет дополнительные данные (каждый берет из своих мест). Например, Яндекс активно использует данные из Я.Маркета, Я.Справочника, Я.Каталога, бизнес-справочнкика 2GIS и пр.

Что касается ссылок, не забываем, что у Гугла есть Disavow Tool, и вы не знаете, какие свои ссылки отклонил конкурент.

Дмитрий Севальнев ,
евангелист сервиса «Пиксель Тулс»

Основное, что крайне важно осознать, что Яндекс и Google - две разные поисковые машины у каждой из которых:

Своя классификация поисковых запросов.
Свой набор факторов ранжирования.
Свои формулы (для групп запросов).

1. Производить анализ ТОП в заданной поисковой системе. Изначально лучше ориентироваться на ту, которая приведёт больше целевой аудитории в тематике и регионе, а в дальнейшем, опираясь на сайты из выдачи - корректировать факторы под проблемных поисковик.

2. Посмотреть, как классифицирует и расширяет каждая поисковая система запрос? Бывает так, что запрос в Яндексе носит ярко выраженный коммерческий характер (высокая коммерциализация по https://tools.pixelplus.ru/news/kommertsializatsiya) а в Google - показатель низкий.

В этом случае, не исключено, что и целевые URL могут отличаться. Случай экзотический, но реальный.

Особое внимание на переколдовку (расширение) запроса.

3. Для Google - больше точных вхождений, больше сами объемы текстов.
При этом, не забываем про Баден-Баден и прочие текстовые пост-фильтры Яндекса - https://pixelplus.ru/samostoyatelno/stati/tekstovaya-optimizatsiya/tekstovie-filtry-v-yandex.html

4. Для Google - больше ссылок и большее влияние ссылочных факторов на текущее ранжирование.

5. В Яндексе - больший акцент на коммерческие факторы ранжирования: ассортимент, цены, способы связи, информация о компании, корзина.

6. Продвижение в регионах - фундаментальные различия в региональном ранжировании двух поисковых систем отражены на слайде.

7. Важный технический аспект . Google воспроизводит JavaScript на странице и существенно понижает значимость текста, который можно скрыть с его использованием.

В случае, если используются подобные техники для вёрстки текста - важно учесть.

8. Работа с кликовыми ПФ. В Google meta-тег Description активно используются для сниппета, необходимо использовать это.

9. Отличается индекс и его полнота. Если документ проиндексирован в Яндексе, это не значит, что он в базе Google и наоборот. Надо проверять. Аналогично и со ссылочными донорами.

10. Важно установить Google Analytics для корректного учёта внутрисайтовых ПФ.

Общий вывод . Различия в позициях одного и того же сайта в двух поисковых системах, как правило, носят индивидуальных характер. Тем не менее, наиболее частые причины (в порядке убывания вероятности):

Региональность выдачи Google
наличие санкций в одной из поисковых систем
ссылочные факторы
поведенческие факторы (GA и Метрика)
текстовые (морфология)

,
руководитель рекламного агентства SEO Интеллект

А так выглядит посещаемость сайта попавшего под бан за накрутки ПФ:

4. Коммерческие факторы.

В коммерческих тематиках на ранжирование в Яндексе сильное влияет ассортимент. Привилегии в ранжировании сайтов с широким ассортиментом позволяют агрегаторам забивать топы, не пуская туда релевантные документы компаний с узкой специализацией. При этом в Гугл сайты неплохо ранжируются сайты с небольшим ассортиментом. Например, посмотрите на выдачи обоих поисковиков по запросу «сервисные центры».

Красным в таблицах отмечены агрегаторы предоставляющий большой выбор сервисных центров различных брендов. Гугл отдает предпочтение трастовым сайтам отдельных брендов, в то время как Яндексу дает пользователю сайты с широким ассортиментом брендов.

5. Гео факторы.

Ещё одно отличие, которое хотелось бы отметить, это работа с геозависимыми (ГЗ) запросами. Трюк с поддоменами, который можно провернуть в Яндексе, клонировав основной сайт и немного поработав с вхождениями топонимов, позволяет получать локационный трафик в другом регионе, а в Гугл этот прием не работает. Вот так выглядит трафик на региональных поддоменах:

Мы проверяли на очень приличных выборках из тысяч сайтов – в Яндексе Топы, в Гугл Ж*пы.

● Может по-разному оцениваться преобладающий интент запроса, ТОПы зачастую сильно отличаются не только по набору доменов, но и по типам контента. Например, в Яндексе — статьи, в Google — продающие коммерческие страницы. Впрочем, это не общее правило, зависит от тематики.

● Google хуже справляется с русской морфологией. Яндексоиды даже немного подкололи конкурента в одном из своих семинаров. Анализ русскоязычных текстов у Google менее продвинут.

● По Рунету у Яндекса гораздо четче геотаргетинг; при продвижении коммерческих сайтов с геозависимыми запросами необходимо с самого начала обеспечить правильную привязку к региону через Вебмастер, Каталог или Справочник.

● Как минимум до недавнего времени Google гораздо спокойнее относился к обилию прямых вхождений ключа. Но буквально месяц назад ситуация начала меняться, в сентябре был мощный апдейт алгоритма , множество переспамленных страниц ощутимо потеряли в трафике.

Хватает и других мелких различий (отношение к тегу alt изображений, длине title, nofollow-ссылкам, скрытому тексту, rel canonical). Они достаточно легко проверяются по выдаче.

Для практики я не советую заучивать эти или любые другие списки отличий. Факторов много, для разных запросов актуальны разные подходы к продвижению. Составить огромный чек-лист, чтобы последовательно его прорабатывать — плохая идея.

Ага, в гугле проблемы — докупим ссылок. Ой, не сработало. Значит понатыкаем побольше вхождений. Упс, у нас в гостях Минусинск, Баден-Баден и Fred.

Куда разумнее работать с конкретным проектом, его реальной статистикой и конкурентами. Смотрим запросы, которые удалось продвинуть в одном поисковике и не удалось в другом. Изучаем ТОП по ним, ищем отличия наших посадочных страниц от лидеров. Сравниваем динамику посещаемости и позиций у разных url проекта, выявляем удачные документы и закрепляем успех на них. Меняем шаблон вывода контента на паре десятков url, отслеживаем результат. Определяем причины у резких просадок и всплесков трафика. Оцениваем разницу в ранжировании по срезам запросов (например, с вхождением “купить” или “в Москве”). И так далее и тому подобное.

Пара часов ковыряния с панелями вебмастеров и системами статистики даст бездну идей по изменениям на сайте, подскажет компромиссную стратегию для получения максимума трафика из обоих поисковиков. И на деле это проще, чем кажется.

,
основатель агентства REMARKA

,
drmax.su . Автор учебников SEO-Монстр , SEO-Гуру .
В SEO 13 лет, Опыт работы с буржуями – 7 лет. Крупнейший буржуйский клиент – с годовым оборотом интернет портала в $800.000.000 в год. Работа в 98% под Гугл.

Есть Google, а есть все прочие поисковые системы.

И эти прочие заглядывают в рот Google и перенимают все его технологические достижения. В противном случае они медленно, но верно умирают (Рамблер, Спутник, Yahoo и пр – список мертвых поисковых систем очень велик). Отсюда, если мы сможем продвинуться в Google, с большей долей вероятности, автоматически, мы поднимемся в иных поисковых системах. И даже если у альтернатив есть какие то дыры, давно закрытые у Гугла, и позволяющие манипулировать выдачей, то это не надолго.

Гугл сегодня опирается на 3 базовые вещи: контент, ссылки и алгоритм RankBrain.

Каждая из этих составляющих заключает в себе множество разнообразных факторов ранжирования, в классическом понимании. Более того, есть множество факторов ранжирования, не входящих в эти три группы.

Например, есть корреляция между длинной урла и местом в выдаче – чем короче урл, тем больше шансов проникнуть в ТОП. Что здесь первопричина – а что следствие — не суть важно, возможно, что тут сказывается отношение владельца сайта к серьезности работы над оптимизацией контента, когда он руками прописывает ЧПУ, а не доверяет всяким там плагинам или автоматическим финтифлюшкам генерировать ЧПУ из названия страницы автоматом. Такой товарищ и к подготовке контента и к линкбилдингу будет относиться гораздо серьезней, чем простой блогер.

Итак, контент . Единственное требование к нему – он должен быть полезен. Этого достаточно для признания контента качественным.

Если вы будете писать с ошибками, но при этом 100 000 человек скажут – «фига себе, как же я жил без этого контента до этого», то для продвижения и попадания в ТОП этого будет более чем достаточно. Ибо эти люди сами, без всякой на то просьбы, понаставят ссылок на него, расшарят в соц сети и поделятся со своими знакомыми этим чудо–контентом.
Чтобы контент стал полезен, он должен быть, как минимум, интересен целевой аудитории. При этом, контент не должен быть рерайтом – рерайта, должен давать что-то новое для пользователей. И тут мы автоматом переходим к понятию уникальности. Если вы описываете что-то новое (старыми словами, шутка), то контент и будет уникальным.

Спускаемся ниже в разборе структуры полезного контента. Чем более человек знаком в теме, тем богаче у него профессиональный лексикон. Он на автомате будет вставлять в текст как стандартизированные обороты, так и жаргонизмы, разбавляя и насыщая текст словами – подтверждениями, релевантными терминами (http://drmax.su/klyuchevye-slova-lsi-algoritm.html/). Все это окунает нас в сферу LSI копирайтинга и машинного обучения.

Кроме того, если товарищ ответственно подойдет к работе, создавая полезный контент, он обязательно сопряжет теорию и практику, приведет кучу ярких примеров. Это, непосредственно, скажется на длине контента. Он будет гораздо больше, чем простой текст.

Итак, из простого определения, что КОНТЕНТ ДОЛЖЕН БЫТЬ ПОЛЕЗНЫМ, автоматически вылезли его признаки: он должен быть интересен, уникален, насыщен профессиональными терминами, содержать теорию, практику и примеры, быть большим по объему.

При этом, в обратную сторону – это не работает. Если я напишу 40 000 слов про мутации генов, не обладая при этом профильным образованием и какими — то наработками в этой тематике, даже если я насыщу контент всякими терминами и прочими словоблудиями – ни один товарищ из целевой аудитории не воспримет его как полезный. Никакого профта от такого контента я не получу.

1. Трафик на доноре.
2. Ссылка хорошо вписана в контент статьи — донора, раскрывая, дополняя и поясняя её.
3. Релевантность типа «документ-документ», а не обязательно «сайт-документ». Учитесь писать отличные статьи – прокладки, для размещения своих ссылок.
4. Донор не в ссылочных/статейных биржах. Здесь велик риск получить автоматом падение качества донора и ссылка может стать «ядовитой».
5. Статья снабжена мультимедиа
6. Анкор не спамный (в разрезе всего ссылочного профиля).

Никакие сторонние метрики для определения «качества» донора не нужны. Все эти метрики выдуманы и служат только для набивания карманов, выдумавших эти метрики и продающие подписки на чекалки сайтов на эти метрики. Тут яркий пример такого зомбирования – это MOZ с их показателем DA, без которого большинство западных сеошников не могут судить о качестве сайтов. А стоимость подписки на чекалку этого и иного «синтетического» показателя – посмотрите у них сами.

Аналогично, есть и русские изобретения, не столь дорогие и претенциозные, тот же CheckTrust. Это всего – навсего способ заработка, не самый худший, признаюсь. Ребята – молодцы. Ну а Гуглу – абсолютно наплевать на этот показатель. Он о нем ничего не знает и знать не хочет и на ранжирование этот показатель влиять не может. Есть ли корреляция с показателями качества Гугла, нет ли – никто не знает. А самое главное, это никому не интересно.

Единственная реальная метрика – это количество ключей в ТОПе у донора и отсюда – размер органического трафика. Это «оценку» выставляет сама поисковая система и мы не будем спорить с ней.

Кстати, этот подход сразу выявляет товарищей, не разбирающихся в оптимизации. Если при вас заговорят о всяких там трастах, DA, трастфлов и прочих ТИЦах с мертвыми пейджранками, применительно к оценке качества сайта – не обращайте внимания на таких товарищей и критически отнеситесь ко всем их россказням.

Теперь о RankBrain и сотне прочих работающих факторах ранжирования . Хотелось бы сразу отметить одну важную штуку. Сайт должен быть не только полезен пользователю, но и удобен для работы. Что сразу переводит нас в плоскость обсуждения UI/UX дизайна и вынуждает соблюдать массу требований, начиная с классических «трех кликов до нужного контента», расположении блоков на странице, адаптацией под мобильные, скорость отображения сайта и пр…
Каждое из этих требований будет обусловлено десятком взаимопереплетающихся факторами ранжирования.

Ну возьмем, например, CTR в органике. Чем он выше, тем больше товарищей придет на ваш сайт. Более того, повышая CTR на 3-4%, Гугл поднимет в выдаче на 1 позицию, что автоматом опять позволит нарастить трафик.

В свою очередь CTR зависит от яркости сниппета, который порождается как тайтлом и дескрипшеном, так и контентом, в зависимости от запроса в органике.

Есть десятки стандартных приемов, повышающих заметность сниппета, основанных как на психологии, так и на манипуляции техникой.

К примеру, стандартные сниппеты в Гугле – 2 строки, а я могу заставить Гугл для моих страниц формировать 4-х строчные сниппеты. Под этими 4 строками текста могу прикрутить «хлебные крошки» и оценку страницы (звездочки). Такой снипет будет очень «выпуклым» и заметным в выдаче. Это и есть технические манипуляции.

А есть психологические приемы. Все эти списки (100 приемов… 25 способов), крючки и завлекалки. Это тоже позволяет повысить CTR.

Однако, если пользователь, перейдя на страницу, не найдет того, что ему обещали в сниппете, то никакой конвертации посетителя не будет. И тут мы опять возвращаемся к полезности контента.

Для себя я пользуюсь такой техникой составления Титла – в нем должно быть 2 части. В первой говориться о чем эта страница, во второй – как она может помочь посетителю. Аналогично с дескрипшеном.

Можно привести сотни приемов и способов того, что сегодня хорошо и очень хорошо работает в Гугле. Как раз сейчас я заканчиваю книжку «SEO Монстр 2018» , там в одном из разделов будут описаны эти нехитрые, но полезные и неочевидные приемы.

Возвращаясь к тому же CTR и психологическому приему списков, вы, например, знали, что целые числа в тайтле работают на 10-15% лучше, чем некруглые и что «100 приемов продвижения» в тайтле для посетителя будут привлекательней чем «112 приемов продвижения». Странно, да? Но это психология. И это работает.

В SEO все взаимосвязано. И любая манипуляция, которая будет полезна для конечного пользователя, будет положительно влиять как на позиции в органике, так и на трафик, конвертации и в конечном счете, прибыль.

В этом и заключается хитрость всего SEO. А все остальное – это всего-навсего техника и хитрые и не очень хитрые приемы оптимизации.

С чем согласны, с чем не согласны? Какой у вас опыт продвижения под Гугл и Яндекс? Пишите в комментариях ниже!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

Похожие статьи