Полное руководство по обновлённому алгоритму Penguin от Google. Google Penguin (Гугл Пингвин) – новый алгоритм от поисковой системы Google

21.05.2019

Google Penguin - это алгоритм поисковый системы, направленный на устранение веб-спама. Запущен в апреле 2012 для борьбы с покупными ссылками, претерпел несколько изменений. Релиз от сентября 2016 года сделал фильтр «Пингвин» частью основного алгоритма Google.

Принцип работы

Гугл «Пингвин» с 2014 года работает в режиме реального времени, но только с 2016 года база не обновляется вручную. Если раньше нужно было ждать апдейт, что могло растянуться по времени, то сейчас из-под фильтра можно выйти буквально сразу после исправления и переиндексации.

Санкции в виде понижения в ранжировании распространяются на отдельные страницы, а не весь сайт в целом.

Как определить, что сайт под фильтром

Признаки:

  • проседание позиций на 30-50 пунктов;
  • значительное снижение трафика из Google.

Если ограничение наложено в результате ручной проверки, в Search Console в разделе «Меры, принятые вручную» можно увидеть сообщение о санкциях за веб-спам.

При автоматическом назначении уведомления нет. Чтобы выяснить, пострадал сайт от Гугл «Панды» или «Пингвина», нужно проверить тексты и входящие ссылки. Если проблема в контенте, это «Панда», если видны плохие бэклинки, «Пингвин».

Как вывести сайт из-под фильтра

Сайт понижается в выдаче из-за некачественной ссылочной массы, поэтому нужно провести аудит покупных ссылок и снять спамные, с сателлитов, нерелевантных ресурсов, линкопомоек и т. д. Одновременно стоит увеличить количество естественных ссылок.

Причиной попадания под фильтр Google Penguin может стать:

  • обилие спамных анкоров. Если большая часть анкор-листа - прямые вхождения продвигаемых коммерческих запросов, риск очень высок;
  • плохая динамика роста ссылочной массы. Резкие скачки, массовые съемы говорят о неестественности;
  • несоответствие тематик донора и акцептора. Чем выше релевантность, тем естественнее выглядит размещение;
  • спамная простановка бэклинка (цветом фона, мелким шрифтом, однопиксельной картинкой, в неподходящем месте и т. д.);
  • заспамленность донора. Если со страницы или с сайта в целом ведет много исходящих ссылок, это вызывает подозрения в продаже;
  • низкое качество ссылающихся сайтов. Понимается в широком смысле.

Все выявленные некачественные бэклинки нужно снять или отклонить с помощью специального инструмента в Search Console.

На снятие ограничений в ранжировании из-за Google «Пингвина» может уйти от недели до нескольких месяцев.

Как защититься

  • обязательно разбавлять анкор-лист, чтобы были не только прямые и разбавленные вхождения ключей, но и анкоры типа «тут», «здесь» и т. д.;
  • обеспечивать плавный прирост ссылочной массы;
  • контролировать соотношение покупных и естественных ссылок;
  • стремиться к разнообразию доноров, чтобы не было неестественно много бэклинков с одного ресурса;
  • проставлять ссылки на разные страницы сайта, а не только на главную;
  • следить за качеством каждого донора.

Лучший способ уберечься от риска попасть под Гугл «Пингвин» - повышать качество ссылок, а не на их количество.

Мы все хорошо знаем, дорогие друзья, как поисковые системы корпят над своими алгоритмами, фильтрами и так далее, чтобы как можно четче выдавать простым обывателям сети Интернет то, что они ищут. Но эти самые алгоритмы параллельно проводят и чистку сети от того же спама или некачественных ресурсов, которые всеми правдами или не правдами как-то очутились в ТОПе. «Так дело не пойдет» - как-то так думают умы поисковых гигантов, и в очередной раз с этой мыслью вышли ребята из Google.

Так уже вторую неделю «гудит» вебмастерская часть сети и большинство негодует: «Google ввел что-то с чем-то и эта адская смесь порезала наши позиции, что в свою очередь сократило трафик». Да, действительно, анализируя конкуренцию в интересных мне нишах, я заметил серьезные перемены. Трафик на многих конкурентных ресурсах был срезан на 10, 20, 50, а то и больше процентов. Да что там далеко ходить, посмотрите на некоторые seo блоги, непривычно видеть посещаемость в 150-200 пользователей в сутки.

Итак, что же там нахимичил Google…

В 20-х числах апреля 2012 года в сети появилось сообщение от разработчиков Google приблизительно следующего содержания:

«В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов»…

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин ). Любовь к животным Google вызвала много шума. На том же Серче образовалось несколько тем с огромным общим числом страниц (более 500) обсуждения нового алгоритма Google Penguin. Недовольных как всегда оказалось значительно больше, чем довольных, ведь довольные тихо сидят и не палят свои наработки, которые только на «Ура» съел Гугловский Пингвин.

Давайте для начала ознакомимся с теми самыми основными требованиями к качеству сайтов, которые выдвигает Google:

  1. Не используйте скрытый текст и скрытые ссылки. Google, да и не только Google, давно идут под флагом человеколюбия. То, что не видит человек, понимается и воспринимается поисковиками как попытка повлиять на выдачу поиска, а это сравнимо с манипуляциями и пресекается в виде песимизации или еще какой «порчи». Помнится, одно время был очень модным скрытый текст, еще бы, ведь он давал эффект. Черный текст на черном фоне с оптимизацией определенной, ты попадал на страницу и недоумевал, а где то, что показывал поисковик.
  2. Не используйте клоакинг или скрытую переадресацию. Не нужно пытаться выдавать поисковому роботу одну информацию, а пользователю другую. Контент должен быть единым для всех. По поводу переадресации, то тут любителей сорвать денежку с перенаправления или продажи мобильного трафика, Google решил немного разочаровать.
  3. Не отправляйте автоматические запросы в Google.
  4. Не перегружайте страницы ключевыми словами. Этот принцип уже давно поддерживался Яндексом и позиционирование против переоптимизированности сайтов явно убивало работу приверженцев напичкать сайт ключами. Если раньше можно было напичкать статьи ключами и радоваться трафиком с Google, то теперь, как видите и сами понимаете, не все так просто. Но тут же не стоит забывать про пользовательские факторы или так называемые поведенческие факторы. Если они на хорошем уровне, то даже легкая переоптимизированность не проблема, ведь поведенческие факторы пользователей всегда были, есть и скорее всего, будут в приоритете. Только здесь уже все несколько сложнее – сами представьте, что нужно дать и в каком объеме, чтобы эти самые поведенческие факторы были на высоте. Это говорит о том, что контент действительно должен быть высокого уровня и интереса, а не легенький рерайт с конкурирующего сайта или лидера ниши.
  5. Не создавайте страницы, домены и поддомены, которые в значительной степени повторяют содержимое основного сайта или любого другого. В этом пункте гугловцы сразу соединили воедино свои взгляды по поводу аффилированности, сеток сайтов, дорвеев, копипаста, а также рерайта низкого качества.
  6. Не создавайте вредоносных страниц, таких как фишинг или содержащих вирус, троянов или другого вредоносного программного обеспечения. Этот пункт не стоит вообще как-то разжевывать, бой вирусам одним словом.
  7. Не создавайте дорвеев или других страниц, созданных только для поисковых систем.
  8. Если ваш сайт работает с партнерскими программами, то убедитесь, что он представляет ценность для сети и пользователей. Обеспечьте его уникальным и релеватным содержимым, что в первую очередь будет привлекать пользователей к вам.

Эти 8 принципов Google выделил как основные. Но так же есть и еще 4, которые особо отмечены были ими же:

  1. Создавайте страницы сайта в первую очередь для пользователей, а не для поисковых систем. Не используйте маскировок или других схем работы с сайтами, будьте предельно прозрачны.
  2. Не пытайтесь хитростью повысить рейтинг сайта в поисковых системах.
  3. Не участвуйте в схемах построения ссылок, разработанных для повышения рейтинга вашего сайта в поисковых системах или Google Page Rank. В частности, избегайте ссылок спам-вида, на линкпомойках или плохих соседей по серверу (обращаю ваше внимание на анализ и просмотр соседствующих сайтов, если ваш сайт размещен на обычном шедер хостинге).
  4. Не используйте не разрешенные программные решения для автоматического обращения к Google. Сами разработчики выделяют такие как WebPosition Gold ™.

Но все вроде бы и раньше было известно всем, кто интересовался вопросом.

В работе нового алгоритма Google Penguin (Гугл Пингвин) меня удивило четкое соблюдение принципа «заряженности рекламой» первой страницы. Помните, говорилось о том, что первая страница (главная страница) не должна быть перегружена рекламой. Google Penguin четко начал соблюдать этот принцип. Он порезал трафик у сайтов с несколькими большими блоками рекламы на главной, даже если эти блоки были своей же – реклама Google Adsense. 🙂

Наблюдения по работе Google Penguin

Теперь хотелось бы перечислить ряд собственных наблюдений. Я понимаю, они приблизительны, и представляют мои личные наблюдения и данные (показатели могут быть восприняты как относительные), но они имеют место быть, и имеют право на существование. Анализировал я работу 20 сайтов, как своих, так и своих партнеров. Анализ занял у меня 3 дня, и я оценивал массу показателей. Как вы понимаете, все сайты продвигались разными схемами и по разным алгоритмам, имели разные абсолютно показатели, что дало возможность сделать ряд выводов.

1. Точное вхождение. Если раньше, чтобы быть в Google в шоколаде, нужна была масса точных вхождений, то теперь с Google Penguin (Гугл Пингвин) все в точности также да наоборот. Это быть может как раз и есть та самая борьба с Webspam. Яндекс давно любил разбавления анкоров, вот дело дошло и до Google.

  • страницы с внешними ссылками точного вхождения 100% - просадка составила 75-90%. Среднее падение примерно на 38 позиций;
  • страницы с внешними ссылками точного вхождения 50% - просадка составила 15-20%. Среднее падение примерно на 9 позиций;
  • страницы с внешними ссылками точного вхождения менее 25% - замечен рост 6-10%. Средний подъем 30 позиций.

Исходя из этих данных, я сделал вывод – разбавляем анкоры и разбавляем как можно интереснее и глубже.

Яркий пример – запрос «gogetlinks» на данном блоге. Точные вхождения значительно преобладают над разбавленными, и вот результат:

2. Покупка временных ссылок. Временные ссылки я покупал на добивку или быстрый результат на всех анализируемых ресурсах и с разных систем. Это были и Sape, Webeffector, Seopult и ROOKEE.

Генераторы автоматического продвижения Webeffector и ROOKEE дали приблизительно одинаковые результаты. Просадка практически не замечена вообще, лишь небольшая на Webeffector, но она незначительна и больше связана с разбавлением анкоров. В остальных моментах даже рост наблюдается, что там говорить, вот скриншот кампании (кликабельно):

Что же касается Sape, то здесь совсем другая картина. Просели все проекты, на которые покупались ссылки в Sape. Все запросы, которые двигались в этой бирже улетели из ТОП 100 и даже собирать статистику, куда же они там улетели, стало как-то напряжно, что в итоге я делать и не стал.

Анализируя воздействие Гугл Пингвина на продвижение с Sape, сделал вывод, что расстановку ссылок этой биржи Google воспринимает теперь как не естественную.

Здесь начал активно снимать ссылки. Но смысл приводить свои примеры, когда можно показать вам яркие и из нашей же ниши. Возьмем блог моего товарища - Сергея Радкевич upgoing.ru . Человек работал с Sape несколько месяцев и радовался росту трафика, пока не пришел Гугл Пингвин. Смотрим:

Тут же стоит посмотреть на график источников поискового трафика:

Как видите, Гугл Пингвин снизил трафик с Google в 7 с лишним раз.

Вывод по этому пункту, что все же какие-то фильтры нужно применять при работе с временными ссылками и какие-то алгоритмы простановки и закупки. Автоматические сервисы как раз работают по определенным схемам в отличие от той же Sape. Результаты на лицо, между прочим.

У сайтов с Seopult вообще намечен рост позиций. Здесь я применял алгоритм Seopult Max для Яндекса, но как вижу, теперь он работает и с Google.

3. Переоптимизированность контента. Здесь замечен также спад, но не такой значительный как у предыдущих параметров. В пределах 10 позиций потеряло всего 10-15% переоптимизированных статей.

Здесь я делаю вывод, что не так страшно слегка переоптимизировать, давая себе какие-то гарантии. А более низкий показ можно нагнать с помощью покупки ссылок.

4. Вечные ссылки. Запросы, продвигаемые вечными ссылками с нормальным и естественным видом, только серьезнее прибавили в выдаче. Некоторые ВЧ ВК повылазили в ТОП 20 без каких-либо манипуляций, за счет заметного падения большей части конкурентов. Здесь я очередной раз делаю вывод, что моя работа по направлению продвижения ТОЛЬКО вечными ссылками правильна.

1. Примите во внимание всю вышеприведенную информацию и поработайте как над содержимым своего сайта, так и над его продвижением.

2. Проверьте наличие уведомлений от Google в Google Webmaster Tools с наличием сообщения о спамерской активности вашего ресурса. Для этого заходим на http://www.google.com/webmasters/ , авторизуемся. Далее заходим в статистику своего сайта и переходим в раздел сообщения (кликабельно):

Если все же будут сообщения, то необходимо будет принять меры по решению указанных в сообщениях проблем. Это может быть и удаление ссылок... Не все йогурты одинаково полезны... 😉

3. Проверьте сайт на наличие вредоносных программ в Google Webmaster Tools:

Решение вопроса как и в предыдущем пункте. Определяем программы и файлы помеченные Google как вредоносные, находим их на сервере, или заменяем или удаляем.

Если все совсем плохо, и вы опустили руки, то заполните форму и подпишитесь под созданной петицией к Google против Google Penguin . Это, конечно, ничего не гарантирует вам, но хотя бы момент маленького самоудовлетворения и чувства «Я сделал все что мог» обязательно наступит. По этой же теме можно через форму обратной связи обратиться к разработчикам алгоритма.

Лично я потерял немного, так как основной упор делал на действительно СДЛ и продвижение вечными ссылками. От негатива избавился в течение 2-х дней и начал расти с прежним темпом. Ну а кто любил делать все быстро и легко – вам остается по большей части жевать сопли.

Как сказал один мой знакомый: «Теперь халтуру будет видно. Любителей быстрого, дешевого и легкого ждут большие перемены. Срывающие банк на продвижении простых смертных в сети при этом, откровенно халтуря, потерпят фиаско и выслушают массу претензий со стороны клиентов»…

Свои мысли по поводу Пингвина Гугл или результаты перемен вы можете выложить в комментариях.

Всем удачных и качественных перемен!

В школе:
- Дети, придумайте предложение с выражением "Чуть было".
Коля:
- Наша Оля чуть было не стала королевой красоты!
Петя:
- В субботу мы с мамой чуть было не опоздали на электричку...
Вовочка:
- Сегодня утром мы с Лёхой едва не загнулись с похмелюги, но у нас чуть было...

Известно ли вам, что поисковые алгоритмы Google учитывают более 200 факторов ранжирования и степень важности каждого из них индивидуальна для каждого отдельно взятого сайта? А знаете ли вы, что в течение года Google совокупно вносит более 500 изменений в свои алгоритмы и перед полноценным внедрением каждая измененная версия тестируется на небольшой выборке пользователей поисковика?

Сегодня мы поговорим, пожалуй, о самом известном алгоритме Google – Penguin («Пингвин»).

Что такое Google «Пингвин»?

Google «Пингвин» – это алгоритм, созданный для борьбы некачественными сайтами и с веб-спамом. Датой его «рождения» считается 24 апреля 2012 года. Чтобы не попасть под действия алгоритма, Google приводит ряд рекомендаций, которые необходимо учитывать при продвижении сайта в этой поисковой системе. Вот некоторые из них:

    на сайте не должно быть автоматически сгенерированного контента;

    на сайте не должно быть страниц с неоригинальным или дублированным контентом;

    сайт не должен предоставлять неодинаковый контент или разные URL пользователям и поисковым системам;

    переадресация на другой URL не должна применяться для обмана поисковой системы;

    запрещено использовать скрытый текст и скрытые ссылки с целью влияния на рейтинг сайта в результатах поиска Google;

    на сайтах, участвующих в партнерских программах, свой собственный контент должен превалировать на контентом, предоставляемым партнерской площадкой;

    ключевые слова на странице должны полностью соответствовать ее содержанию;

    запрещено создание вредоносных страниц для фишинга и установки вирусов, троянов или другого вредоносного ПО;

    запрещено некорректное использование разметки для расширенных описаний веб-страниц;

    запрещена отправка автоматических запросов в Google.

Если на вашем сайте выявлено что-то из данного списка и он попал под санкции «Пингвина», то выйти из-под них можно будет только при очередном апдейте алгоритма и только в том случае, если на сайте исправлены ошибки, приведшие к пенализации. С каждой новой версией «Пингвина» частота апдейтов возрастает, а значит, скорость выхода из-под санкций тоже увеличивается.

На что влияет Google «Пингвин»

Алгоритм влияет на ранжирование сайта. Некоторые говорят, что это не понижение в поисковой выдаче, а лишь отправка сайта на ту позицию, которую он должен занимать на самом деле. Но это не совсем верное утверждение, так как понижение позиций в выдаче связано с наличием и оценкой веса негативных факторов сайта, и, как мы уже писали выше, для каждого сайта степень влияния негативных факторов индивидуальна, а это уже пенализация.

Алгоритм и ручная модерация

Напоминаем, что «Пингвин» – это автоматизированный алгоритм, и он всегда будет работать как автоматизированный алгоритм. Но существует еще и такое понятие, как «ручная модерация» сайта, что также может привести к пессимизации позиций в поисковой выдаче. При этом и алгоритмическая, и ручная модерации могут проводиться на вашем сайте одновременно. Стоит заметить, что выход из-под санкций алгоритма «Пингвин» происходит автоматически, но, чтобы выйти из-под санкций, наложенных в режиме ручной модерации, необходимо связываться с техподдержкой Google и сообщать о том, какие шаги были предприняты для исправления ошибок на сайте.

Определение проблемы

Для определения причин пенализации сайтов алгоритмом «Пингвин» необходимо проверить внутренние факторы, как, например, чрезмерная «тошнота » ключевых слов на странице. Переспамленный ключевиками текст, и другие манипуляции – это то, что нужно проверить и исправить в первую очередь в случае попадания сайта под санкции «Пингвина».

Есть еще одна распространенная причина пенализации - наличие внешних спам-ссылок на ваш ре сурс. Как правило их появление связано с попытками проведения самостоятельной внешней SEO-оптимизации, в процессе которой некоторые владельцы сайтов прогоняют его через бесплатные каталоги, доски объявлений и тому подобные низкокачественные площадки. Чтобы избежать подобных проблем, лучше всего либо обращаться к проверенным SEO-специалистам, либо доверять продвижение сайта автоматизированным системам, таким как SeoPult, которые имеют свои настроенные фильтры и отсеивают некачественные площадки, недопуская их к клиенским сайтам. Если же вы занимались SEO самостоятельно и получили ссылки со спам-площадок, то стоит провести ссылочный аудит, чтобы определить, какие ссылки негативно влияют на ваш сайт и какие из них стоит удалить или отключить от учета поисковиком (с помощью инструмента Google Disavow Tools). Получить список внешних ссылок для аудита можно через Google Webmaster Tools . Но так как Google может видеть не все ссылки, список стоит дополнить, используя сторонние инструменты, такие как: Bing Webmaster Tools , Ahrefs , Majestic , Open Site Explorer и SEMrush . Все они имеют свои базы ссылок, которые могут дополнить список Google Webmaster Tools.

Инструмент Disavow (отклонение ссылок)

Как только вы получите полный список внешних ссылок и определите, какие из них повлияли на пенализацию вашего ресурса, вы сможете отклонить их учет в поиске Google. Для этого существует инструмент Disavow Tool , содержащий список ссылок, влияние которых на ваш сайт необходимо перестать учитывать. Джон Мюллер из Google говорит, что этот инструмент аналогичен тегу, только направлен для использования на внешних ресурсах. Вы можете запретить к индексации как отдельные внешние ссылки, так и все ссылки, ведущие с конкретного домена. Джон говорит, что добавления ссылок в Disavow более чем достаточно для выхода из-под санкций «Пингвина». В случае если вы попали под ручную модерацию (пенализацию), вам следует записывать все свои действия, предпринятые для выхода из-под санкций и позже сообщить о произведенных изменениях в службу поддержки.

Запрос на повторную проверку

В случае получения ручной пенализации единственным способом выхода из-под санкций является подача запроса на повторную проверку в кабинете Вебмастера Google. Отправлять его нужно только после того, как вы, с вашей точки зрения, исправили все, что могло привести к пенализации сайта. В запросе необходимо указать, какие ошибки вы выявили и какие шаги предприняли для их исправления. Чем более подробным будет описание ваших действий, тем выше вероятность скорого выхода из-под санкций Google.

Качественные ссылки, которые помогут выйти из-под санкций «Пингвина»

По словам уже известного нам Джона Мюллера из Google, выйти с наименьшими потерями времени и усилий из-под санкций «Пингвина» или вовсе под них не попасть может помочь разумное соотношение большого количества качественных внешних ссылок к малому количеству спам-ссылок. К сожалению, точного количественного соотношения качественных ссылок к некачественным никто не знает, потому старайтесь систематически проверять качество вашей ссылочной массы и при обнаружении веб-спама сразу же удалять их или добавлять в Disavow.

Черное SEO

Черное SEO – это способ борьбы с конкурентами, при помощи которого можно сильно понизить позиции конкурентной площадки в поисковой выдаче. Одним из таких способов, например, является «ссылочный взрыв ». Но стоит помнить, что инструменты черного SEO не всегда могут быть эффективны, особенно если они применяются к сайтам с высоким трастом и качественной ссылочной массой . В ряде случаев ссылочный взрыв может сыграть в плюс сайту-конкуренту, так как новые ссылки (даже некачественные) могут значительно «утяжелить» накопленную качественную ссылочную массу и, вместо негативного эффекта, вывести сайт конкурента на более высокие позиции (относительно прежних). Также стоит отметить, что Google учится распознавать манипуляции конкурентов и защищать сайты, против которых они направлены.

Заключение

Определить самостоятельно, попал ли сайт под санкции Google, довольно сложно, особенно если они имеют алгоритмический, а не ручной характер. В Google модератор уже внесено предложение о том, чтобы в кабинет веб-мастера добавить инструмент, позволяющий определить наличие санкций «Пингвина» или «Панды», наложенных на тот или иной сайт, или отсутствие таковых. Если эта функция будет добавлена, то станет гораздо проще диагностировать и исправлять ошибки сайта, выявленные конкретными алгоритмами.

Penguin – алгоритм поисковой системы Google, первоначальной ролью которого являлась борьба с неестественными (покупными) ссылками. Дата первого релиза Penguin 1.0 – 24 апреля 2012 года.

Следующие обновления:

Запуск обновления Penguin 4.0 неоднократно откладывался. Релиз обновления планировался на конец 2015 года, однако, работа по усовершенствованию алгоритма продлилась до сентября 2016 года.

Представляем вам перевод статьи из официального блога Google: https://webmasters.googleblog.com/2016/09/penguin-is-now-part-of-our-core.html

Пингвин стал частью основного алгоритма Google

Алгоритм Google использует более 200 уникальных сигналов или «подсказок», что позволяет быстро находить то, что ищет пользователь. Эти сигналы включают в себя определенные слова на страницах сайтов, частоту обновления контента, регион сайта и PageRank. Один из таких сигналов Google – это алгоритм Пингвин, который был запущен в 2012 году и 23 сентября 2016 года был обновлен.

После совершенствования и тестирования Google сейчас выкатывает обновление алгоритма Пингвин на всех языках. Представляем вам ключевые изменения, которые вы увидите, они были среди популярных просьб вемастеров:

  • Сейчас Пингвин работает в реальном времени . Исторически сложилось так, что список сайтов, «пострадавших» от Пингвина периодически обновлялся. Когда вебмастера улучшали свои сайты, многие алгоритмы Google довольно быстро обновляли информацию о них, но таким алгоритмам, как Пингвин, требовалось время для обновления данных. Теперь данные Пингвина обновляются в реальном времени, а значит, изменения на сайте будут замечены Гуглом гораздо быстрее. Как правило, они вступают в силу сразу после повторного обхода роботом и индексации страниц. Это означает, что Google не собирается больше анонсировать свои обновления.
  • Пингвин стал более детальным . Сейчас он понижает страницы, содержащие спам путем изменения рейтинга, основанного на спам-сигналах, а не влияет на ранжирование сайта в целом. Т.е происходит занижение в выдаче одной или нескольких страниц, а не всего сайта.

Интернет (web-паутина) существенно изменился за эти годы, но как Google говорил в своем первоначальном посте, вебмастера должны быть свободны в своих действиях, чтобы сосредоточиться на создании убедительных и полезных сайтов. Также важно помнить, что обновления наподобие Пингвина – это только один из более 200 сигналов, который Google использует для ранжирования сайтов.

Несмотря на то, что изме­не­ния в алго­рит­мах Google – одна из самых живо­тре­пе­щу­щих тем в сфере SEO , мно­гие мар­ке­то­логи не могут с уве­рен­но­стью ска­зать, как именно алго­ритмы Панда, Пинг­вин и Колибри повли­яли на ран­жи­ро­ва­ние их сай­тов.

Спе­ци­а­ли­сты ком­па­нии Moz поды­то­жили наи­бо­лее зна­чи­мые изме­не­ния алго­рит­мов Google и бук­вально раз­ло­жили по полоч­кам инфор­ма­цию о том, за что отве­чает каж­дое обнов­ле­ние.

Google Панда – Инспектор по качеству

Алго­ритм Панда, глав­ной целью кото­рого явля­ется повы­ше­ние каче­ства резуль­та­тов поиска , был запу­щен 23 фев­раля 2011 года. С его появ­ле­нием тысячи сай­тов поте­ряли свои пози­ции, что взбу­до­ра­жило весь Интер­нет. Пона­чалу опти­ми­за­торы думали, что Панда штра­фует сайты, заме­чен­ные в уча­стии в ссы­лоч­ных схе­мах. Но, как позже стало известно, борьба с неесте­ствен­ными ссыл­ками не вхо­дит в круг пол­но­мо­чий этого алго­ритма. Все, чем он зани­ма­ется, – это оценка каче­ства сайта.

Чтобы узнать, не угро­жает ли вам опас­ность попасть под фильтр Панды, ответьте на такие вопросы:

  • Стали бы вы дове­рять инфор­ма­ции, раз­ме­щен­ной на вашем сайте?
  • Есть ли на сайте стра­ницы с дуб­ли­ро­ван­ным или очень схо­жим кон­тен­том?
  • Вы бы дове­рили дан­ные вашей кре­дит­ной кар­точки подоб­ному сайту?
  • Содер­жатся ли в ста­тьях орфо­гра­фи­че­ские или сти­ли­сти­че­ские ошибки, опе­чатки?
  • Ста­тьи для сайта пишутся с уче­том инте­ре­сов чита­те­лей или же только с целью попасть в резуль­таты поиска по опре­де­лен­ным запро­сам?
  • Есть ли на сайте ори­ги­наль­ный кон­тент (иссле­до­ва­ния, отчеты, ана­ли­тика)?
  • Выде­ля­ется ли ваш сайт среди кон­ку­рен­тов, кото­рые выда­ются вме­сте с ним на стра­нице резуль­та­тов поиска?
  • Поль­зу­ется ли ваш сайт авто­ри­те­том в своей сфере?
  • Уде­ля­ете ли вы долж­ное вни­ма­ние редак­ти­ро­ва­нию ста­тей?
  • Предо­став­ляют ли ста­тьи на сайте пол­ные и инфор­ма­тив­ные ответы на вопросы поль­зо­ва­те­лей?
  • Вы бы стали добав­лять сайт/страницу в закладки или реко­мен­до­вать его дру­зьям?
  • Могли бы вы встре­тить подоб­ную ста­тью в печат­ном жур­нале, книге или энцик­ло­пе­дии?
  • Не отвле­кает ли вни­ма­ние чита­те­лей реклама на сайте?
  • Уде­ля­ете ли вы вни­ма­ние дета­лям при созда­нии стра­ниц?

Какие именно фак­торы учи­ты­вает Панда при ран­жи­ро­ва­нии сай­тов, навер­няка не знает никто. Поэтому лучше всего сфо­ку­си­ро­ваться на созда­нии мак­си­мально инте­рес­ного и полез­ного сайта. В осо­бен­но­сти вам нужно уде­лить вни­ма­ние таким момен­там:

  • « Недо­ста­точ­ный» кон­тент. В дан­ном кон­тек­сте тер­мин «недо­ста­точ­ный» под­ра­зу­ме­вает, что кон­тент на вашем сайте не пред­став­ляет новизны или цен­но­сти для чита­теля, так как не рас­кры­вает тему долж­ным обра­зом. И дело вовсе не в коли­че­стве сим­во­лов, так как ино­гда даже пара пред­ло­же­ний может нести нема­лую смыс­ло­вую нагрузку. Конечно, если боль­шин­ство стра­ниц вашего сайта будут содер­жать обрывки тек­ста из несколь­ких пред­ло­же­ний, Google сочтет его нека­че­ствен­ным.
  • Дуб­ли­ро­ван­ный кон­тент. Панда посчи­тает ваш сайт нека­че­ствен­ным в том слу­чае, если боль­шая часть его кон­тента ско­пи­ро­вана из дру­гих источ­ни­ков или если на сайте есть стра­ницы с дуб­ли­ро­ван­ным или схо­жим кон­тен­том. Это рас­про­стра­нен­ная про­блема Интер­нет-мага­зи­нов, кото­рые про­дают сотни това­ров, раз­лич­ных лишь по одному пара­метру (напри­мер, по цвету). Чтобы избе­жать этой про­блемы, исполь­зуйте тег canonical.
  • Нека­че­ствен­ный кон­тент. Google любит сайты, кото­рые посто­янно обнов­ля­ются, поэтому мно­гие опти­ми­за­торы реко­мен­дуют еже­дневно пуб­ли­ко­вать новые мате­ри­алы. Однако если вы будете пуб­ли­ко­вать нека­че­ствен­ный кон­тент, не пред­став­ля­ю­щий цен­но­сти для поль­зо­ва­те­лей, то такая так­тика при­не­сет больше вреда.

Как выйти из-под фильтра Панда?

Google еже­ме­сячно обнов­ляет алго­ритм Панда. После каж­дого обнов­ле­ния поис­ко­вые роботы пере­смат­ри­вают все сайты и про­ве­ряют их на соот­вет­ствие уста­нов­лен­ным кри­те­риям. Если вы попали под фильтр Панда, после чего внесли изме­не­ния на сайте (изме­нили недо­ста­точ­ный, нека­че­ствен­ный и неуни­каль­ный кон­тент), пози­ции вашего сайта улуч­шатся после оче­ред­ного обнов­ле­ния. Учтите, что, ско­рее всего, вам при­дется ждать вос­ста­нов­ле­ния пози­ций несколько меся­цев.

Google пингвин – Охотник за ссылками

Алго­ритм Google Пинг­вин был запу­щен 24 апреля 2012 года. В отли­чие от Панды, этот алго­ритм наце­лен на борьбу с неесте­ствен­ными обрат­ными ссыл­ками .

Авто­ри­тет и зна­чи­мость сайта в гла­зах поис­ко­вых систем во мно­гом зави­сит от того, какие сайты на него ссы­ла­ются. При этом одна ссылка с авто­ри­тет­ного источ­ника может иметь такой же вес, как десятки ссы­лок с мало­из­вест­ных сай­тов. Поэтому раньше опти­ми­за­торы стре­ми­лись всеми воз­мож­ными путями полу­чить мак­си­маль­ное коли­че­ство внеш­них ссы­лок.

Google научился рас­по­зна­вать раз­ные мани­пу­ля­ции с ссыл­ками. Как именно рабо­тает Пинг­вин, известно только его раз­ра­бот­чи­кам. Все, что известно опти­ми­за­то­рам, так это то, что этот алго­ритм охо­тится за нека­че­ствен­ными ссыл­ками, создан­ными веб-масте­рами вруч­ную с целью повли­ять на пози­ции сайта. Сюда отно­сятся:

  • покуп­ные ссылки;
  • обмен ссыл­ками;
  • ссылки с нере­ле­вант­ных сай­тов;
  • ссылки с сай­тов-сател­ли­тов;
  • уча­стие в ссы­лоч­ных схе­мах;
  • дру­гие мани­пу­ля­ции.

Как выйти из-под фильтра Пингвин?

Пинг­вин – такой же фильтр, как и Панда. Это озна­чает, что он регу­лярно обнов­ля­ется и пере­смат­ри­вает сайты. Чтобы выйти из-под филь­тра Пинг­вин, вам нужно изба­виться от всех неесте­ствен­ных ссы­лок и ждать обнов­ле­ния.

Если вы доб­ро­со­вестно после­ду­ете реко­мен­да­циям Google и не будете пытаться полу­чить ссылки нечест­ным путем, то смо­жете вер­нуть себе рас­по­ло­же­ние поис­ко­вых систем. Однако чтобы вер­нуть пер­вые пози­ции, вам не доста­точно будет про­сто уда­лить нека­че­ствен­ные ссылки. Вме­сто них вам нужно зара­бо­тать есте­ствен­ные редак­тор­ские ссылки с тра­с­то­вых сай­тов.

Google Колибри – самый «понимающий» алгоритм

Алго­ритм Колибри – это совсем дру­гой «зверь». Google объ­явил о запуске этого обнов­ле­ния 26 сен­тября 2013 года, но он также упо­мя­нул о том, что этот алго­ритм дей­ствует уже на про­тя­же­нии месяца. Вот почему вла­дельцы сай­тов, пози­ции кото­рых упали в начале октября 2013 года, оши­бочно пола­гают, что они попали под фильтр Колибри. Если бы это дей­стви­тельно было так, они ощу­тили бы дей­ствие этого алго­ритма на месяц раньше. Вы спро­сите, а что же в таком слу­чае послу­жило при­чи­ной сни­же­ния тра­фика? Ско­рее всего, это было оче­ред­ное обнов­ле­ние Пинг­вина, кото­рое всту­пило в силу 4 октября того же года.

Алго­ритм Колибри был раз­ра­бо­тан для того, чтобы лучше пони­мать запросы поль­зо­ва­те­лей. Теперь, когда поль­зо­ва­тель вво­дит запрос «В каких местах можно вкусно поесть в Ека­те­рин­бурге», поис­ко­вая система пони­мает, что под сло­вом «места» поль­зо­ва­тель под­ра­зу­ме­вает ресто­раны и кафе.

Как поднять себя в глазах Google Колибри?

Поскольку Google стре­мится как можно лучше пони­мать поль­зо­ва­те­лей, вы должны делать то же самое. Созда­вайте кон­тент, кото­рый будет давать мак­си­мально раз­вер­ну­тые и полез­ные ответы на запросы поль­зо­ва­те­лей, вме­сто того, чтобы зацик­ли­ваться на про­дви­же­нии по клю­че­вым сло­вам.

В заключение

Как видите, все поис­ко­вые алго­ритмы пре­сле­дуют одну цель – заста­вить веб-масте­ров созда­вать каче­ствен­ный, инте­рес­ный и полез­ный кон­тент. Помните: Google посто­янно рабо­тает над повы­ше­нием каче­ства резуль­та­тов поиска. Созда­вайте кон­тент, кото­рый помо­жет поль­зо­ва­те­лям найти реше­ние их про­блем, и пер­вые места в выдаче вам гаран­ти­ро­ваны.


Похожие статьи