Как не попасть под фильтр google панда. Google Panda – как работает он и как работать с ним. Как Panda проверяет ваш контент

24.09.2020

Здравствуйте, уважаемые читатели блога сайт. В этом посте я хочу чуть-чуть порассуждать о том, что у меня сейчас крутится в голове. В основном все мысли заняты проблемой , под которые меня угораздило угодить за последние полтора года. По приведенной ссылке вы найдете статью, где я описываю сложившуюся ситуацию, включая переписку с техподдержкой зеркала рунета.

За прошедшие с момента выхода той публикации четыре с половиной месяца, я по очереди (начиная с первых постов за 2009 год) вычитывал и вносил правки (убрал возможный спам любыми словами, а так же обуздал внутреннюю перелинковку до вменяемых пределов) в 360 своих статей из 411 существующих на данный момент. Несколько десятков из них были полностью переписаны, во многих десятках обновлены скриншоты, внесены исправления, дополнения и т.д.

В общем, делал все, что мог, не покладая рук. Проявилась за это время чудовищная работоспособность (по 12 часов в сутки пахал и от 2 до 6 статей умудрялся за это время окучивать). Появились и первые положительные результаты в плане улучшившихся позиций и увеличившейся посещаемости с Яндекса и Google.

Вот только по-прежнему терзают сомнения по поводу того, под каким именно фильтром Гугла я сижу вот уже полтора года — Панда или Пингвин. В связи с этим встает вопрос, а нужно ли заморачиваться с отбором спамных обратных ссылок и добавлять их в Disavow links , как это советуют делать всем, кто пострадал от Пингвина. Да и как это сделать при 30 000 беков в Гугл Вебмастере?

Послабление фильтров с Яндекса и Гугла

Как я уже упоминал, работоспособность сейчас имеет место быть просто феноменальная и было бы здорово ее приложить еще к чему-то полезному и перспективному, ибо статей для переделки осталось уже не много, да и спама в них уже не найти, разве что только мелочи разные подправляю.

Ребят, сразу извиняюсь, что далее буду использовать нетолерантное «трафик», а не количество посетителей с такой-то поисковой системы, ибо так реально проще и доступнее получается (меньше слов, а больше смысла). Ничего личного, только бизнес. Спасибо.

25 сентября я обнаружил, что получаю с Яндекса трафика в два-три раза больше , чем обычно в последнее время.

На общей картине посещаемости это отразилось примерно так:

Во-первых, это было несколько неожиданно, ибо как раз к этому времени я полностью смирился со сложившейся плачевной ситуацией и просто продолжал пахать без особых претензий на результат. Причем, еще летом я порой готов был рвать и метать из-за бессилия чего-то изменить в лучшую сторону, а тут полностью перестал дергаться.

Во-вторых, не имея опыта выхода из под фильтров, не знаю что и думать о будущих перспективах. Трафик по Яндексу вернулся не весь и я себя успокаиваю тем, что и падал он не сразу, а в течении нескольких апов.

Кстати, загнать по фильтр можно не только тонной ссылок с ГС (у меня в начале этой весны наблюдался чудовищный всплеск ссылочного в несколько тысяч бэков и не к одному из них я причастен не был). Могут пытаться играть и на поведенческом, т.е. ухудшать метрики как поведения пользователей в выдаче, так и на сайте.

Например, все той же весной у меня появился тысячный трафик с каких-то сайтов анекдотов, приколов и прочей ерунды, которые ничем иным, как ГС, и назвать-то было трудно. Что это было — не понятно. Например, при переходе к чтению очередного анекдота пользователь попадал на мою страницу 404 и не знал, что ему делать. Пришлось даже под таких посетителей, чтобы хоть чуток снизить показатель их отказов.

Пингвин до сих пор придерживается принципа общего обновления алгоритма фильтрации и можно четко отследить (если этим заморочиться) все его апдейты. Сейчас, кстати, похоже идет его очередное обновление до версии 2.1, что подтверждают соответствующие ветки на Сео форумах.

Панда же последнее время стала фактически частью общего алгоритма, который Гугл использует при ранжировании, и ярко выраженных ее апдейтов для всех сайтов сразу уже, скорее всего, не будет. Но тем не менее, если вернуться немного в историю, то по дате начала падения трафика можно сделать вывод, под какой именно фильтр попал тот или иной ресурс.

Как определить под каким фильтром Google находится сайт — под Пандой или под Пингвином

Кстати, именно такой способ предлагает использовать буржуйский онлайн ресурс Barracuda, а именно его продукт под названием Panguin Tool .

Проблема в том, что этому сервису нужно будет предоставить доступ к статистике вашего счетчика Гугл Аналитикс , а он уже наложит на выдранный из него график точные даты апдейтов Панды и Пингвина, чтобы понять что именно из этого дуэта подкосило ваш ресурс.

По началу я подумал, что у меня есть по крайней мере две причины этого не делать:

  1. Во-первых, у меня Аналитикс еще и года не стоит, ибо раньше меня полностью устраивала , ну, и ЛИ счетчик тоже вполне себе информативный.
  2. Во-вторых, на том же у меня висит и Адсенс, а это же деньги, которые никому не стоит доверять. Но чуть погодя я вспомнил, что Аналитикс, равно как и Метрика, имеет возможность создания гостевых аккаунтов, чем я и попробовал воспользоваться.

В общем, я зашел в своем основном аккаунте Аналитикса в администрирование и делегировал права на просмотр и анализ статистики другому своему аку в Гугле, к которому вообще ничего такого не привязано.

После этого в том браузере, где я уже был авторизован под этим не слишком важным аккаунтом, перешел по ссылке «Log-in to Analytics» со страницы Panguin Tool и меня попросили подтвердить мое желание предоставить этому приложению данные по статистике из Аналитикса.

Я не возражал. После этого меня попросили выбрать конкретный счетчик.

Ну, и в конце концов предоставили желаемый график с датами релизов Панды и Пингвина , но, как упоминал чуть выше, счетчик этот у меня стоит не так давно и начало 2012 года он не захватил.

Поэтому определить, какой именно фильтр наложил Гугл на мой сайт, таким образом не удалось. К тому же, в конце весны и начале лета этого года я вообще снимал код Аналитикса по не понятным мне сейчас причинам. То снижение трафика с Google, которое имело место быть весной этого же года, вроде бы ни с Пандой, ни с Пингвином не коррелируются.

Но, возможно, вам повезет больше. На графике и в приведенных ниже таблицах еще можно посмотреть статистику по приземляющим страницам и по ключевым словам, с которых шел трафик.

Второй способ определиться с тем, какой именно зверь вас покусал, это посмотреть на косвенные признаки (отпечатки зубов). Например, считается, что при попадании под Пингвин у вас просядут позиции только по отдельным запросам , целевые страницы которых окажутся заспамленны плохими входящими ссылками.

При Панде же, скорее всего, будет общее проседание трафика, как будто бы у вас , хотя о самой уместности употребления этого термина ведутся споры. У меня ситуация в этом плане больше похожа на второй вариант.

Однако, сейчас спам был устранен, но изменения в лучшую сторону по Гуглу начались только после движения по Яндексу. В связи с этим я по-прежнему остаюсь в растерянности по поводу своих дальнейших действий и их целесообразности.

Disavow links — как сообщить Гуглу о плохих ссылках на сайт

Делается это на вкладке «Поисковый трафик» — «Ссылки на ваш сайт». Над приведенным списком у вас будет три кнопки, которые позволят выгрузить все найденные в Google бэки. Мне больше всего нравится последний вариант, ибо там будет иметь место сортировка по дате появления беклинков.

Однако, тут будет приведена информация только по 1000 доменам, с которых проставлено на ваш сайт больше всего беклинков. Судя по различным сервисам анализа беков, на мой блог проставлены ссылки с трех тысяч доменов и их общее число больше доступных в Гугле тридцати тысяч.

Но не суть. Давайте представим, что я пробежался по этим Урлам и с высокой долей вероятности выявил те странички или даже целые домены, которым не место в моем ссылочном профиле. Теперь остается только оформить все это богатство в один файл с расширение txt и любым удобным вам названием.

При составлении файла для Disavow links необходимо будет придерживаться простых правил :

  1. Урл каждой новой страницы или домен пишутся на отдельной строке: http://plohoysite.ru/plohaystranichka.html
  2. Домен оформляется по следующему принципу: domain:plohoysite.com
  3. Можно добавлять комментарии, но перед ними обязательно должна стоять решетка (# — хеш)

Как только список подготовите, то переходите на страницу Disavow links (прямого пути из интерфейса Google вебмастера я не нашел, видимо боятся, что будут использовать этот инструмент не обдумано):

Выбираете из списка нужный вам сайт и жмете на кнопку «Отклонение ссылок» . Вас предупредят о возможных отрицательных последствиях сего действа, хотя я, вроде бы еще не встречал подобных отзывов на форумах, но возможно что те, кто добавлял сюда свои списки, уже не имели трафика с Гугла, а уйти в минус, как известно, не возможно.

Кстати, лично меня эта надпись настораживает, ибо не хотелось бы необдуманными действия усугубить, а не улучшить сложившуюся ситуацию. Ну, а если вы все же решитесь на эксперимент, то на следующей странице вам предложат загрузить с компьютера подготовленный файл с Disavow links и отправить его Гуглу на рассмотрение.

Но проставить в столбик отобранные URL адреса или домены — это самое простое. А вот самое сложно как раз и состоит в отсеивании этих самых спамных и плохих обратных ссылок, чтобы потом попросить Google их не учитывать.

Положение усугубляется еще и тем, что нет однозначного мнения о пользе этого действа, даже если вы точно знаете, что ваш сайт пострадал от Пингвина или на него были наложены ручные санкции. Мнения специалистов разделились. Например, Девака ради дела даже добавил в Disavow links все до единого беки на свой блог , но результата не увидел, хотя именно он склоняется к полезности этого инструмента, как ни странно.

Кстати, при наложении ручных санкций ситуация с выходом из-под фильтра может быть даже более простой, а точнее более быстрой. Фильтры наложенные вручную сейчас можно увидеть в Гугл Вебмастере на вкладке «Поисковый трафик» — «Меры принятые вручную» .

В этом случае уже через пару недель после загрузки списка в Disavow links и подаче заявки на пересмотр (как я понимаю, сейчас это можно сделать на этой же вкладке, а не на отдельной хитроспрятанной странице, как это было раньше) фильтр может быть снят и позиции вернутся к своим первоначальным значениям.

Как отбирать плохие обратные ссылки для добавления в Disavow links

В случае же Пингвина и удачного удаления спамных ссылок результата придется ждать довольно долго — до следующего апдейта этого алгоритма. Возможно, что это будет занимать месяцы, а возможно что и год. Вы по-прежнему хотите попробовать Disavow links? Ну, что же, тогда я поделюсь с вами теми моментами, которые я почерпнул при поиске способа создания этого списка.

Делать это вручную у меня не получилось не из-за огромного количества монотонной работы, а из-за того, что я не обладаю должной интуицией, чтобы по внешнему виду и тем небольшим статистическим данным, которые собирают , делать выводы о добавлении данной страницы или всего домена в список неблагонадежных.

Тут однозначно нужна автоматизация , которая должна четко отделить зерна от плевел и ни в коем случае не «выплеснуть вместе с водой и ребенка». Очевидно, что нужны какие-то сервисы, которые кроме того, что смогут собрать всю ссылочную массу ведущую на ваш сайт, способны были бы еще и вынести оценку качества для каждого из доноров.

Такие сервисы есть и многие вебмастера, а уж тем более оптимизаторы, их знают. Другое дело, что за анализ большого количества бэков в этих сервисах придется заплатить и очень даже не малое количество денег. Причем, если вы профессионально используете подобные ресурсы каждый день, то деньги окупятся сторицей, но для нашей задачи это будет расточительством, как мне кажется.

На серче проскакивала публикация, где представитель одной из крупных SEO контор делился своим опытом подбора кандидатов для списка Disavow links. Он предложил использовать три ссылочных сервиса : буржуйский от Moz под названием Open Site Explorer , а так же отечественные Solomono (Линкпад) и Ahrefs .

Как я понял, мне нужно месяц ни есть и не пить, чтобы оплатить проверку моих нескольких десятков тысяч беклинков и выгрузить все данные по ним для дальнейшего анализа и обработки. Конечно же, крупная Сео контора всеми этими платными пакетами и так обладает, ибо они полностью окупаются при постоянной работе с десятками, а то и сотнями проектов заказчиков.

Но метод его довольно-таки убедителен. Товарищ предлагает выгрузить из Open Site Explorer, Solomono и Ahrefs показатели качества доноров. Они называются Domain Authority, iGood и Ahrefs Domain Rank, соответственно.

Затем свести все это дело в одну таблицу и отбирать кандидатов в Disavow links по принципу наименьших весовых коэффициентов качества донора во всех этих трех сервисах в купе. Это позволит снизить вероятность ошибки.

К сожалению, позволить себе такую роскошь могут не многие, хотя, если бы кто-то вынес это на аутосорсинг , то я бы не отказался воспользоваться за умеренную плату, но при этом мне бы хотелось получить не просто список кандидатов для Disavow links, а именно все эти выгрузки из Open Site Explorer, Solomono и Ahrefs, чтобы самому убедиться в справедливости сделанных выводов и в том, что меня не водят за нос.

Второй вариант поиска спамных обратных ссылок в своем ссылочном профиле, который мне попался на глаза, заключался в использовании платной программы ФастТраст от Алаича (известный блогер). Собственно, на промо сайте этой программы я наткнулся как раз на описание подготовки списка кандидатов на удаления для Disavow links .

Вроде бы все замечательно. Цена 3000 рублей, что хотя и дороговато, но терпимо, тем более, что ее можно приобрести и за бонусы Профит Партнера, которых у меня как раз имеется нужное количество.

Но! Я присмотрелся повнимательнее к требованиям и желательным условиям, при которых данная программа будет работать корректно. Оказалось, что не все так просто:

В общем, это охладило мой пыл и я понял, что купить программу это еще полдела, а нужно будет еще прокси искать, деньги в Ahrefs вкладывать, чтобы получить наиболее актуальный результат. Да и времени на сбор данных, думаю, уйдет довольно много.

Поэтому решил взять паузу и, пока из головы не вылетело, записать все свои текущие мысли по поводу Пингвина и Disavow links в этом посте, чтобы потом к этому вернуться.

Ну, вот, где-то так, примерно. А вы что думаете по поводу фильтра примененного Гуглом к ktonanovenkogo? Это Панда или Пингвин? С Disavow links линк стоит заморачиваться? Если стоит, то каким образом вычленять галимые бэки?

Удачи вам! До скорых встреч на страницах блога сайт

Вам может быть интересно

Вывод сайта из под фильтра Google Пингвин - пошаговое руководство За что можно получить бан в Яндексе, попасть под АГС или портяночный фильтр, а также пути выхода из-под этих санкций
GoGetLinks - вечные ссылки для продвижения сайта и заработок на бирже ГоГетЛинкс для вебмастеров
Статистика поисковых запросов Яндекса, Google и Рамблера, как и зачем работать с Вордстатом
Расшифровка и разъяснение Seo сокращений, терминов и жаргонизмов
СЕО терминология, сокращения и жаргон
Онлайн сервисы для вебмастеров - все, что нужно для написания статей, их поисковой оптимизации и анализа ее успешности
Способы оптимизации контента и учет тематики сайта при ссылочном продвижении для сведения затрат к минимуму
Rel Nofollow и Noindex - как закрыть от индексации Яндексом и Гуглом внешние ссылки на сайте

мкр. Черная Речка, д.15 Россия, Санкт-Петербург 8 812 497 19 87

Алгоритм Гугл Панда: обновления Google Panda 2018


ПОДЕЛИЛИСЬ

Обновление Google Panda изменило мир SEO.

Круто если нет, но лучше прочтите эту статью, будет полезно узнать что изменилось с внедрением алгоритма Google Panda и как избежать понижения в поисковой выдаче Google.

Обновление Google Panda. Справочная информация по SEO

Ознакомьтесь для начала с инфографикой.


С чего все началось.

ДО Panda SEO чем-то стал напоминать «грязный бизнес», и сайты качественные не всегда выигрывали в ранжировании.

Поскольку все больше и больше становилось неактуальных сайтов, плагиата и сайтов с плохим содержанием, они стали превосходить число хороших в результатах поиска.

Для борьбы со спамом Google потребовалось новое обновление.

Обновление Google Panda. Что это такое и что оно дает?

Panda, вероятно, войдет в историю как один из самых известных обновлений Google.

Главной задачей Panda было улучшить работу пользователей, избавив верхние поисковые места от спам-страниц.

Новое обновление и алгоритм учитывали репутацию сайта, дизайн, скорость загрузки и пользовательский интерфейс, чтобы людям было удобнее.

Как обновление Google Panda затронуло сайты

Эффект Panda был далеко идущими — и все еще ощущаются многими сегодня.

Первоначальное обновление в 2011 году затронуло примерно 12% поисковых запросов, что означает, что 12% рейтинга в Google резко изменилось.

Особенно это ощущалось крупными контент-фермами, включая About.com, eHow, Demand Media и Yahoos Associated Content.

Более 80% сайтов, на которые негативно повлияло обновление Panda, по-прежнему справляются с убытками.

Хронология обновления Google Panda

Panda регулярно обновляется с момента ее появления в 2011 году.

Обновление происходит, когда Google просматривает все сайты в Интернете, и проверяет их на алгоритм Panda. Обновление — это фактическое изменение алгоритма Panda.

Таким образом, алгоритм Google Panda обновлялся с 24 февраля 2011 года до 17 июля 2015 года.

Цели обновления Google Panda

На протяжении многих своих изменений основное внимание в обновлениях Panda уделялось отсеиванию низкокачественного контента из результатов поиска пользователей.

К проблемам, которые он затрагивает, относятся:

  • Скудный контент — страницы со слабым или небольшим содержанием; если у вас несколько страниц с парочкой предложений в каждой, они, скорее всего, будут классифицированы как скудный контент. Если только на одной или двух страницах, тогда все ОК. Но если таким является весь сайт, то это «красный флаг».
  • Дублирующийся контент — контент, который повторяется. Это может быть содержимое, которое копируется с других страниц в Интернете или показывается на нескольких страницах вашего сайта с незначительным изменением текста.
  • Некачественный контент — любой контент, лишенный адекватной информации.
  • Машинный или автогенерируемый контент — любое содержимое, автоматически формируемое специальными алгоритмами, приложениями или другими источниками в которых не задействованы люди.
  • Плохой слог — слишком много заметных ошибок в стилистике и грамматике.
  • Слишком много тем в рамках одного сайта — если ваш сайт не имеет четкой темы и охватывает несколько тем, вместо того, чтобы сосредоточиться на чем-то одном
  • Отсутствие авторитетного мнения — контент из непроверенных источников
  • Слишком много 404 ошибок или редиректов
  • Заполнение ключевыми словами — обилие ключевых слов в попытке манипулировать рейтингами
  • Контент-фермы — большое количество коротких, некачественных страниц
  • Слишком много рекламы — если на странице больше рекламы, чем полезного текста.
  • Низкокачественные партнерские ссылки — низкокачественный контент, ведущий на партнерские страницы.
  • Контент, который не соответствует поисковым запросам — страницы, которые показывают некорректную информацию.
  • Сайты, заблокированные пользователем — сайты, заблокированные пользователями через расширения.

Как обновления Google Panda повлияли на SEO-стратегию

Последствия обновления Panda ощутил весь мир маркетинга, и ее внедрение привело к существенному сдвигу в SEO.

В основном, оптимизаторы должны теперь ориентироваться на удобство интерфейса сайта для его посетителей.

Ран ее главная цель SEO заключалась в том, чтобы контент был доступен для поисковых систем и соответствовал необходимым запросам с помощью добавления необходимых ключевых слов и построению ссылочной массы, ведущей на необходимые продвигаемые страницы.

Тепер ь же а кцент делается на пользователя, а не на алгоритмы поисковых систем .

Это акцент на качество, а не на количество.

Например, многие думали, что путь к первому месту Google — это выкладывать контент каждый день, чтобы Google постоянно его индексировал.

Но из-за Панды, если вы ведете блог просто ради того, чтоб вести, можно принести больше вреда, чем пользы. Каждая опубликованная вами статья должна быть качественной, уникальной и предоставлять читателям необходимые ответы и информацию.

Качественный контент, дизайн и полезность = заслуженный, высокий ранг.

Чтобы занять первое место, вам нужно его заслужить.

Цитата от представителя Google резюмирует: «Создатели контента не должны думать, сколько посетителей у них было в день, а скольким посетителям они помогли».

Как узнать, пострадали ли вы от обновления Google Panda

Наиболее очевидным предупреждающим знаком является внезапное падение трафика.

Если это произошло с вашим сайтом во время известного обновления алгоритма, вы, вероятно, пострадали от штрафа Panda.

Другой способ определить — посмотреть на общее качество вашего сайта. Снимите розовые очки, и ответьте себе на вопросы.

  • Являются ли ваши показатели отказов высокими?
  • Делятся ли вашим контентом и получает ли он комментарии?
  • Удобна ли навигация и ссылки?
  • Проверьте общее качество сайта. Если у вас есть сомнения, то у Google явно тоже;)

Пострадали от Панды? Как реабилитироваться

Первый шаг: не паникуйте. Вместо этого приступайте к работе.

Обновления Panda происходят примерно раз в месяц, что дает вам немного времени для работы.

Между обновлениями, если вы предпримете правильные шаги, то начнете видеть некоторые улучшения в своем рейтинге. Иногда Google повторно обновляет все ваши изменения.

Теперь к конкретике. Когда Panda наносит удар, нужно восстанавливаться через контент.

Как Panda проверяет ваш контент

Поскольку Панда только за качественный контент, это именно то, с чего вам нужно начинать.

Прежде всего, не удаляйте одним махом весь контент, даже некачественный. Лучше исправьте имеющийся и добавьте то, чего ему не хватает.

Если убрать все, можно сделать еще хуже.

Если вы сомневаетесь в качестве страницы, перейдите к своим метрикам. Страницы с высокими показателями отказов и с низким уровнем времяпрепровождения на сайте человека говорит о том, что с контентом явные проблемы.

Если вы не уверены, то

Список довольно внушительный получился))

Поэтому начните со страниц, которые в ТОПе и приносят больше всего трафика. Чтобы узнать какие именно это страницы (если еще не знаете), посмотрите аналитику (можно через Google Analytics).

Помимо собственного контента, важно следить за тем, что пишут пользователи сайта.

Не весь контент, написанный пользователями, плох, но он подчиняется тем же стандартам качества, что и любой другой контент на вашем сайте.

Обратите особое внимание на качество, если ваш сайт содержит форумы и там много комментариев.

Алгоритм рассматривает комментарии как часть вашего контента. Поэтому, если эти комментарии содержат полезную информацию в дополнение к содержанию, то это может быть хорошим дополнением к вашему сайту.

А низкокачественные комментарии могут повредить вашему сайту. Но не удаляйте комментарии полностью. Это может повредить ваш сайт с точки зрения взаимодействия с пользователем.

Каков статус обновления Google Panda сегодня?

Гугл Панда все еще жива и здорова… и продолжает развиваться.

Фактически, Panda получила повышение: в 2016 году она стала частью основного алгоритма Google.

Самое большое изменение, которое заметили большинство пользователей — это конец официальных объявлений.

Panda стала основой, потому что она больше не требует большого количества изменений.

То есть основное внимание уделяется качественному контенту и опыту пользователя.

Завершение обновления Google Panda

Panda революционизировала SEO. Для большинства изменения были к лучшему.

Сегодня принципы Panda — это общие стратегии SEO.

Поэтому, если вы их не используете, настало время уделять серьезное внимание Панде.

Думаю, статья была полезной, даже тем, кто не особо в теме SEO.

Известно, что алгоритм Google Panda представляет собой совокупность обновлений систем поиска, нацеленных на увеличение релевантности страниц в выдаче. Для этого берется во внимание около ста различных факторов. В результате анализа сайты с низким качеством контента и выраженной переоптимизацией понижаются в выдаче.

Особое внимание алгоритм «Панда» уделяет внутренним факторам, в первую очередь текстовому контенту. Рассматривается его объем, уникальность, степень заспамленности ключами и прочее. Тем самым Panda дополняет другой алгоритм Google - Penguin, отвечающий за внешние факторы ранжирования сайта.

Также во внимание берутся процент отказов, логичность структуры сайта и правильность перелинковки.

Близкого знакомства с «Пандой», конечно, лучше сторониться. Но если сайт все же попал под фильтр, важно своевременно узнать об этом. Достоверно определить этот факт невозможно, так как информация о дате выхода обновлений Google «Панды» отсутствует. Но косвенным свидетельством попадания под фильтр будет снижение числа посетителей из ПС Гугл. Стоит отметить, что фильтр накладывается на весь сайт, поэтому, выполняя работы по выводу, необходимо уделять внимание ресурсу в целом.

Как определить, что сайт под фильтром Google «Панда»?

Воспользуйтесь сервисом проверки уникальности текстов - например, WebSite Auditor, Advego Plagiatus или любым другим Вам доступным, но при этом корректным. Необходимо определить уникальность всех документов на сайте. Если большая часть контента (от 20% и более) скопирована из других источников, рекомендуем принять меры по уникализации проблемных участков.

  1. Смотрим на содержательность контента. Пользователи должны находить на странице необходимый ответ на свой вопрос. Проверку на фильтр Гугла по этому параметру также должны пройти все страницы.
    • Необходимо наполнять страницы сайта максимально информативным и развернутым контентом: текстовым, графическим, медийным. «Панда» оценивает не только текстовую релевантность, но и общее наполнение страницы.
    • Следует удалить повторяющийся контент, который не терпит алгоритм Google Panda.
  2. Нужно проверить тексты на переизбыток ключевых слов. «Панда» накладывается за переспамленность.
  3. При подготовке нового качественного контента для сайта принимайте во внимание, насколько вовлечены пользователи, на основании статистики систем аналитики Гугла.
  4. Необходимо выстаивать правильную структуру сайта с логичной перелинковкой внутренних страниц.

Как перестать быть интересным алгоритму Google Panda?

В первую очередь необходимо сделать полный аудит сайта и определить, что могло вызвать наложение фильтра. Далее можно приступать к устранению недочетов.

  1. Уделите особое внимание контенту. Объем текста должен превышать 400 символов. Чтобы избежать попадания под действие фильтра Гугла «Панда», не менее важно отредактировать текст: он должен быть содержательным, удобочитаемым и уникальным. Дубли страниц необходимо удалить. Следует также подчистить от лишних ключей сам текст, а также заголовки и метатеги. Важно, чтобы сайт был в должной мере наполнен информацией, полезной для посетителей (например, новостями, статьями, разделами «Вопрос – ответ» и прочим).
  2. Постройте правильную структуру сайта. Это ключевое требование для правильной перелинковки страниц. Также важно исправить все технические ошибки сайта.
  3. Избавьтесь от нерелевантной рекламы. Если на странице имеются агрессивные всплывающие окна, поп- и кликандеры, пусть даже и по теме, не сомневайтесь, что интерес со стороны Google «Панды» - лишь вопрос времени. Решите сами, стоит ли потенциальная выгода от такой рекламы порождаемых ею рисков.
  4. Определите работоспособность ссылок (как внешних, так и внутренних). Для этого отлично подойдет плагин Broken Link Cheker или сервис Netpeak Spider . Не помешает добавить и дополнительную навигацию.

Главное при этом - помнить, что цель алгоритма «Панда» заключается в блокировке плохого контента. Google Panda любит большое количество уникального контента. Чем его больше, тем выше вероятность, что фильтр снимут. Нужно только периодически индексировать страницы.

Это основные рекомендации, которые позволят избежать санкций со стороны Гугла. Их можно использовать в качестве базовых еще на этапе создания сайта, его наполнения и продвижения. Чем более содержательным будет веб-ресурс, тем меньше ему угрожает этот алгоритм. Соответственно, позиции в выдаче будут предельно устойчивыми.

Если сайт попал под фильтр, то до следующего апдейта он уже не сможет освободиться от влияния Google Panda. Именно поэтому лучше предупредить проблемы, чем потом их решать.

Полезно 1

Алгоритм ранжирования Google Panda действует с начала 2011 г. Его основной задачей является оценка качества контента. Именно благодаря Панде поисковая выдача чистится от бесполезных и нерелевантных сайтов. С 2015 г. ей на помощь пришел искусственный интеллект - алгоритм RankBrain. А с начала 2016 г. разные алгоритмы ранжирования объединили в один общий алгоритм.

Как проверить, попал ли сайт под фильтр Панды

Еще пару лет назад seo-специалисты знали даты обновлений алгоритма Гугл Панда и могли связать падение органического трафика с попаданием сайта под фильтр. Но представители Google в каждом обращении заявляют, что они намеренно скрывают информацию, связанную с ранжированием и санкциями. Они хотят исключить возможность подтасовки результатов поисковой выдачи со стороны недобросовестных seo-оптимизаторов.

Теперь обновления фильтров в Google происходят комплексно сразу всех алгоритмов. Из-за этого тяжело понять, почему именно ресурс попал под санкции. Что привело к потере позиций: ссылки, тексты или что-то другое. Обращение к техническим специалистам Google также не добавляет ясности, потому что они отвечают общими фразами.

Понять, есть ли фильтр, не сложно. У сайта с высокой посещаемостью сильно падает трафик из Google, у молодых сайтов в течение длительного времени наблюдается практически нулевой трафик. Дополнительно проверяйте сайт в сервисе Feinternational.com. Он использует десять баз индексации Google в разных странах и показывает проверки алгоритмами Panda, Penguin, Phantom, Mobile-Friendly.


Чтобы определить вероятность санкций со стороны Google Panda, представители поисковика советуют провести самостоятельный аудит сайта. Почитайте материалы на своем ресурсе и ответьте на вопросы:

  • может ли подобный материал выйти в виде книги или печатного журнала?
  • как много и часто выходят новые материалы?
  • вы бы сами подписались на рассылку от такого сайта?
  • доверяете ли вы сами размещенной информации?
  • стали бы вы платить банковской картой через этот сайт?

Если вы даете ответы не в пользу ресурса, советуем кардинально поменять подход к работе: к поиску инфоповодов, созданию материалов и привлечению экспертов.

Чтобы проверить качество контента техническими методами, воспользуйтесь бесплатным сервисом «

Панда – алгоритм поисковой системы Google, о котором писали неоднократно и не только мы. Но она до сих пор вызывает много вопросов и не все её понимают. В данной статье мы попытаемся собрать в одно целое все, что знаем о Google Панде, ответим на самые частые вопросы и развеем мифы о несуществующих свойствах этого алгоритма. Итак, начнём

Суть алгоритма Панда

Панда создана, чтобы следить за качеством контента сайтов. Если контент не отвечает представлениям Панды о хорошем качестве, позиции сайта в поисковой выдаче Google будут понижены.

Немного истории

Впервые Панда появилась в феврале 2011 года. Тогда алгоритм шокировал SEO-сообщество, так как выдача изменилась кардинально, но никто не понимал – почему. Когда Google, наконец-то, пояснил в чем дело, начался длительный процесс переоценки приоритетов в продвижении сайтов.

За 5 лет Google Панда обновлялся 28 раз. При этом в первые 2 года обновления шли часто (практически раз в месяц), в 2014-м Google сбавил обороты, выпуская Панду раз в полгода. Алгоритм Панда работал как фильтр. То есть после оценки сайта основным алгоритмом Google, включающим 200+ факторов, сайт оценивал и Панда. Данные о качестве сайтов копились до очередного апдейта, после чего выкладывались разово, меняя всю картину гугл-выдачи.

Последний апдейт в июле 2015-го происходил совсем по иному сценарию. Алгоритм «раскатывался» в течение нескольких месяцев. И специалисты заговорили о встройке Панды в основной алгоритм Google.

Панда сейчас и в ближайшем будущем

И действительно, в своем твиттере Гари Илш подтвердил, что Панда теперь ЯВЛЯЕТСЯ частью основного алгоритма ранжирования:

Дженифер:
Превосходно, спасибо за подтверждение... и дополнение, что никаких других животных не появилось))

Гарри Илш:
Если сказать точно, Панда - теперь часть основного алгоритма, но мы не изменяли саму Панду. Никаких других животных.

При этом Илш опровергает возникшее предположение, что Панда обновляется в режиме реального времени:

Пит:
Я не уверен, в какой момент началось обсуждение Панды в режиме реального времени, просто пытаюсь разобраться.

Гарри Илш:
Панда в режиме реального времени - это неверно. Мы обновили основной алгоритм, и вне зависимости от этого мы рассказали чуть больше о Панде в интервью TheSEMPost.

И что все это значит? Как теперь работает Панда? На сегодняшний день (10 марта 2016) точного ответа нет (как это ни печально). Мы изучили интервью и просмотрели записи последних выступлений представителей Google по этому вопросу. Но их высказывания по теме очень туманны. Гари Илш на прямые вопросы об интеграции Панды ответил вот что:

Кеничи:
1. Панда теперь часть основного алгоритма ранжирования. Значит ли это, что Панда будет обновляться автоматически, а не вручную (даже если и не в режиме реального времени)?
2. Что это вообще за "Основной алгоритм ранжирования"? Насколько он отличается от остальных алгоритмов (не входящих в него)?

Гарри Илш:
Я переговорил с Джоном Мюллером о том, как ответить на ваши вопросы, чтобы было меньше путаницы. Решили так:

1. Мы продолжаем обновлять данные, которые используются для распознавания качественных сайтов, и мы выкладываем эти данные со временем. Иногда мы вынуждены делать ручные обновления, иногда это происходит автоматически, но не играет роли, как именно мы выкладываем данные.

2. Думаю, что это не лучший пример, но представьте себе двигатель автомобиля. Если в нем нет стартера, то водитель вынужден подходить к капоту и использовать какие-то инструменты, чтобы запустить двигатель. Сегодня стартеры есть в любых бензиновых двигателях, они встроены. Это сделало использование двигателя более удобным, но по сути ничего не изменилось.
Для пользователей и даже для вебмастеров не должно иметь значение, где какие компоненты расположены (в основном алгоритме или в других), это действительно не важно, и поэтому я думаю, что люди должны меньше фокусироваться на этом.

Кеничи:
Понял, что вы хотели сказать. В общем, для нас, вебмастеров, не важно, как работает алгоритм "внутри". Мы должны фокусироваться на создании контента уникального, качественного и неотразимого, как Джон Мюллер постоянно говорит.
Возможно, вы столь много раскрыли в последние несколько дней, что это вызвало мои вопросы (не поймите меня неправильно, я ни в коем случае не обвиняю вас). В любом случае, спасибо за ответы))

Попробуем резюмировать из этого (и других источников, с которыми мы ознакомились) основные мысли по новой Панде:

  • Панда может функционировать в автоматическом режиме (но пока НЕ онлайн режиме), т.е. обновления будут происходить периодически и будут запускаться по каким-то внутренним законам основного алгоритма.
  • Обновления Панды (в рамках основного алгоритма) будут происходить теперь чаще, чем было в последние годы.
  • Google больше не будет подтверждать апдейты Панды (как отдельного алгоритма) и вообще как-то их выделять. Так что узнать, попал ли сайт под Панду или позиции понизили по другим причинам, будет затруднительно.
  • Можно забыть про Панду, как фильтр или алгоритм. Работайте над улучшением сайта не ради Панды, а чтобы отвечать ОБЩИМ требованиям Google. Теперь качество контента – один из основных факторов ранжирования Google.

За что именно наказывает Панда?

– За откровенный копипаст

Если весь ваш сайт это сборник скопированных статей, то, скорее всего, он уже под Пандой. Если еще нет, то скоро будет.

– За отсутствие реальной ценности

Если страница хорошо оптимизирована и даже тексты технически уникальны, но информация никакой пользы не несет и на запрос пользователя не отвечает или отвечает общими, размытыми понятиями. А такое встречается часто, особенно когда вебмастера заказывают дешевые статьи для блога на биржах. Такие страницы могут стать жертвой Панды.

В общем и целом Google не против рекламы или ссылок. Но только если они уместны и не мешают пользователю. Если же реклама очень навязчива (особенно поп-ап окна) или рекламные блоки расположены так, что мешают прочтению, а ссылки на сторонние ресурсы проставлены к месту и не к месту и не являются тематическими, то Панда вас обязательно догонит.

А за что Панда не наказывает

В сети встречаются мнения, что приведенные ниже факторы могут навлечь Панду. Частично эта информация устарела, частично никогда не была правдой. Следующие 4 фактора к Панде отношения не имеют, но на ранжирование сайта (посредством других алгоритмов) влияют:

– Дублированные страницы

Дубли страниц на одном сайте это плохо. Но работает с ними не Панда, а отдельный фильтр за дубли.

– 404 ошибка

Тоже никак не привлекает Панду, хотя большое число ссылок, ведущих на страницу с ошибкой 404 в общем и целом, безусловно, плохо.

– Маленькие тексты и/или мало текстов

Панда НЕ наказывает за тексты маленьких объемов и НЕ наказывает за малое количество статей на сайте. Google отдает предпочтение качеству, а не количеству. И если ваш текст в 300 знаков хорошо отвечает на запрос пользователя, то это замечательно. Только вот надо уметь писать такие тексты.

Вот что пишет Джон Мюллер в форуме помощи вебмастеров:

Проблема малых объемов и малого числа статей на сайте заключается не в Панде. А в том, что в этом случае вы не сможете дать пользователю столько полезной информации, сколько могли бы. И ваш сайт будет показан по ограниченному числу запросов.

– Вовлеченность пользователя

В то же время комментарии к статьям (если они качественные) могут быть зачтены в карму сайта. Но не как сигнал вовлеченности пользователя, а как дополнительный контент, который появился на странице и учитывается поисковиком наравне с телом самой статьи.

И еще 5 спорных вопросов о Панде

– Панда атакует весь сайт или только те страницы, качество которых Google посчитал плохим?

Панда понижает только те страницы, которые были определены, как некачественные. Те страницы, которые алгоритм посчитал хорошими, не будут иметь проблем с ранжированием. Но, если на сайте слишком большое число плохого контента, то к такому сайту будет «предвзятое» отношение. И даже качественные материалы могут быть ранжированы ниже тех позиций, которых реально заслуживают.

– Страницы под Пандой могут быть показаны в поиске или это в принципе невозможно?

Представители Google говорят, что страницы, забракованные Пандой, могут быть показаны по очень специфическим (уточненным) запросам, если нет другой альтернативы. Но в целом, такие страницы так далеко в выдаче, что поискового трафика на них ждать не стоит.

– Надо ли удалять страницы, которые попали под Панду?

Нет, Google не рекомендует этого делать. Во-первых, вы по ошибке можете удалить страницы, которые Пандой вовсе не атакованы. Во-вторых, отсутствие контента никак не повлияет на улучшение ситуации. Сайт по-прежнему не будет показываться по продвигаемым в такой странице запросам.

Лучший способ решить ситуацию – переработать/улучшить контент на странице, которую вы подозреваете в присутствии Панды. Да и вообще, если вы сами считаете, что контент на какой-то странице плохой, то не ждите Панду, исправляйте сразу.

Похожие статьи