Фильтры гугла. Фильтры Яндекса и Google

10.05.2019

Google.com – очень развитая поисковая система с мощным самообучающимся алгоритмом и автоматизированными фильтрами. Выйти из-под фильтра Google намного сложнее, чем у Яндекса. Во-первых, самих фильтров здесь намного больше и распознать, под какой именно попал сайт, гораздо труднее. Во-вторых, здесь нет Платона, от которого можно в трехдневный срок получить хоть какой-то ответ на свой запрос по поводу проблем с сайтом. Письмо послать, конечно, можно, но на ответ надежды мало. Google стремится полностью автоматизировать все процессы, связанные с ранжированием, на глобальном уровне, и случаи ручного рассмотрения проблем с отдельными сайтами случаются крайне редко. Поэтому гораздо лучше профилактика, чем лечение, потому что болезнь может оказаться трудно диагностируемой или, в худшем случае, неизлечимой.

Фильтры Google за возраст сайта

Domain Name Age – фильтр на молодые домены
Накладывается на недавно зарегистрированные домены. Для того, что б сайт на молодом домене смог подняться в выдаче, он должен завоевать доверие поисковой системы.
Профилактика – приклеить к новому домену трастовый старый домен.
Лечение: а) просто ждать; б) тот же прием, что и для профилактики.

SandBox – песочница
Причина – «молодость» сайта в целом, низкий уровень трастовости (доверия поисковика к сайту). В отличие от DomainNameAge, под SandBox могут попасть также сайты на старых доменах, если эти сайты практически не обновляются, не обрастают ссылками и не посещаются.
Профилактика и лечение : работать над развитием сайта, стимулировать появление естественных ссылок.

Фильтры Google за манипуляции с внутренними факторами

Google Florida – фильтр за чрезмерную оптимизацию сайтов
Google Florida – один из самых старых фильтров, прошедших долгий путь совершенствования. Причина наложения – чрезмерная оптимизация сайта (чрезмерное употребление ключевых слов в title, тексте, чрезмерное выделение ключевых слов и т.д.).
Симптомы – резкое падение сайта по всем запросам в выдаче.
Профилактика – пишите тексты, составляйте мета-теги для людей, а не для роботов.
Лечение – заменить всю оптимизированную текстовую составляющую на удобочитаемую (сократить плотность вхождений ключевых слов).

Google Supplemental Results – перенесение сайта в дополнительные результаты поиска.
Этот фильтр, получивший среди российских сеошников название «сопли», накладывается на отдельные кластеры и страницы, если их содержимое не уникально или если они очень похожи друг на друга (например, страницы галлереи).
Симптомы – перемещение страниц из основных результатов выдачи в дополнительные (“supplemental” означает «дополнительный»).
Профилактика: избегать шаблонных движков, дублированных страниц (с одним и тем же содержанием, но разным URL, делать уникальные title, теги и тексты для каждой страницы.
Лечение: удаление дублированных страниц, уникализация каждой страницы в отдельности, замена шаблонного дизайна на свой.

Google Omitted Results – перенесение сайта в опущенные результаты поиска
Накладывается на страницы, по структуре и содержанию очень схожие со страницами с других сайтов (например, страницы технических характеристик товаров Интернет-магазинов). Может накладываться одновременно с Supplemental.
Симптомы – сайта нет в выдаче, но он находится, если нажать на ссылку «повторить поиск, включив опущенные результаты».
Профилактика: делать уникальные по структуре и содержанию страницы
Лечение: оптимизация структуры страниц, уникализация контента.

Googe Duplicate Content – фильтр за неуникальный контент
Накладывается на сайты, не содержащие уникального контента и «взаимствующие» содержание с других сайтов. Также может быть наложен на сайты, содержание которого растащили другие ресурсы.
Симптомы – проседание сайта в выдаче, длительное застрявание на одних и тех же позициях.
Профилактика – не копипастить контент с других сайтов и защищать свой сайт от воровства контекнта (например, с помощь Copyspace , или ).
Лечение – замена существующего дублированного контента на уникальный, добавление нового контента.

Brocken Links Filter – фильтр сайтов с битыми ссылками
Если на сайте много неработающих ссылок, Google может сделать общий вывод о низком качестве сайта и опустить его в выдаче.
Лечение и профилактика – избегайте битых ссылок.

Page Load Time Filter – фильтр долго загружающихся сайтов
Если робот Google не сможет без труда скачать страницу сайта, значит, и пользователи не смогут, а ведь поисковик заботится в первую очередь о пользователях.
Лечение и профилактика – не перегружайте страницы графикой, следите за их весом.

Фильтры Google за манипуляции с ссылками

Google Bombing – фильтр за одинаковый текст ссылок
Накладывается в случае, если на сайт ссылается много ссылок с одним и тем же анкором.
Симптомы: проседание позиций или застрявание сайта на одних и тех же позициях длительное время, безрезультатное увеличение числа ссылок.
Профилактика: старайтесь ставить ссылки с разными анкорами.
Лечение: разбавить тексты существующих ссылок, или нарастить еще ссылок с другими текстами.

Google -30 – понижающий фильтр
Накладывается за использование методов черной оптимизации – клоакинга, дорвеев, редиректов.
Симптомы: резкое понижение сайта в выдаче на около тридцати позиций.
Профилактика – не балуйтесь черными методами.
Лечение – практически невозможно. Фильтр «-30» – это предбанник Google, и обычно дальнейшая перспектива сайта – это бан.

Понижающие фильтры за искусственное наращивание ссылок: LinkFarming Filter, ReciprocalLinksFilter и Link.html Page Filter. Накладываются за участие в ссылочнообменных сетях, покупку ссылок и наличие линкопомоек на сайте. Симптомы : в лучшем случае – понижение сайта в выдаче, в худшем – бан.
Профилактика: быть осторожным при работе с ссылочным.
Лечение: избавиться от причины фильтра (удалить страницу с ссылками, убрать код линкопомойки и т.д.) и попробовать написать запрос на повторное добавление сайта.

Co-Citation Filter – “плохое соседство”.
Фильтр за ссылки с сайтов, ссылающихся на “плохих” акцепторов. Если сайт, который ссылается на ваш ресурс, ссылается также на плохой с точки зрения Google сайт (к примеру, на порносайт, варезник или фарму) – Google может посчитать, что ваш сайт тоже плохой и понизить его в выдаче.
Профилактика и лечение: старайтесь получать ссылки только с хороших сайтов.

To Many Links at Once Filter – фильтр за быстрый прирост ссылок.
Если на ваш сайт за короткий период времени появится большое количество ссылок, Google может показаться это противоестественным – скорее всего, эти ссылки добыты неестественным путем.
Симптомы: резкое падение позиций за пределы первой сотни по всем словам.
Профилактика: набирайте ссылочную массу постепенно.
Лечение: это тот случай, когда лечит время. Только не надо резко убирать полученные ссылки – это будет еще один резкий скачок, который может усугубить ситуацию.

Все эти фильтры уже давно действуют в глобальном поиске Google, но многие из уже начинают работать и в региональном поиске, в особенности в российском и украинском. Как же предохраниться от всей этой нечисти? Русская народная мудрость гласит: тише едешь – дальше будешь…

В этом году про фильтры от поисковых систем слышно меньше, чем в прошлые годы. Про Минусинск и Пингвин практически ничего не слышно, да и Баден-Баден как-то потерялся на форумах. Но, на мой взгляд, фильтры продолжают действовать, только вот индикаторов этих фильтров стало меньше, и даже в панели не всегда отображаются, что создает сложность вебмастеру, так как не ясно, почему проект не сдвигается с места, если по нему проводятся видимые работы.

Из самых частых сейчас встречаю фильтр за переспам (комплексный), причем, без метки в панели вебмастеров, если мы говорим о Яндексе. Бороться с ним сложно, так как вебмастерам приходится переписывать большую часть текстов и заголовков.

Где-то испорчена ссылочная карма, и в некоторых случаях проще поменять домен, чем искать способы достучаться до вебмастеров площадок.

Чтобы не попадать под санкции, мои советы очень простые:

при написании текстов и создании структуры сайта уделяйте больше внимания юзабилити, это реально работает; не используйте накрутки, ищите способы получения ссылок с помощью контент-маркетинга.

Если нужен быстрый результат — лучше купить рекламу в поиске или соцсетях. Сэкономите кучу времени и сил.

Если уже попали под санкции, то нужно чиститься, других советов дать сложно.

Дмитрий Севальнев ,
евангелист проекта «Пиксель Тулс»

Наиболее частыми фильтрами, с которыми SEO-специалисты сталкиваются каждый день, всё так же остаются (судя по всему, эти алгоритмы периодически обновляются), определенные аналоги есть и в Google.

В 2018 году можно отметить и хостовый фильтр, который понижает позиции сайтов в Яндексе «За рекламу, которая вводит в заблуждение» и мимикрирует под элементы интерфейса. «Так уж оказалось», что туда попали многие блоки рекламы Google Ads на КМС, а их замена на близкие по типу от Яндекс.Директ приводила к снятию санкций. Алгоритм затронул довольно много сайтов в информационной тематике и в CPA-сегменте.

Фильтр аффилированности - да, так же встречается, Яндекс специально или чисто случайно «поломал» 3 разных способа определения аффилированности для двух доменов, которые мы использовали в «Пиксель Тулс». Сейчас пришлось оставить инструмент только в скрытых.

«Баден-Баден» и «Минусинск» - чуть-чуть встречались в начале года, но сейчас массовых обновлений не замечено.

«Санкции за накрутку ПФ» - имеют локальные прецеденты, направленные на подавление роста ряда сервисов, которые предлагают такие услуги. Число запросов на снятие данного фильтра так же сократилось на пару порядков.

,
основатель агентства REMARKA

Никакие. Мы стараемся обходиться в работе без них. Если, конечно, не считать фильтром переспам – это скорее рабочий момент, чем фильтр.

С переспамом бороться и просто, и сложно. Просто – когда клиент приходит с очевидно спамными текстами. Тогда надо просто переписать их или убрать. Другое дело, когда ты настолько приблизился в своей работе к грани, когда еще немного и переспам, плюс ощутимо колеблется граница спамности по топу, в эти моменты бывает трудно нащупать тот самый момент, когда надо остановиться. Или наоборот, сколько вхождений снять, сколько воды отжать, сколько ссылок с анкорами убрать, чтобы позиции прибавили еще 2-3 пункта.

Обычно клиент приходит с каким-то фильтром, и мы его снимаем. Давно уже не видели клиентов с фильтром за накрутку ПФ. Да и Минусинск последний приходил тоже давненько. Вот с ББ были. И, конечно, в портфеле есть достаточно клиентов, где трафика по Гуглу не было никогда – там или Панда, или Пингвин, снять которые не получается. А вот новые проекты, которые залетели под эти фильтры, практически не попадаются. Владельцы научились не косячить, делая новые сайты.

Все просто. Делайте сайт сразу хорошо. Тогда и санкций не будет. Если не хватает бюджета на хорошие тексты – просто не ставьте их. Не делайте пустых страниц, которые планируете потом наполнить. Не используйте бесплатные широко распространенные шаблоны – сразу их уникализируйте. Не спамите анкорами ни во внутреннем ссылочном, ни во внешнем.

Если все-таки попали под хостовый фильтр – не переживайте. Работайте так, как будто его нет. И параллельно проводите мероприятия по устранению фильтра. А борьба с переспамом – это часть вашей обычной работы. Границы спамности постоянно гуляют в обе стороны. Так что поможет только регулярная проверка сервисами оценки средней спамности по топу и коррекция текстов и плотности анкоров в ссылочном по итогам этого анализа.

,
SEO-Аналитик в Rush Agency , руководитель направления Зарубежного SEO. Основатель SEO-курсов Rush Academy

Какие фильтры Яндекса и Гугла досаждали больше всего в этом году?

Фильтры Гугла в этом году наши клиенты не получали.

В Яндексе, была буквально пара случаев. Баден-Баден и Минусинск. И оба случая – когда клиент пришёл к нам уже «с багажом». С одним клиентом вышла крайне забавная история: он пришёл к нам буквально сразу после выхода из-под Минусинска, и через пару дней «получил» Баден-Баден на весь хост. Само собой, за такое короткое время никто не успел бы сделать аудит всех текстов на сайте, поэтому пришлось долго и мучительно этот фильтр снимать. А почему мучительно – читайте далее.

Насколько успешно получается с ними бороться, какие меры принимали? В чем были самые большие сложности?

Вывели всех клиентов. Но с тем, про которого я рассказывал в предыдущем пункте, пришлось повозиться. Дело в том, что клиент категорически не хотел полностью удалять тексты, т.к. страницы, на которых они были расположены, занимали неплохие позиции в Гугле. Это самая сложная ситуация — когда тексты, которые перестали нравиться Яндексу, все еще нравятся Гуглу и приносят трафик и заказы. Переписывание текстов – это в любом случае лотерея, играть в которую времени не было. В итоге, после анализа всех текстов и трафика выработали такое решение: наиболее спамные тексты были совсем удалены (трафик из Гугла на них после этого упал на 20-30%), а остальные были заменены на совсем «безобидные» коротенькие текстики «для людей». В итоге фильтр был снят, и вернувшийся трафик из Яндекса с лихвой окупил потерю части Гугла. Но идеального решения такого кейса попросту не существует (если не прибегать к клоакингу), т.к. у Яндекса и Гугла теперь слишком разные взгляды на понятие «релевантный текст», в зависимости от тематики.

Какие фильтры стали менее ощутимы?

В нашей компании клиенты под фильтры в принципе не попадают. Но в целом по рынку, наверное, Минусинск – оптимизаторы учатся безопасно работать со ссылочным.

Есть какие-то ценные, актуальные советы читателям – по профилактике и выходу из-под санкций?

Прежде всего, врага надо знать в лицо. Изучать антиспам-алгоритмы и за что конкретно они «наказывают». Правила игры известны, и по ним надо играть. О Минусинске было объявлено за месяцы до начала «массовых расстрелов» (первые показательные казни не в счет), и всё равно некоторые оптимизаторы (в т.ч. те, кого знаю лично) боялись сразу снимать все покупные ссылки и в итоге получали фильтр. Яндекс, в отличие от Гугла, анонсирует новые фильтры сильно заранее, и даже объясняет, за что они будут накладываться, так пользуйтесь этим.

Лайфхак 1. Советую периодически чекать в системах веб-аналитики не только «общий трафик проекта» а еще и выборку по популярным в поисковиках посадочным страницам, чтобы вовремя заметить, если какие-то из них начинают терять трафик.

Лайфхак 2. Как только пришел новый проект на продвижение, сразу бежим выкачивать из панелей вебмастера Яндекса и Гугла самые трафиковые запросы, хотя бы 1000 штук, и ставить их на отслеживание в сборщике позиций.

,
Ведущий отечественный оптимизатор и аудитор сайтов. Работает с частными и крупнейшими мировыми компаниями. Ведущий SEO блога drmax.su . Автор более 20 книг по продвижению сайтов.

Аня, день добрый. Хочу сразу предупредить, что речь в нашем разговоре пойдет только о Google, ибо Яндекс — не та ПС, на которую стоит ориентироваться, и это происходит по нескольким причинам:

1. Постоянное снижение доли Яндекса на рынке . Если в России это ПС сейчас занимает 40-45% и тренд постоянно нисходящий, то в Белоруссии – 25%-30%, в Казахстане 14%, а на Украине доля Яндекса стремится к нулю. То есть, если ориентироваться на русскоязычных посетителей в мировом масштабе, то Яндекс можно не рассматривать совсем. Однако, если ваши сайты связаны с региональным SEO и с Россией, то кое-какое внимание можно уделять и этой ПС. Итак, налицо стагнирование Яндекса как ПС. Также это усугубляется практически полной коммерциализацией первой страниц органической выдачи.

2. Технологическое отставание Яндекса от Google, минимум на 2-3 года. Постоянно наблюдаю эту игру в догонялки, когда давно внедренные у Google вещи, через несколько лет появляются у Яндекса и выдаются за какое –то ноу-хау. Навскидку – те же LSI стали использовать для оценки в Google в 2011 году, в Яндексе – в прошлом/позапрошлом.

3. Ни один из здравомыслящих оптимизаторов не будет делать ничего для продвижения в Яндексе, если это принесет ущерб позициям в Google. И наоборот. Если вы смогли занять достойные места в Google, с 80% вероятностью вы попадете в ТОПы Яндекса автоматически.

Итак, сегодня стоит рассматривать единственную ПС – Google. Однако, по поводу фильтров, как таковых, говорить сейчас некорректно. Все, так называемые фильтры, стали составной частью поисковой системы. В этом и отличие от классических фильтров – которые были надстройкой на алгоритмами и запускались эпизодически, выкашивая сайты с плохим SEO. Сейчас все это происходит налету. Некачественные сайты имеют меньше шансов даже пробиться в ТОПы. Если ранее по воплям в сообществе, узревшим просадку тысяч сайтов, можно было понять, что ПС выкатили какой-то новый фильтр, сейчас это сделать сложнее, ибо воздействие алгоритмов на плохие сайты равномерно размазано и осуществляется постоянно.

Так что, Аня, давай говорить не о фильтрах, а о значимых изменениях алгоритма поисковой системы.

Чтобы понять, какие изменения ядра ПС оказали наибольшее влияние, я подготовил небольшую ретроспективу произошедшего в Google за 2018 год.

Январь – произошло 2 обновления алгоритма Google, связанные с оценкой качества страниц

Февраль – обновление по выводу изображений в Google (опять можно собирать трафик из Google картинок). Также было одно обновление алгоритма, связанное с качеством контента.

Март — пять обновлений алгоритма, связанных с оценкой качества контента.

Апрель — обновление, связанное с E-A-T (по сути, то же самое качество), далее несколько технических апдейтов и крупное обновление ядра алгоритма, опять-таки связанное с качеством контента.

Май – три обновления алгоритма, связанных с качеством контента, и одно обновление, пессимизирующие некачественное ссылочное и PBN.

Июнь – три обновления алгоритма, связанных с качеством, далее мощная волна ручного бана PBN сеток (выполнена асессорами), видимо связанная с недостаточно четко отработавшим майским алгоритмом автоматического бана PBN.

Июль — начало перехода на Mobile First Index. В конце месяца – развертывание алгоритма, где скорость доступа к странице является фактором ранжирования. Кроме того, в течение месяца 3 изменения в алгоритме, напрямую связанные с качеством контента.

Август критическое обновление алгоритма, связанное с E-A-T для YMYL сайтов (по сути – пессимизация некачественных сайтов). Далее – продолжается перенос сайтов на Mobile First Index. После этого опять обновление алгоритма, касающееся качества фарма (медицинских) сайтов.

Следовательно, было два важнейших обновления ядра алгоритма Google – это развертывание фактора скорости и развертывание Mobile First Index. Как к этому подготовиться я тщательно расписывал в моей книге SEO Гуру 2018 , которая была выпущена весной. Ряд материалов есть на сайте drmax.su.

Соответственно, сайты, не подготовившиеся к внедрению Mobile First Index проседают в мобильной выдаче (а это, на сегодняшний день – более 60% посетителей), но более-менее держатся в десктопной. С некоторым допущением это можно назвать воздействием фильтра.

Развертывание Mobile First Index пока еще продолжается, и еще не все сайты ощутили на себе его «благотворное» влияние. Кстати, сайты, изобилующие Java скриптами и/или Flash вставками, могут испытывать затруднения при переходе к Mobile First Index. Это доложил Джон Мюллер – специалист по качеству поиска Google. Из-за наличия такого контента Google может не перевести их на новое индексирование.

Третьим важнейшим трендом развития ПС Google стала борьба за качество контента. Это подтверждается десятками крупных и мелких изменений алгоритма, позволяющих улучшить качество выдачи. При этом работа над качеством органической выдачи ведется планомерно, в течении многих лет. Свидетельство этому — периодический выпуск руководств по оценке качества для асессоров. В июле этого года вышла уже четвертая (или пятая) версия, и каждый желающий с требованиями к качеству сайта. Там же есть сотни примеров, как оценивать это качество, и почему те или иные сайты попадают в ТОПы, а другие сидят на задворках, несмотря на все вложения в линкбилдинг, контент и прочие средства манипуляции выдачей.

А Яндекс зато нарисовал новую пузомерку качества Икс. Молодцы!

Далее, в этом году в очередной раз пострадали так называемые PBN-сети (тупая аббревиатура, мы всегда их называли сайтами на дропах, на протяжении лет 15). Собственно, все разумные люди отказались от таких сеток еще в 2013-2014 году и вот с чем это было связано.

Расцвет сетей, собранных на дропах был в 2000-х годах. О да, тогда это было круто. Сетками выталкивали в ТОПы, с них продавали ссылки. Захапав себе дроп попиаристей, можно было продать с десяток ссылок с морды по паре штук баксов в год каждая.

Под это дело мы с тов sNOa написали мега софт по перехвату дропов, по автоматическому их восстановлению и наполнению из вебархивов и т.д. К 2009 году у нас уже была сетка под сотню таких сайтов (причем практически не линкованная, раскиданная по десяткам серверов). Собственно об этом методе можно почитать в моих старых руководствах и книгах, датированных 2010 и 2011 годами.

А потом пришел 2012 год с его Пингвином и народ (из тех что поразумней) поубирали ссылки из таких сеток. А потом пришел 2013 – 2014 год, когда PR был заморожен, и содержать сетку дропов стало уже совсем бессмысленно.

Так что все эти PBN сетки на сегодняшний день – полная ерунда и анахронизм, заниматься ими можно только от скудоумия, ибо все равно и сами сети и их клиенты легко вычисляются и в обязательном порядке пессимизируются.

В завершении могу сказать: боритесь за качество сайтов. Почитайте инструкцию для ассесоров по качеству, выполните технический аудит сайта (обязательная составляющая качества), проверьте мобильную версию сайта и готовность к переходу на Mobile First Index, наполняйте сайты качественным, экспертного уровня контентом, стройте ссылки по уму и забудьте о фильтрах.

Всех благ.

Пишите комментарии, задавайте вопросы экспертам!

Все мои проекты, кроме этого SEO-блога:

ТОП База - качественная база для полуавтоматической регистрации с Allsubmitter или для полностью ручного размещения - для самостоятельного бесплатного продвижения любого сайта, привлечения целевых посетителей на сайт, поднятия продаж, естественного разбавления ссылочного профиля. Базу собираю и обновляю 10 лет. Есть все виды сайтов, все тематики и регионы.

SEO-Topshop - SEO-софт со СКИДКАМИ, по выгодным условиям, новости SEO-сервисов, баз, руководств. Включая Xrumer по самым выгодным условиям и с бесплатным обучением, Zennoposter, Zebroid и разные другие.

Мои бесплатные комплексные курсы по SEO - 20 подробных уроков в формате PDF.
- каталоги сайтов, статей, пресс-релизовые сайты, доски объявлений, каталоги фирм, форумы, соцсети, блоговые системы и прочее.

"Приближаясь.." - мой блог на тему саморазвития, психологии, отношений, личной эффективности

В этом разделе опубликованы все основные фильтры поисковых систем Яндекс и Google, которые "на слуху". Хотя эти фильтры принято частично относить к Яндексу, а частично - к Google, скорее всего, в том или ином виде, большинство из них присутствует в обоих поисковых системах.

Методы борьбы со всеми фильтрами практически идентичны. Как правило, они включают в себя:
1. Активное пополнение сайта уникальным контентом.
2. Высокая частота обновления сайта. Хорошо, если сайт обновляется хотя бы раз в сутки. Рекомендуемая частота обновления сайта для выхода из под фильтров - два раза в сутки.
3. Приобретение внешних ссылок с трастовых сайтов .
4. Письма в службу поддержки поисковых систем по поводу проблем с сайтом, отправленные через панель вебмастера , и устранение причин проблем.

Существование некоторых перечисленных фильтров находится под вопросом, но в любом случае, вся приведённая ниже информация - хорошая пища для размышления. Не стоит зацикливаться на принадлежности того или иного фильтра к определенной поисковой системе, так как при раскрутке сайта нежелательно потерять трафик ни с одной из них. Поэтому информацию по фильтрам основных поисковых систем оптимизатор белого сайта должен учитывать в комплексе.

Фильтры Google

Считается, что действие фильтров поисковой системы Google в русскоязычном сегменте интернета выражено слабее, чем в англоязычном. Некоторые фильтры возможно работают только в англоязычном сегменте.

Фильтр Гугла «Пингвин»

Фильтр Гугла «Панда»

"Песочница" (sandbox)

Как правило, применяется к недавно созданным сайтам, которые появились на свет в течение последнего полугода. Благодаря этому фильтру, Google не пускает страницы с "молодых" сайтов в результаты поиска по высокочастотным запросам, хотя по низкочастотным запросам - сайт вполне может присутствовать в поисковой выдаче.

Сайт может находиться в "песочнице" довольно долго: от 3-х месяцев до нескольких лет. Существует предположение, которое основано на наблюдении за "молодыми" сайтами, что они выходят из "песочницы" в массовом порядке. Тоесть, длительность пребывания в "песочнице" определяется не в индивидуальном порядке для каждого сайта, а сразу для групп сайтов. Группировка эта происходит на основании даты создания сайта. Через некоторое время, фильтр снимается для всей группы.

Существуют признаки, по которым можно предположить, что ваш сайт находится в "песочнице":

  • Сайт проиндексирован Google и регулярно посещается поисковым роботом
  • Ваш сайт нормально находится по редким и уникальным словосочетаниям, которые содержатся в тексте страниц
  • Поиск по домену выдает правильные результаты, с правильными описаниями, заголовками и т.д.
  • Ваш сайт не виден в первой тысяче результатов поисковой выдачи по любым другим запросам, в том числе по тем, под которые он изначально был оптимизирован.

Для того, чтобы выбраться из "песочницы", необходимо, чтобы появилось как можно больше естественных ссылок на Ваш сайт.

Фильтр "Дополнительные результаты"

Если страницы сайта попали под фильтр "Дополнительные результаты", это значит, что Google счёл их "недостойными" и поместил ниже "хороших" страниц - "под индекс". В этом случае эти страницы будут выводиться в результатах поиска лишь в том случае, если "хороших" страниц не хватает. Для того, чтобы выйти из такого фильтра, как правило, достаточно нескольких входящих ссылок.

Фильтр Bombing

Применяется к сайтам, которые имеют большое количество ссылок на себя с одним и тем же анкором (текстовым содержанием ссылки). Google справедливо считает, что это не естественно, так-как текст ссылки везде одинаковый. Для того, чтобы избежать попадания в данный фильтр, при покупке ссылок, необходимо следить за тем, чтобы анкоры на каждую покупаемую ссылку были уникальными.

Фильтр Bowling – это не совсем фильтр, а обобщённое название приёмов чёрного SEO, которые могут применить конкуренты для борьбы с Вашим сайтом с целью занесения его в бан. Данный фильтр актуален для молодых сайтов с низким TrustRank`ом, для сайтов с высоким TrustRank`ом он не может быть применён.
Google утверждает, что конкуренты никак не могут повредить позициям Вашего сайта, но если Вы заподозрили в бане своего сайта происки конкурентов – подавайте заявку на включение сайта в индекс поисковой системы.

Фильтр "Возраст домена"

Этот фильтр имеет много общего с фильтром "песочница". Многие оптимизаторы считают, что чем старше домен, тем большее доверие он вызывает у поисковиков, нежели недавно появившиеся сайты. Однако молодым сайтам можно пользоваться высоким доверием поисковика и не находиться в Sandbox и всё же попасть под этот фильтр. Единственный способ избежать попадания под этот фильтр вашего сайта – "обрасти" входящими ссылками с авторитетных сайтов.

Фильтр "Дублирующийся контент"

В сети существует большое количество сайтов, которые копируют контент, ранее уже публиковавшийся на других сайтах. Google старается наказывать такие сайты и понижает их позиции в результатах поиска. Старайтесь размещать уникальный контент на своем сайте, а также следите за тем, чтобы контент Вашего сайта не копировали другие пользователи интернета. При обнаружении факта копирования информации с Вашего сайта можно пожаловаться в Google.

Фильтр -30

Этот фильтр Google применяет к тем сайтам, которые используют некорректные, так называемые черные методы SEO, дорвеи (doorway) и редиректы (redirect) с помощью JavaScript. Если подобные механизмы обнаруживаются поисковыми системами на Вашем сайте, то выдача по запросам понижается на 30 позиций. Чтобы выйти из этого фильтра, обычно, достаточно убрать такие вставки из вашего кода.

Фильтр "Опущенные результаты"

Страницы Вашего сайта могут попасть под этот фильтр и практически выпасть из результатов поиска по следующим причинам: малое количество входящих ссылок, повторяющиеся заголовки и другие meta-тэги, дублирующий контент с других сайтов, а также слабая либо вовсе отсутствующая внутренняя перелинковка страниц сайта. Поэтому старайтесь избегать всех этих причин. Уделяйте внимание написанию meta-тэгов, это очень важно и для других поисковых систем.

Фильтр "Социтирование"

Ссылающиеся на ваш ресурс сайты, Google очень тщательно отслеживает. Например, если на Ваш сайт ссылается какой-нибудь порносайт либо сайт очень далекой тематикой от Вашего, то Google вполне может посчитать, что тематика Вашего сайта схожа с ссылающимся сайтом. Это может повредить "тематичности" Вашего сайта и, как следствие, понизить в результатах выдачи по тематическим запросам. Чтобы подобного не произошло, всегда проверяйте сайты, на которых покупаете ссылки.

Фильтр "Links"

Часто для обмена ссылками на сайте заводится одна страница (линкопомойка), на которой залинкованы "сайты-партнеры". Обмен ссылками - довольно старый способ повысить позиции сайта в результатах поисковой выдачи и не поощряется Google. В настоящее время этот способ малоэффективен, и лучше от него отказаться.

Фильтр "Много ссылок сразу"

Сайт попадает под такой фильтр, когда на него слишком быстро растет количество внешних ссылок. Это может привести к бану поисковыми системами Вашего ресурса. Чтобы этого не произошло, нужно очень аккуратно покупать ссылки, небольшими порциями и добавлять их по мере индексирования.

Фильтр "Чрезмерная оптимизация"

Под фильтр чрезмерной оптимизации обычно попадают сайты с большим количеством ключевых фраз, чрезмерной их плотностью, перенасыщенные meta-тэгами. Поэтому не стоит перебарщивать с оптимизацией страниц. Всего должно быть в меру.

Фильтр "Битые ссылки"

Когда ссылка ведет на отсутствующую страницу, то поисковой робот не может до нее добраться. И, как следствие, не может поместить ее в индекс и закэшировать (Google Cache). Это может плохо сказаться на результатах поиска, а также на общих показателях качества сайта. Необходимо избегать наличия подобных ссылок на Вашем сайте.

Фильтрация страниц по времени загрузки .

Если Ваша страница имеет слишком большое время загрузки (перегружена различными эффектами либо проблемы с хостингом), поисковая система просто откажется её загружать и индексировать, в результате чего она не появится в результатах поиска.

Общий фильтр "Степень доверия" (Google Trust Rank)

Этот фильтр включает в себя все показатели, о которых было сказано выше. Называется этот фильтр "степень доверия". Этот фильтр учитывает такие факторы как:

  • Возраст сайта
  • Количество авторитетных входящих ссылок
  • Количество исходящих ссылок
  • Качество внутренней навигации (перелинковки)
    а также многие другие факторы.

Чем выше Trust Rank (TR), тем выше Ваш сайт в результатах поиска.

Фильтры Яндекса

АГС (модификации: АГС-17 и АГС-30)

Фильтр, который выкидывает из индекса Яндекса сайты, созданные для поискового спама (сателлиты), оставляя поисковой выдаче лишь 1 - 15 страниц, не зависимо от общего количества страниц сайта. Главным основанием для наложения фильтра служит некачественный контент.

Фильтр за плохую структуру сайта

Фильтр «ты - спамный»

Непот-фильтр

Фильтр, который накладывается на отдельные ссылки, отдельные страницы сайта, а также на весь сайт в целом за ссылочный спам, продажу ссылок с сайта. Чтобы его избежать, желательно отказаться от продажи ссылок, либо продавать их осторожно, в небольших количествах, ставить естественные ссылки.

Редирект фильтр

Фильтр накладывается на сайты, которые используют javascript редиректы, как правило - дорвеи. Попадание под этот фильтр означает бан Вашего сайта в поисковой системе. Если Вы не хотите попадать под данный фильтр – не используйте javascript редиректы, а используйте flash и ajax.

Фильтр плотности ключевых слов

Фильтр, удаляющий из индекса страницы сайта за чрезмерную концентрацию ключевых фраз и слов. Во избежание попадания сайта под этот фильтр необходимо просто писать тексты для людей, избегая явно завышенной концентрации ключевых слов.

Фильтр «Ты последний»

Фильтр накладывается на страницу, идентифицированную поисковой системой, как дубль уже существующей в индексе страницы. Для того чтобы избежать наложение этого фильтра, необходимо создавать уникальный контент, а также запрещать копирование своего контента на другие сайты.

Статьи по теме .

Мы выпустили новую книгу «Контент-маркетинг в социальных сетях: Как засесть в голову подписчиков и влюбить их в свой бренд».

Подписаться

Если у вас похожая ситуация, значит ваш сайт попал под фильтр Гугла. Давайте посмотрим, какие существуют фильтры поисковой системы Google, причины попадания под эти и какие есть способы вывода сайта из-под санкций.

Sandbox (песочница)

Фильтр накладывает ограничения на новые или «молодые» сайты (от 2 недель до года). Таким образом, Гугл следит, как будет развиваться ресурс. Определить, что ваш сайт находится под фильтром легко - он полностью отсутствует в индексе.

Причины попадания:

В основном, фильтр касается молодых сайтов, независимо от того, как развивается ресурс. Также частой причиной бывает слишком быстрое наращивание ссылочной массы. Google воспринимает это как спам и накладывает санкции.

Способы вывода:

Способ выхода из-под фильтра достаточно прост - нужно регулярно наполнять сайт полезным и уникальным контентом, проводить внутреннюю оптимизацию страниц (делать внутреннюю перелинковку), а также осторожно закупать ссылки на бирже. Ни в коем случае нельзя допускать резкого ссылочного взрыва, а доноров нужно подбирать очень качественно. О том, как закупать вечные ссылки на бирже Gogetlinks, вы можете почитать в .

Domain name age (возраст домена)

Этот фильтр сильно созвучен с предыдущим. На все новые домены накладываются ограничения, но после достижения сайтом определенного уровня траста, ограничения снимаются.

Причины попадания:

Также, как и в предыдущем случае - это молодой возраст сайта, как правило, менее 1 года.

Способы вывода:

Избежать данный фильтр поисковой системы Google поможет покупка старого домена с историей, только нужно смотреть, чтобы история была положительной, и на домен не было наложено штрафных санкций. Также еще один способ - это покупка трастовых ссылок, но опять осторожно и аккуратно. Ну и, конечно, не забрасывайте ваш сайт, продолжайте его развивать, потому что после вывода из-под санкций пойдет активный рост трафика.

Too many links at once (много ссылок сразу)

Результатом попадания под фильтр является сильное падение трафика с Google, а также обнуляются все внешние ссылки на сайт, то есть они не имеют уже никакого веса.

Причины попадания:

Фильтр накладывается за появление слишком большого количества ссылок за один раз (ссылочный взрыв). Опять же Google понимает, что разом много внешних ссылок на сайт появиться не может, поэтому накладывает штрафные санкции за покупку ссылочного.

Способы вывода:

Предупреждением таких санкций является плавная и постепенная закупка ссылок, чтобы в глазах поисковика этот процесс выглядел естественным. Если же сайт попал под фильтр, то рекомендуется значительно снизить наращивание ссылочного, но имеющиеся ссылки не трогать. Ориентировочно, через 1−3 месяца фильтр снимается.

Bombing (бомбежка)

Этот фильтр интересен тем, что санкции накладываются не на весь сайт, а на те страницы, которые Google воспринял, как спамные. Эти страницы перестают расти в позициях или вылетают из индекса.

Причины попадания:

Такой фильтр накладывается поисковиком, когда на сайт ведет много внешних ссылок с одинаковым анкором или одним текстом. Google естественно считает, что этот процесс не является натуральным.

Способы вывода:

А он всего один - нужно удалить ВСЕ такие ссылки или поставить на них разные анкоры, причем не пропустить ни одну ссылку, иначе Google не снимет санкции. Ну, а дальше остается только ждать по разным источникам от 2 месяцев до 1,5 года.

Broken Links (битые ссылки)

Причины попадания:

Фильтр накладывается за большое количество ссылок, выдающих 404 ошибку. Такие ссылки вводят в ступор пользователей, а также их не может проиндексировать поисковик.

Способы вывода:

Чтобы устранить данную проблему, нужно найти все битые ссылки на сайте (это можно сделать, используя программу Xenu или аналог) и заменить их на правильные, либо удалить совсем.

Links

Давным-давно, когда интернет был совсем молодой, многие владельцы сайтов пользовались способом обмена ссылками, чтобы увеличить трастовость своих ресурсов. Но со временем, когда поисковые системы улучшались этот способ перестал учитываться, и сейчас Google фильтрует такие сайты.

Причины попадания:

Фильтр накладывает санкции за большое количество внешних ссылок, ведущих на «сайты партнеры», которые проставляют ссылку на вашу площадку.

Способы вывода:

CO-citation linking filter (социтирование)

Google внимательно отслеживает тематики площадок, ссылающихся на ваш ресурс, и учитывает это в поиске. Например, если на ваш сайт по тематике выращивания помидоров ссылается сайт инвестиционно-консалтинговых услуг, Гугл может определить вашу тематику, как финансовую, и понизить в выдаче по вашим основным запросам.

Причины попадания:

Некачественные доноры или не соответствие тематик донора и акцептора.

Способы вывода:

Внимательно следите за тем, на каких ресурсах вы размещаете ссылки, чтобы тематики обязательно совпадали или были смежные. Если же сайт попал под санкции, то необходимо снять все ссылки с нетематических или некачественных сайтов. А если таких сайтов много и вручную это сделать не получится, то порядок действий следующий:

  • составить список всех ссылающихся сайтов (через сервис ahrefs.com);
  • отсортировать все нетематические сайты;
  • добавить их в сервис Disavow Link (мы написали о нем отдельную ).

Таким образом, Google перестанет учитывать эти ссылки при индексации вашего сайта. Дальше остается только ждать, когда будет снят фильтр.

Page load time (время загрузки страницы)

Причины попадания:

Если скорость страниц загрузки вашего сайта имеет низкие показатели, то Google может наложить санкции и пессимизировать его в результатах выдачи.

Omitted results (опущенные результаты)

Результатом попадания под этот фильтр является отсутствие сайта в основном поиске Google. И только на самой последней странице выдачи будет ссылка «Показать скрытые результаты», нажав на которую в поиске появится и ваш сайт.

Причины попадания:

Данный фильтр накладывает санкции за дубли (в рамках сайта или дубли с других ресурсов), а также за слабую перелинковку. В результате страницы могут сильно понизиться в выдаче или вовсе выпасть из индекса.

Способы вывода:

Если сайт попал под фильтр, то необходимо переписать контент, чтобы все тексты были уникальными. А также нужно сделать хорошую внутреннюю перелинковку.

- 30

Гугл тщательно борется с методами черного SEO, и данный фильтр создан специально для этой цели. В результате штрафных санкций сайт понижается на 30 позиций.

Причины попадания:

Фильтр накладывается за следующие нарушения:

  • клоакинг;
  • дорвеи;
  • скрытый редирект.

Способы вывода:

К счастью, выйти из-под данного фильтра не сложно - нужно всего лишь устранить вышеприведенные причины.

Over optimization (переоптимизация)

В результате действия данного фильтра сайт пессимизируется в выдаче или полностью исключается из индекса, в зависимости от степени нарушения.

Причины попадания:

Фильтр накладывается за чрезмерную оптимизацию страниц - перебор с количеством ключевых слов, высокий уровень плотности ключевиков, переоптимизация мета-тегов, картинок.

Способы вывода:

Если сайт попал под санкции, вам нужно правильно оптимизировать все страницы сайта. Для этой цели лучше всего посмотреть топ конкурентов по выдаче и сделать оптимизацию похожим образом.

Panda

Фильтр от Google является одним из самых тяжелых для любого сайта, так как он охватывает несколько вышеперечисленных фильтров, и выход из-под панды - это долгий и болезненный процесс.

Причины попадания:

Способы вывода:

Соответственно, для выхода из-под санкций от Панды нужно поработать комплексно над всеми этими факторами - сделать качественный и уникальный контент, грамотную оптимизацию страниц, убрать рекламу с сайта. Постепенно, по мере правильного развития сайта, санкции будут сняты, но этот процесс долгий и может занять по времени более года.

Penguin (пингвин)

Фильтр от Гугл так же, как и Панда является очень проблемным. Похожим образом Пингвин состоит из нескольких вышеперечисленных фильтров, которые имеют отношение к ссылочному продвижению.

Причины попадания:

Под санкции Пингвина можно попасть, если вы закупаете слишком большое количество ссылок за раз, если эти ссылки имеют один и тот же анкор, если ссылки являются не тематическими или вы производите обмен ссылками.

Способы вывода:

Выход из-под Пингвина также является долгим и болезненным процессом. Подробнее, как проверить сайт на фильтры Гугла и снять санкции пингвина я напишу в отдельной статье.

icon by Eugen Belyakoff

Сайт или нет, я подготовил эту статью, которая посвящена фильтрам Google.

Буржуйский поисковик более привередливый, он отлично развит, имеет мощные алгоритмы, которые с высокой точностью определяют качество сайтов и принимают решение, отправлять ли ресурс под фильтр. Фильтров здесь очень много, гораздо больше, чем в яндексе, но мы все рассматривать не будем – только самые распространенные.

Проблема работы с гуглом заключается в том, что тут писать в тех. поддержку нет смысла, т.к. гугл – система автоматизированная, самостоятельно вводящая и выводящая из-под фильтра, и рассматривать каждый отдельный случай вручную вряд ли кто будет. Именно поэтому старайтесь ни при каких ситуациях не попадать в фильтр Гугла – от туда можно вообще никогда не выбраться.

Фильтр «песочница»

Очень знаменитый фильтр, существование которого представители гугла отрицают. Фильтр накладывается на практически все молодые сайты (сайты с малым возрастом) и со временем автоматически снимается, если сайт развивается. Причины попадания в него: малый возраст домена и самого сайта, малый возраст контента, редкая обновляемость контента, низкий траст сайта. В принципе бояться данного фильтра не стоит, нужно стараться выбраться из под него как можно быстрее.

Определяется данный фильтр очень просто: проверьте позиции вашего сайта. Если по запросам положение сайта в выдаче очень плохое, а по и сайт вообще не присутсвует в ТОП-100, высока вероятность, что сайт под фильтром (но при условиях, что у сайта есть причины попасть в песочницу).

Чтобы поскорее выйти оттуда, попробуйте : купите пару ссылок с трастовых сайтов, и через какое-то время доверие поисковика к вашему детищу возрастет. Также старайтесь добавлять как можно больше нового материала на сайт, работайте над повышением посещаемости с социальных сетей и других сайтов. Чем быстрее растут характеристики сайта, тем скорее гугл выведет его из под песочницы.

Фильтр «Supplemental Results»

По-другому этот фильтр еще называют «Сопли» (произошло от Supple). Данный фильтр может быть на ложен не на весь сайт в целом, а на его отдельные страницы.

У гугла существует два индекса: основной и дополнительный (Supplemental results). Основной доступен в выдаче, а вспомогательный в выдаче не показывается (может быть показан лишь при желании пользователя). Разумеется, если страницы попали в дополнительный индекс, то трафик с гугла резко упадет.

Причины попадания страниц под «Сопли» следующие:

  • шаблонный дизайн;
  • неуникальный текст;
  • дублирующийся контент.

Чаще всего, под фильтр попадают неважные страницы сайта (рубрик, меток, поиска и т.д.), поэтому сильно бояться его не стоит.

Определить, сколько страниц в , можно так:

  1. Введите в гугле запрос «site:http://сайт /&», заменив в нем домен на свой, и посмотрите, сколько страниц найдется. Эти страницы в основном индексе.
  2. Откройте карту сайта и посмотрите, сколько всего разрешенных к индексации страниц у сайта. Можно определить общее количество страниц любым другим известным способом.
  3. Вычтите из общего количества страниц те, что в основном индексе, и вы получите количество документов в дополнительном индексе.

Например, у блога сайт всего разрешено к индексации около 450 страниц, а в индексе 388. Значит под фильтром 62 страницы.

Фильтр «Флорида»

Сюда попадают сайты, владельцы которых занимаются черной и излишней оптимизацией своих ресурсов. Другими словами фильтр «Флорида» — наказание за переоптимизацию веб-сайта, куда можно отнести:

  • чрезмерное употребление поисковых запросов в мета-тегах;
  • высокая , большой процент вхождений ключей;
  • излишняя оптимизация картинок.

Проверить, попал ли ваш сайт под данный фильтр, очень сложно. Попробуйте сопоставить факты:

  • использовалась ли излишняя оптимизация, переоптимизация;
  • резко упал трафик с гугла;
  • сайт остался в индексе, но позиции выпали из ТОП-100.

Очевидно, что для исправления ситуации вам придется удалить все фрагменты переоптимизации. Через какое-то время позиции сайта восстановятся, но, скорее всего, они будут хуже, чем в первоначальном случае.

Фильтр «минус 30»

Получил название из-за того, что при попадании сайта под данный фильтр, его позиции падают на 20-40 пунктов. Как правило, причинами попадания под него становится использование злостных методов оптимизации, связанных к перенаправлению посетителей с одного сайта на другой: это клоакинг и дорвеинг.

Очевидно, что сайт будте под фильтром «-30», если:

  • использовались редиректы (клоакинг, дорвеинг);
  • позиции сайта упали в среднем на 30 пунктов.

Выбраться из под «-30» практически невозможно. Более того, в дальнейшем сайт вообще может быть забанен.

Фильтр за покупку ссылок

Можно попасть под него в тех случаях, когда вы покупаете слишком большое количество ссылок за короткое время. Т.е. в принципе покупать ссылки можно, но в разумном количестве. Если же прирост внешних ссылок будет слишком большим, то вы нарветесь на фильтр Гугла.

Определение попадания под фильтр сводится к следующему:

  • недавно было закуплено большое число ссылок;
  • позиции сайта вылетели за ТОП-100.

Если попали под фильтр, то ничего не делайте! Не пытайтесь резко убрать все купленные ссылки – это лишь подтверждение для гугла, что вы злоупотребили покупкой ссылок. Лучше всего в такой ситуации просто ждать – через несколько месяцев позиции сайта восстановятся.

Еще советую вам посмотреть интересное видео про анализ конкурентов на блоге SeoProfy.net Ведь, нужно следить не только за своим сайтом, но также анализировать методы продвижения конкурентов.

Похожие статьи