Тарифы Услуги Сим-карты

Фильтры Google. Фильтры Яндекса и Google

Google.com – очень развитая поисковая система с мощным самообучающимся алгоритмом и автоматизированными фильтрами. Выйти из-под фильтра Google намного сложнее, чем у Яндекса. Во-первых, самих фильтров здесь намного больше и распознать, под какой именно попал сайт, гораздо труднее. Во-вторых, здесь нет Платона, от которого можно в трехдневный срок получить хоть какой-то ответ на свой запрос по поводу проблем с сайтом. Письмо послать, конечно, можно, но на ответ надежды мало. Google стремится полностью автоматизировать все процессы, связанные с ранжированием, на глобальном уровне, и случаи ручного рассмотрения проблем с отдельными сайтами случаются крайне редко. Поэтому гораздо лучше профилактика, чем лечение, потому что болезнь может оказаться трудно диагностируемой или, в худшем случае, неизлечимой.

Фильтры Google за возраст сайта

Domain Name Age – фильтр на молодые домены
Накладывается на недавно зарегистрированные домены. Для того, что б сайт на молодом домене смог подняться в выдаче, он должен завоевать доверие поисковой системы.
Профилактика – приклеить к новому домену трастовый старый домен.
Лечение: а) просто ждать; б) тот же прием, что и для профилактики.

SandBox – песочница
Причина – «молодость» сайта в целом, низкий уровень трастовости (доверия поисковика к сайту). В отличие от DomainNameAge, под SandBox могут попасть также сайты на старых доменах, если эти сайты практически не обновляются, не обрастают ссылками и не посещаются.
Профилактика и лечение : работать над развитием сайта, стимулировать появление естественных ссылок.

Фильтры Google за манипуляции с внутренними факторами

Google Florida – фильтр за чрезмерную оптимизацию сайтов
Google Florida – один из самых старых фильтров, прошедших долгий путь совершенствования. Причина наложения – чрезмерная оптимизация сайта (чрезмерное употребление ключевых слов в title, тексте, чрезмерное выделение ключевых слов и т.д.).
Симптомы – резкое падение сайта по всем запросам в выдаче.
Профилактика – пишите тексты, составляйте мета-теги для людей, а не для роботов.
Лечение – заменить всю оптимизированную текстовую составляющую на удобочитаемую (сократить плотность вхождений ключевых слов).

Google Supplemental Results – перенесение сайта в дополнительные результаты поиска.
Этот фильтр, получивший среди российских сеошников название «сопли», накладывается на отдельные кластеры и страницы, если их содержимое не уникально или если они очень похожи друг на друга (например, страницы галлереи).
Симптомы – перемещение страниц из основных результатов выдачи в дополнительные (“supplemental” означает «дополнительный»).
Профилактика: избегать шаблонных движков, дублированных страниц (с одним и тем же содержанием, но разным URL, делать уникальные title, теги и тексты для каждой страницы.
Лечение: удаление дублированных страниц, уникализация каждой страницы в отдельности, замена шаблонного дизайна на свой.

Google Omitted Results – перенесение сайта в опущенные результаты поиска
Накладывается на страницы, по структуре и содержанию очень схожие со страницами с других сайтов (например, страницы технических характеристик товаров Интернет-магазинов). Может накладываться одновременно с Supplemental.
Симптомы – сайта нет в выдаче, но он находится, если нажать на ссылку «повторить поиск, включив опущенные результаты».
Профилактика: делать уникальные по структуре и содержанию страницы
Лечение: оптимизация структуры страниц, уникализация контента.

Googe Duplicate Content – фильтр за неуникальный контент
Накладывается на сайты, не содержащие уникального контента и «взаимствующие» содержание с других сайтов. Также может быть наложен на сайты, содержание которого растащили другие ресурсы.
Симптомы – проседание сайта в выдаче, длительное застрявание на одних и тех же позициях.
Профилактика – не копипастить контент с других сайтов и защищать свой сайт от воровства контекнта (например, с помощь Copyspace , или ).
Лечение – замена существующего дублированного контента на уникальный, добавление нового контента.

Brocken Links Filter – фильтр сайтов с битыми ссылками
Если на сайте много неработающих ссылок, Google может сделать общий вывод о низком качестве сайта и опустить его в выдаче.
Лечение и профилактика – избегайте битых ссылок.

Page Load Time Filter – фильтр долго загружающихся сайтов
Если робот Google не сможет без труда скачать страницу сайта, значит, и пользователи не смогут, а ведь поисковик заботится в первую очередь о пользователях.
Лечение и профилактика – не перегружайте страницы графикой, следите за их весом.

Фильтры Google за манипуляции с ссылками

Google Bombing – фильтр за одинаковый текст ссылок
Накладывается в случае, если на сайт ссылается много ссылок с одним и тем же анкором.
Симптомы: проседание позиций или застрявание сайта на одних и тех же позициях длительное время, безрезультатное увеличение числа ссылок.
Профилактика: старайтесь ставить ссылки с разными анкорами.
Лечение: разбавить тексты существующих ссылок, или нарастить еще ссылок с другими текстами.

Google -30 – понижающий фильтр
Накладывается за использование методов черной оптимизации – клоакинга, дорвеев, редиректов.
Симптомы: резкое понижение сайта в выдаче на около тридцати позиций.
Профилактика – не балуйтесь черными методами.
Лечение – практически невозможно. Фильтр «-30» – это предбанник Google, и обычно дальнейшая перспектива сайта – это бан.

Понижающие фильтры за искусственное наращивание ссылок: LinkFarming Filter, ReciprocalLinksFilter и Link.html Page Filter. Накладываются за участие в ссылочнообменных сетях, покупку ссылок и наличие линкопомоек на сайте. Симптомы : в лучшем случае – понижение сайта в выдаче, в худшем – бан.
Профилактика: быть осторожным при работе с ссылочным.
Лечение: избавиться от причины фильтра (удалить страницу с ссылками, убрать код линкопомойки и т.д.) и попробовать написать запрос на повторное добавление сайта.

Co-Citation Filter – “плохое соседство”.
Фильтр за ссылки с сайтов, ссылающихся на “плохих” акцепторов. Если сайт, который ссылается на ваш ресурс, ссылается также на плохой с точки зрения Google сайт (к примеру, на порносайт, варезник или фарму) – Google может посчитать, что ваш сайт тоже плохой и понизить его в выдаче.
Профилактика и лечение: старайтесь получать ссылки только с хороших сайтов.

To Many Links at Once Filter – фильтр за быстрый прирост ссылок.
Если на ваш сайт за короткий период времени появится большое количество ссылок, Google может показаться это противоестественным – скорее всего, эти ссылки добыты неестественным путем.
Симптомы: резкое падение позиций за пределы первой сотни по всем словам.
Профилактика: набирайте ссылочную массу постепенно.
Лечение: это тот случай, когда лечит время. Только не надо резко убирать полученные ссылки – это будет еще один резкий скачок, который может усугубить ситуацию.

Все эти фильтры уже давно действуют в глобальном поиске Google, но многие из уже начинают работать и в региональном поиске, в особенности в российском и украинском. Как же предохраниться от всей этой нечисти? Русская народная мудрость гласит: тише едешь – дальше будешь…

В этом разделе опубликованы все основные фильтры поисковых систем Яндекс и Google, которые "на слуху". Хотя эти фильтры принято частично относить к Яндексу, а частично - к Google, скорее всего, в том или ином виде, большинство из них присутствует в обоих поисковых системах.

Методы борьбы со всеми фильтрами практически идентичны. Как правило, они включают в себя:
1. Активное пополнение сайта уникальным контентом.
2. Высокая частота обновления сайта. Хорошо, если сайт обновляется хотя бы раз в сутки. Рекомендуемая частота обновления сайта для выхода из под фильтров - два раза в сутки.
3. Приобретение внешних ссылок с трастовых сайтов .
4. Письма в службу поддержки поисковых систем по поводу проблем с сайтом, отправленные через панель вебмастера , и устранение причин проблем.

Существование некоторых перечисленных фильтров находится под вопросом, но в любом случае, вся приведённая ниже информация - хорошая пища для размышления. Не стоит зацикливаться на принадлежности того или иного фильтра к определенной поисковой системе, так как при раскрутке сайта нежелательно потерять трафик ни с одной из них. Поэтому информацию по фильтрам основных поисковых систем оптимизатор белого сайта должен учитывать в комплексе.

Фильтры Google

Считается, что действие фильтров поисковой системы Google в русскоязычном сегменте интернета выражено слабее, чем в англоязычном. Некоторые фильтры возможно работают только в англоязычном сегменте.

Фильтр Гугла «Пингвин»

Фильтр Гугла «Панда»

"Песочница" (sandbox)

Как правило, применяется к недавно созданным сайтам, которые появились на свет в течение последнего полугода. Благодаря этому фильтру, Google не пускает страницы с "молодых" сайтов в результаты поиска по высокочастотным запросам, хотя по низкочастотным запросам - сайт вполне может присутствовать в поисковой выдаче.

Сайт может находиться в "песочнице" довольно долго: от 3-х месяцев до нескольких лет. Существует предположение, которое основано на наблюдении за "молодыми" сайтами, что они выходят из "песочницы" в массовом порядке. Тоесть, длительность пребывания в "песочнице" определяется не в индивидуальном порядке для каждого сайта, а сразу для групп сайтов. Группировка эта происходит на основании даты создания сайта. Через некоторое время, фильтр снимается для всей группы.

Существуют признаки, по которым можно предположить, что ваш сайт находится в "песочнице":

  • Сайт проиндексирован Google и регулярно посещается поисковым роботом
  • Ваш сайт нормально находится по редким и уникальным словосочетаниям, которые содержатся в тексте страниц
  • Поиск по домену выдает правильные результаты, с правильными описаниями, заголовками и т.д.
  • Ваш сайт не виден в первой тысяче результатов поисковой выдачи по любым другим запросам, в том числе по тем, под которые он изначально был оптимизирован.

Для того, чтобы выбраться из "песочницы", необходимо, чтобы появилось как можно больше естественных ссылок на Ваш сайт.

Фильтр "Дополнительные результаты"

Если страницы сайта попали под фильтр "Дополнительные результаты", это значит, что Google счёл их "недостойными" и поместил ниже "хороших" страниц - "под индекс". В этом случае эти страницы будут выводиться в результатах поиска лишь в том случае, если "хороших" страниц не хватает. Для того, чтобы выйти из такого фильтра, как правило, достаточно нескольких входящих ссылок.

Фильтр Bombing

Применяется к сайтам, которые имеют большое количество ссылок на себя с одним и тем же анкором (текстовым содержанием ссылки). Google справедливо считает, что это не естественно, так-как текст ссылки везде одинаковый. Для того, чтобы избежать попадания в данный фильтр, при покупке ссылок, необходимо следить за тем, чтобы анкоры на каждую покупаемую ссылку были уникальными.

Фильтр Bowling – это не совсем фильтр, а обобщённое название приёмов чёрного SEO, которые могут применить конкуренты для борьбы с Вашим сайтом с целью занесения его в бан. Данный фильтр актуален для молодых сайтов с низким TrustRank`ом, для сайтов с высоким TrustRank`ом он не может быть применён.
Google утверждает, что конкуренты никак не могут повредить позициям Вашего сайта, но если Вы заподозрили в бане своего сайта происки конкурентов – подавайте заявку на включение сайта в индекс поисковой системы.

Фильтр "Возраст домена"

Этот фильтр имеет много общего с фильтром "песочница". Многие оптимизаторы считают, что чем старше домен, тем большее доверие он вызывает у поисковиков, нежели недавно появившиеся сайты. Однако молодым сайтам можно пользоваться высоким доверием поисковика и не находиться в Sandbox и всё же попасть под этот фильтр. Единственный способ избежать попадания под этот фильтр вашего сайта – "обрасти" входящими ссылками с авторитетных сайтов.

Фильтр "Дублирующийся контент"

В сети существует большое количество сайтов, которые копируют контент, ранее уже публиковавшийся на других сайтах. Google старается наказывать такие сайты и понижает их позиции в результатах поиска. Старайтесь размещать уникальный контент на своем сайте, а также следите за тем, чтобы контент Вашего сайта не копировали другие пользователи интернета. При обнаружении факта копирования информации с Вашего сайта можно пожаловаться в Google.

Фильтр -30

Этот фильтр Google применяет к тем сайтам, которые используют некорректные, так называемые черные методы SEO, дорвеи (doorway) и редиректы (redirect) с помощью JavaScript. Если подобные механизмы обнаруживаются поисковыми системами на Вашем сайте, то выдача по запросам понижается на 30 позиций. Чтобы выйти из этого фильтра, обычно, достаточно убрать такие вставки из вашего кода.

Фильтр "Опущенные результаты"

Страницы Вашего сайта могут попасть под этот фильтр и практически выпасть из результатов поиска по следующим причинам: малое количество входящих ссылок, повторяющиеся заголовки и другие meta-тэги, дублирующий контент с других сайтов, а также слабая либо вовсе отсутствующая внутренняя перелинковка страниц сайта. Поэтому старайтесь избегать всех этих причин. Уделяйте внимание написанию meta-тэгов, это очень важно и для других поисковых систем.

Фильтр "Социтирование"

Ссылающиеся на ваш ресурс сайты, Google очень тщательно отслеживает. Например, если на Ваш сайт ссылается какой-нибудь порносайт либо сайт очень далекой тематикой от Вашего, то Google вполне может посчитать, что тематика Вашего сайта схожа с ссылающимся сайтом. Это может повредить "тематичности" Вашего сайта и, как следствие, понизить в результатах выдачи по тематическим запросам. Чтобы подобного не произошло, всегда проверяйте сайты, на которых покупаете ссылки.

Фильтр "Links"

Часто для обмена ссылками на сайте заводится одна страница (линкопомойка), на которой залинкованы "сайты-партнеры". Обмен ссылками - довольно старый способ повысить позиции сайта в результатах поисковой выдачи и не поощряется Google. В настоящее время этот способ малоэффективен, и лучше от него отказаться.

Фильтр "Много ссылок сразу"

Сайт попадает под такой фильтр, когда на него слишком быстро растет количество внешних ссылок. Это может привести к бану поисковыми системами Вашего ресурса. Чтобы этого не произошло, нужно очень аккуратно покупать ссылки, небольшими порциями и добавлять их по мере индексирования.

Фильтр "Чрезмерная оптимизация"

Под фильтр чрезмерной оптимизации обычно попадают сайты с большим количеством ключевых фраз, чрезмерной их плотностью, перенасыщенные meta-тэгами. Поэтому не стоит перебарщивать с оптимизацией страниц. Всего должно быть в меру.

Фильтр "Битые ссылки"

Когда ссылка ведет на отсутствующую страницу, то поисковой робот не может до нее добраться. И, как следствие, не может поместить ее в индекс и закэшировать (Google Cache). Это может плохо сказаться на результатах поиска, а также на общих показателях качества сайта. Необходимо избегать наличия подобных ссылок на Вашем сайте.

Фильтрация страниц по времени загрузки .

Если Ваша страница имеет слишком большое время загрузки (перегружена различными эффектами либо проблемы с хостингом), поисковая система просто откажется её загружать и индексировать, в результате чего она не появится в результатах поиска.

Общий фильтр "Степень доверия" (Google Trust Rank)

Этот фильтр включает в себя все показатели, о которых было сказано выше. Называется этот фильтр "степень доверия". Этот фильтр учитывает такие факторы как:

  • Возраст сайта
  • Количество авторитетных входящих ссылок
  • Количество исходящих ссылок
  • Качество внутренней навигации (перелинковки)
    а также многие другие факторы.

Чем выше Trust Rank (TR), тем выше Ваш сайт в результатах поиска.

Фильтры Яндекса

АГС (модификации: АГС-17 и АГС-30)

Фильтр, который выкидывает из индекса Яндекса сайты, созданные для поискового спама (сателлиты), оставляя поисковой выдаче лишь 1 - 15 страниц, не зависимо от общего количества страниц сайта. Главным основанием для наложения фильтра служит некачественный контент.

Фильтр за плохую структуру сайта

Фильтр «ты - спамный»

Непот-фильтр

Фильтр, который накладывается на отдельные ссылки, отдельные страницы сайта, а также на весь сайт в целом за ссылочный спам, продажу ссылок с сайта. Чтобы его избежать, желательно отказаться от продажи ссылок, либо продавать их осторожно, в небольших количествах, ставить естественные ссылки.

Редирект фильтр

Фильтр накладывается на сайты, которые используют javascript редиректы, как правило - дорвеи. Попадание под этот фильтр означает бан Вашего сайта в поисковой системе. Если Вы не хотите попадать под данный фильтр – не используйте javascript редиректы, а используйте flash и ajax.

Фильтр плотности ключевых слов

Фильтр, удаляющий из индекса страницы сайта за чрезмерную концентрацию ключевых фраз и слов. Во избежание попадания сайта под этот фильтр необходимо просто писать тексты для людей, избегая явно завышенной концентрации ключевых слов.

Фильтр «Ты последний»

Фильтр накладывается на страницу, идентифицированную поисковой системой, как дубль уже существующей в индексе страницы. Для того чтобы избежать наложение этого фильтра, необходимо создавать уникальный контент, а также запрещать копирование своего контента на другие сайты.

Статьи по теме .

Поисковая система Google имеет в своем арсенале множество фильтров, которые влияют на продвижение и позиции сайта. В данной статье мы подробно рассмотрим основные и актуальные фильтры Гугл, которые не стоит игнорировать в процессе SEO-продвижения.

Часто можно столкнуться с ситуацией, когда сайт оптимизируешь всеми силами, продвигаешь его трудоемким и времязатратным написанием полезного контента, а в результате показатели Google остаются безутешными, проект находится далеко не на лидирующих местах, или еще хуже, выпадает из-под индекса. При этом в Яндексе наоборот, большинство статей попадают в топовую десятку.

В чем причина? Ответ на данный вопрос простой – сайт под фильтром Гугл. Эта буржунетовская поисковая система находится в постоянном движении, не стоя на месте, придумывает какие-то новинки – так называемые фильтры. Google высокоразвит, в его арсенале мощные алгоритмы, способные с абсолютной точностью определить на самом ли деле качественный ресурс или его следует отправить под фильтр.

Проблема в том, что упомянутый поисковик является полностью автоматизированным, система сама вводит и выводит из-под фильтров, так что обращаться в техподдержку здесь бессмысленно. Рекомендуется ни при каких обстоятельствах не попадать под фильтр, так как есть вероятность остаться в нем навсегда. Поэтому к этой теме нужно подойти со всей серьезностью, изучить распространенные их виды, и что самое главное, разобраться, как с ними бороться. Но для начала, заподозрив что-то неладное со своим веб-проектом (снизился трафик, скачок позиций), нужно проверить фильтр Гугла.

Как проверить сайт на фильтры Гугла

Изучая теорию по SЕО, для будущей подготовки, или при работе уже с собственным проектом, всегда возникает вопрос: «Как узнать что сайт под фильтром Google?». Увы, для этого не существует универсального способа. Однако есть комплекс некоторых методов, комбинируя которые можно получить более достоверный результат. Среди их числа:

- Проверка наличия в поиске главной страницы - является самым простым способом. Для этого название домена вписывают в поисковую строку и нажимают «Поиск». Отсутствие в результате выдачи вашей главной страницы указывает, что сайт попал под фильтр Гугла.

- Search Console сервис (абсолютно бесплатный), позволяющий узнать позиции сайта в Google. Зайдя в него в левой части экрана можно увидеть меню, в котором следует отыскать пункт «Меры, принятые вручную» и кликнуть по нему мышкой.

Это меню отображает информацию о ручном применении санкций по отношению веб-страницы. Однако это не является 100 % гарантией отсутствия фильтров.

- Анализ посещаемости веб-ресурса . На то, что сайт под фильтром Google указывает и резкое падение численности посетителей.

Проверить фильтр Google можно и, выполнив проверку внешних ссылок, которые зачастую образуют ссылочный спам. Иногда по результатам проверок оказывается, что только некоторые страницы выпали из индекса. Этому содействует наличие ссылочного спама на указанные страницы, поэтому к ним и применяются соответственные фильтры.

Может быть, что вы сами того не зная, пополнили плохими ссылками внешний ссылочный профиль продвигаемого проекта. В таком случае необходимо от них избавляться.

Если вы ничего не предпринимали, а проверка указывает на ссылочный спам, значит это действия неких доброжелателей, которые хотят таким методом, избавится от конкурента. Также нужно избавляться от дублированных страниц.

Фильтры Google

Поисковик Google имеет следующие распространенные фильтры:

- Фильтр Панда оккупировал просторы интернета в 2011 году. Применяется он к сайтам, с неуникальным контентом, избыточной рекламой, ссылками некачественных сайтов-доноров, большим количеством ключевиков и др.

Чтобы из под него выйти следует потрудиться над уникальностью текста, избавится от некачественных ссылок, убрать ненужную рекламу (навязчивую, агрессивную или запрещенную) и лишние ключевые фразы.

На помощь предыдущему в 2012 году был создан фильтр Пингвин , наказывающий сайты за черные методы продвижения (внешние линки). Накладывается зачастую через быстрый прирост закупленных ссылок, большую плотность (выше 7%) ключевиков с прямым анкорным вхождением, дублированные страницы и скрытые ссылки.

Для выхода из-под него плотность ключевиков должна составлять не более 4 процентов, ссылки заменяются на безанкорные. Также следует избавиться от скрытых линков и сделать перенаправление дубликатов. Рекомендуется иметь ссылки естественные.

- Песочница(Sandbox). Накладывается на молодые сайты (до 3 месяцев). Предназначение данного фильтра заключается в борьбе с сомнительными сайтами (сайты однодневки) и спамом. Данный фильтр не обходит даже самые качественные проекты в начале их долгого пути.

Sandbox не распространяется на запросы с низкой или средней частотностью. Поэтому молодым ресурсам рекомендуется изначально какое-то время для продвижения использовать низкочастотные запросы.

Чтобы не попасть (выйти) под этот фильтр, необходимо следовать действиям:

Первое время ничего не предпринимать, просто ждать;

Затем обновить контент, добавить новый материал;

Найти (купить) старый домен с подходящей тематикой и делать на нем сайт или же склеить новый домен со старым.

- Дублированный контент . Применяется к сайтам, любителям красть (копировать) чужую информацию. Такие ресурсы попадают под фильтры Гугл и выпадают из индекса.

Чтобы подобные санкции предупредить для продвижения проекта всегда нужно использовать уникальный контент. Если же информация берется с других источников, делать ее качественный рерайт.

- Быстрый рост ссылок . Если за достаточно короткое время на сайте появилось внушительное количество ссылок, их влияние на ранжирование просто исчезает, так как Google воспринимает это манипуляцией по отношению к нему. В итоге ресурс теряет позиции и трафик.

Чтобы не попасть под фильтр, стоит максимально естественным путем (постепенно) пополнять ссылочную массу.

- Бомбинг . Действует при наличии обильного количества внешних ссылок с аналогичными анкорами. В итоге Гугл игнорирует их, сайт не индексируется и не продвигается в поисковике.

Минус 30 (-30). Его предназначение заключается в борьбе с реальным спамом в выдаче, сюда относятся сайты дорвеи или, имеющие скрытые редиректы.

Попав под фильтр, сайт понижается в выдаче и не показывается выше 30 позиции. Для его предотвращения просто не применяйте черные способы продвижения.

- Trust Rank (уровень доверия к ресурсу) .

Зависит от следующих показателей:

Ссылок на сайт и их качества;

Качества контента;

Внутренней перелинковки;

Возраста доменного имени.

- Социтирование . Продвигая свой ресурс, в обязательном порядке нужно позаботиться о том, чтобы на него ссылались сайты с похожей тематикой, в противном случае в силу приступает фильтр Социтирование.

Поисковик способен анализировать обратные линки на ваш ресурс, при большом проценте несоответствия их тематике или еще хуже нежелательной тематики (азартные игры и др.) накладывается данный фильтр. За указанным процессом можно проследить через сервис Google Webmaster Tools.

Чтобы под него не попасть, нужно избегать подобных ссылок и залучать наиболее тематические.

- Скорость загрузки сайта . От нее также зависит продвижение сайтов. При постоянной медленной загрузке из поисковика на сайт, Гугл понижает его позиции.

Чтобы этого избежать, нужно использовать качественные серверы и надежные провайдеры для размещения ресурса. А для своевременной помощи, рекомендуется периодически наблюдать за скоростью и доступностью проекта.

Во избежания всех неурядиц просто не используйте страницы со ссылками на иные сайты.

- Переоптимизация . Этот Гугл фильтр предназначен для понижения сайтов, имеющих чрезмерную внутреннюю переоптимизацию.

Ключевые запросы на странице (оптимизация) должны быть нормальными (умеренными).

Чтобы оградить себя от ненужных последствий, контент следует оптимизировать осторожно, не перенасыщать его ключевиками, чтобы текст был человекочитабельным.

Итог

Как уже говорилось, Google имеет огромное количество разнообразных фильтров, что даже профессионалам (оптимизаторам) бывает нелегко вычислить, под каким из них пребывает сайт.

В продвижении проекта достаточно будет учитывать основные вышерассмотренные фильтры Google, для предотвращения попадания своего проекта в бан или под фильтр.

Спасибо за внимание и до скорого на страницах Stimylrosta.

Обнаружили в тексте грамматическую ошибку? Пожалуйста, сообщите об этом администратору: выделите текст и нажмите сочетание горячих клавиш Ctrl+Enter

1. Дублированный контент

Сайтов с каждым днем становится больше и больше, их количество страниц растет быстрыми темпами. Множество ресурсов дублируют один и тот же контент у себя на сайтах. На обработку данных необходимы ресурсы и они растут снежным комом.

Следствием этого был запущен фильтр, который накладывается на дублированный контент.

Как работает фильтр:

Если вы на сайте публикуете не уникальную информацию, взятую с других источников, то Google понижает эту статью или страницу в результатах выдачи по .

Варианты действий есть 2:

— ваш сайт попадает в supplemental результаты, то есть результаты не основного индекса

— страницы выпадает из индекса поисковой системы

Как не попасть под фильтр:

При продвижении любого сайта необходимо использовать уникальные текста, и если брать тексты с других ресурсов, то делать их рерайт.

Если же на сайте есть дублированные страницы, например одни и те же страницы описания услуги или товара, то нужно убрать дублирующие, или закрыть их от .

Любыми нормальными способами нужно уникализировать контент на сайте, что бы избежать следствий фильтра за дублированный контент.

2. Песочница или Sandbox

Задача данного фильтра удерживать попадание в топ по высокочастотным запросам, как коммерческим, так и информационным.

Запущен он так же для борьбы со спамом, и сомнительными сайтами. Поэтому срок вывода сайта по самым топовым запросам может быть более 5 месяцев.

Как работает фильтр:

Если молодой только созданный сайт начал продвигаться по конкурентным и высокочастотным запросам, то у него, скорее всего не получиться попасть в топ в первое время.

Фильтр Sandbox не действует на средне и низкочастотные запросы. Поэтому на первое время лучше применять продвижение низкочастотных запросов, и параллельно работать над высокочастотными.

Как не попасть под фильтр:

Для новых сайтов это сложно, но можно найти старый домен по вашей тематике, и тут 2 варианта действий:

— делать сайт на старом домене

— склеить старый домен с новым

Оба вариант нормальные и работают, все зависит от правильности склейки. Так же важно старый домен проверить на обратные ссылки, и посмотреть его историю.

Ко многим тематикам, особенно в Украине он не применим, и можно спокойно продвигать сайты и достигать довольно таки быстрых результатов.

3. Быстрый рост ссылок

Если на сайт происходит слишком быстрый рост ссылок, то поисковая система Гугл может предположить, что ею пытаются манипулировать.

Как работает фильтр:

Если Гугл обнаруживает очень быстрый рост ссылок на сайт, то он может его автоматически понизить в результатах поиска. Следствие такого падение позиций, трафика, и долгое не возвращение сайта в топ.

Как не попасть под фильтр:

Нужно медленно и постепенно наращивать ссылочную массу на сайт, что бы в глазах Google это выглядело максимально естественно.

4. Google Bombing

Когда слишком много прямых вхождений анкора ссылок, Гугл видит, что владелец сайта хочет находиться на первых местах, по словам в топе.

Пример такого анкор листа:

Как мы видим на фото, в анкор листе лишь те ключевые слова, которые владелец сайта хочет быть в топе — продвигаются.
Как работает фильтр:

В случае только с прямым вхождением анкора, рано или поздно Гугл может это заподозрить, следствие чего будет падение позиций. Обычно сначала это -10 – 15 позиций. Потом сайт уходит в -100. Если сильно этим пренебрегать, можно попасть так же и в бан Гугла, это когда все страницы выпадают из индекса поисковой системы.

Как не попасть под фильтр:

Чтобы не попасть под фильтр стоит размещать с сильно разбавленным анкор листом, а так же использовать множество брендовых ключевых слов. Если грамотно разбавлять ссылки, то можно избежать этого фильтра и успешно продвигаться в поиске.

5. – 30

Фильтр – 30 предназначен для борьбы с настоящим спамом в результатах выдачи. Это могут быть сайты со скрытыми редиректами, а так же .

Как работает фильтр:

Он понижает такого плана сайты на – 30. То есть сайт не отображается выше 30-ой позиции в выдаче Google.

Как не попасть под фильтр:

Самый простой способ – не использовать черные методы продвижения сайта, и все будет хорошо.

6. Социтирование

Если вы продвигаете сайт, то обязательно стоит делать так, что бы близкие по тематике ресурсы ссылались на вас. Если же сайт успешно поднимается на первые места, а на него ссылаются сайты не связанные с его тематикой, то в силу может приступить этот фильтр.

Как работает фильтр:

Больше всего он работает, в случае если на ваш сайт будет ссылаться много ссылок с нежелательных тематик, как порнография, азартные игры и прочее.

Как не попасть под фильтр:

7. Переоптимизация

Фильтр был создан для того чтобы понижать сайты, которые сильно переоптимизированы внутри.

Как работает фильтр:

Он учитывает количество ключевых запросов на странице. Если сайт сильно ими оптимизирован, то эти страницы могут выпасть или сильно понизится в результатах поиска. Оптимизация текста сайта должна быть нормальной, иначе есть шанс попасть под фильтр.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за переоптимизацию нужно аккуратно оптимизировать тексты и контент на сайте, не сильно перенасыщать все ключевыми словами, делать оптимизацию для людей в первую очередь, а не только для поисковых систем.

8. Скорость загрузки сайта

Уже давно не секрет, что скорость загрузки сайта влияет на продвижение и позиции.

Как работает фильтр:

Если сайт при переходе из поисковой системы сайт медленно загружается, и это повторяется часто, то Гугл может понизить сайт в результатах поиска.

Как не попасть под фильтр:

Чтобы не попасть под фильтр за скорость загрузки, необходимо размещать сайт на качественных серверах, у надежных провайдеров. Если же проблема загрузки зависит от самой системы управления сайта, то нужно тщательно оптимизировать систему управления, что бы все скрипты быстро работали и загружались. А так же всегда мониторить скорость и доступность сайта.

9. Supplemental Results или дополнительные результаты

Фильтр накладывается на страницы сайта, которые она считает малозначимыми. Например, это могут быть страницы с дублирующимся контентом, а так же на страницы, на которые нет входящих ссылок.

Как работает фильтры:

Такие страницы плохо ранжируются Гуглом, а так же эти результаты можно посмотреть, нажав на посмотреть дополнительные результаты.

Как не попасть под фильтр:

Чтобы не попасть под фильтр, необходимо загнать эти страницы в дополнительный поиск, решения простые:

— убрать дубликаты страниц (или сделать страницы уникальными)

Дополнительные результаты поиска не так страшны, но нужно что бы приоритетные страницы и разделы находились в основных результатах поиска.

В старые времена очень популярным способом продвижения был – обмен ссылками. Создавались отдельные страницы, с которых шли ссылки на сторонние ресурсы. На сторонних ресурсах было так же. Следствие этому позиции сайтов росли.

Как работает фильтр:

Если поисковая система обнаруживает массовый обмен ссылками, то она понижает сайт в результатах поиска.

Как не попасть под фильтр:

Основное: не использовать страницы со ссылками на другие ресурсы. Такое в узких кругах называют линкопомойки.
Если вы уже попали под такой фильтр, то нужно убрать такие страницы, или закрыть их от индексации. Немного подождать и позиции вернуться.