Тарифы Услуги Сим-карты

Google Penguin (Гугл Пингвин) – новый алгоритм от поисковой системы Google. Полное руководство по обновлённому алгоритму Penguin от Google

Если вы задаетесь вопросами: как вывести сайт из под Пингвина ? Как снять ручной фильтр Google ? То, данное руководство поможет вам решить эти проблемы, вернуть позиции и посещаемость.

В поисковой системе Google существуют десятки известных фильтров, которые могут сильно повлиять на продвижение, а так же сотни, про которые мало кто знает.

Сегодня речь пойдет про самые основные и распространенные фильтры. А именно:

  1. Автоматический фильтр Google за обратные ссылки

Все они так или иначе относятся к алгоритму под названием Google Penguin, который вступил в силу более года назад и уже успел наделать много шума.

Симптомы такого фильтра

  1. обвал позиций
  2. резкий спад посещаемости сайта

На практике это выгладит таким образом:

Не совсем приятная ситуация. Особенно когда в большинстве случаев ваш основной источник привлечения посетителей поисковый трафик.

А теперь рассмотрим детально для каждого типа фильтра за обратные ссылки.

Ручной фильтр Google за искусственные входящие ссылки

Зачастую все начинается с того, что приходит сообщение в панели для Вебмастеров Google. Выглядит оно так:

В уведомлении сообщение такого характера:

Сообщения бывают разные, например:

Чтобы найти сообщения о ручном фильтре, для этого:

После того, как приходит уведомление об искусственных входящих ссылках, обычно такие последствия:

А) В течении 2-3 недель позиции сильно падают, после чего пропадает посещаемость из поиска Google

Б) Сразу вылетают позиции и посещаемость падает

Причины ручного фильтра Google

Основной сигнал, из-за которого приходит такое уведомление – это анкор ссылки и его переспам.

В примере, текст обратных ссылок на один из сайтов, который затронул фильтр. Основная причина фильтра – переспам анкором.

Еще пример :

Если посмотреть по уникальным доменам, то получается такая картина:

Использование обратных ссылок с коммерческими или другими ключевыми словами приводит к ручному фильтру, потери позиций и посещаемость.

Что же тогда делать и как быть?

Решение предельно простое – не использовать большой процент ссылок с ключевыми словами.

Пошаговая инструкция по снятию ручного фильтра Google

  1. Уведомление в Google
    Проверяем, есть ли уведомление в Google Webmaster Tools. Если есть, то переходим к следующему пункту.
  2. Запрос на пересмотр
    В первом запросе на пересмотр важно уточнить какие именно ссылки нарушают правила поиска, и спросить, что необходимо сделать для снятия ручных санкций.
  3. Получаем ответ

    В большинстве случаев в ответе указывают те ссылки, по мнению которых сайт нарушает правила поиска. Например:

    В итоге мы можем определить на какие именно ссылок обращает внимание Google и считает их спамными.

  4. Производим указанные действия

    Дальнейшие действия сильно зависят от вашего ссылочного профиля.

    Ситуация 1

    На ваш сайт стоит большое количество арендованных ссылок, и в большинстве случаев это прямые анкоры, в которых содержаться ключевые слова.

    В таком случае – необходимо :

    1. почистить ссылки с анкорами (в том числе те, которые есть в примере Гугл)
    2. переходить к следующем пункту – новый запрос на пересмотр

    Если действительно убрать большую часть таких ссылок, то ручной фильтр можно снять с одного – двух запросов.

    Ситуация 2

    В там случае – необходимо :

    1. просмотреть все обратные ссылки (можно с помощью сервисов проверки обратных ссылок, например: Ahrefs, MajesticSeo, LinkPad)
    2. составить список ссылок, которые нежелательные (основные критерии: анкор, низкое качество сайта)
    3. добавить ссылки в Disawov Tool — https://www.google.com/webmasters/tools/disavow-links-main?/
    4. подождать 1-2 недели (из практики необходимо для того, чтобы ссылки пере индексировались)
    Далее переходим к следующему пункту и отправляем запрос на пересмотр.
  5. Отправляем новый запрос на пересмотр

    В запросе на пересмотр необходимо:

    1. четко описать что вы сделали
    2. просто и понятно
    3. и уточнить, что еще необходимо сделать для снятия фильтра

    После чего, необходимо немного времени для пересмотра вашего сайта. Это может занять от пару дней до 3-4 недель.

  6. Промежуточный ответ

    В промежуточном ответе обычно содержание такого характера:

    Это уведомление от Google приходит практически сразу после отправки запроса на пересмотр.

  7. Ждем решения

    Ответ приходит обычно в течении 1-2 недель, иногда дольше, а иногда быстрее.

    В нем либо негативный ответ, например:

    Если ответ негативный , то:

    1. заново пересматриваем ссылки
    2. добавляем в Google Disawov
    3. или просто снимаем ссылки
    4. в любом случае нужно сделать действия
    5. отправляем новый запрос на пересмотр

    Но ответ после выше проделанных действий может быть и позитивный , например:

    В этом случае – поздравляю вас! Ручной фильтр Google снят.

В нашем примере – был не быстрый способ вывода сайта из под ручного фильтра Google, вот так выглядит хронология событий:

Важные моменты при самостоятельно снятии фильтра:

  1. не сдаваться
  2. делать действия (а не просто слать запросы на пересмотр)
  3. если сделать все, как выше описано, то ручной фильтр от Гугл снимется, вы вернете позиции и трафик

Вот информация, которая дополнит данный материал и поможет вам успешно снять фильтр:

  1. тематики под США
  2. Кейс — как снять ручные санкции Google с помощью Disavow Tool, вернуть позиции и посещаемость
  3. Кейс — как снять ручные санкции Google, вернуть позиции и трафик

В ручном фильтре нет ничего страшного, самое главное не поленится и сделать ряд действий, который приведет к нужному результату.

Как результат – это возвращение посещаемости на прежний уровень, например:

В данном примере рассмотрены пару сайтов, фильтры с которых снимались в разное время.

По времени снятия фильтра :

  1. рекорд за 4 дня
  2. самый долгий срок 3.5 месяца

Но в любом случае нужно действовать оперативно, а так же учитывать выше описанные моменты.

Автоматический фильтр за обратные ссылки

С автоматическим фильтром от Google – все на порядок сложнее. Так как о нем не приходит сообщение.

Важно: автоматические санкции могут сняться при официальном обновлении алгоритма Google Penguin, которое в среднем происходит раз в 2-4 месяца.

Чтобы вы не делали, до обновления алгоритма – ничего не изменится, если это автоматические санкции.

Мы не раз снимали автоматический фильтр, но не всегда все происходит быстро.

Признаки фильтра

Все тоже самое, как и с ручным, только не приходит никакого уведомления.

  1. позиции сначала проседают в – 30-50
  2. падает трафик на сайт

И потом долгое время не возвращается.

Основные причины:

  1. Прямое вхождение анкора ссылки
  2. Некачественные обратные ссылки

Пошаговое руководство по снятию автоматического фильтра

В данном случае в отличии от ручного все на порядок дольше, и сложнее.


В заключение про фильтр Google Penguin

Алгоритм был запущен в 2012 году и постоянно дорабатывается. Его основной задачей является – борьба со спамом и искусственным манипулированием результатов поиска.

Чтобы не попасть под фильтр , необходимо:

  1. не использовать прямой анкор лист сильно заметно, или не использовать вовсе
  2. привлекать качественные ссылки на сайт
  3. стараться делать акцент на продукте и его качестве, чтобы получать естественные ссылки (да, это можно делать даже в реалиях рунета)
  4. соблюдать динамику – Google любит постоянную динамику

Тогда у вас не возникнет вопросов с фильтрами и ваш трафик будет постоянно расти. Естественно если вы будете работать над:

  1. контентом сайта
  2. привлечением естественных ссылок (не покупных)

Даже если вы уже наступили на грабли и получили санкции со стороны Google, то не стоит разочаровываться – решение всегда есть.

Я надеюсь, что данное пошаговое руководство поможет решить вашу проблему – вернуть позиции и посещаемость из поисковой системы Google.

Важно: в статье рассмотрены только фильтры, связанные с алгоритмом Google Penguin и обратными ссылками.

Если у вас резко упали позиции и посещаемость, то причина может быть вовсе не в ссылках, а например, в контенте. За это отвечает алгоритм Google Панда.

Удачи вам! До скорых встреч на страницах блога сайт

посмотреть еще ролики можно перейдя на
");">

Вам может быть интересно

Анкор - что это такое и насколько они важны в продвижении сайта Disavow links или как определить под каким фильтром Гугла (Панда или Пингвин) находится сайт
СЕО терминология, сокращения и жаргон За что можно получить бан в Яндексе, попасть под АГС или портяночный фильтр, а также пути выхода из-под этих санкций
Rel Nofollow и Noindex - как закрыть от индексации Яндексом и Гуглом внешние ссылки на сайте
Траст сайта - что это такое, как его измерить в XTools, что на него влияет и как увеличить авторитетности своего сайта

Привет, друзья. Сегодня обещаю быть интересным, а главное полезным. Поделюсь с вами своей небольшой радостной новостью – как вы уже догадались из заголовка, мне удалось реабилитировать мой сайт, попавший ровно год назад под фильтр Гугл Пингвин. Хочу особо обратить ваше внимание, что речь пойдет именно про автоматически наложенные санкции без уведомлений в панели вебмастера о мерах принятых вручную – ничего этого не было, просто в октябре 2012 года трафик на сайт резко упал, а позиции вылетели из зоны видимости (за пределы ТОП 200). И с тех пор положение только усугублялось, но…

Но наконец-то свершилось то, чего я так долго ждал! Фильтр за спамные входящие ссылки снялся, значительно улучшилась видимость сайта, позиции сильно выросли.

Сказав выше слово «новость», я, конечно же, вас обманул, потому что это не новость. Этот пост я начал писать еще 14 октября 2013 года, но так и не дописал его, сначала решил немного подождать, чтобы не делать поспешных выводов, потом ленился, а затем вообще уволился с работы и переехал в другой город. Короче, было мне совсем не до Пингвинов. Но теперь я готов не только продолжить, но и дополнить свой пост новыми мыслями, идеями и выводами.

Хочу напомнить, что самый последний на сегодня апдейт алгоритма Google Penguin состоялся 5 октября 2013 года, называется он Penguin 5 (или Penguin 2.1), по данным Google новый алгоритм задел около 1% запросов. Вот об этом апдейте и пойдет дальше речь.

Далее я вам расскажу, что стало причиной наложения фильтра, какие были последствия, как мне в итоге удалось победить Гугл Пингвина, и что происходит на данный момент, а так же мои рекомендации о том, как делать не стоит, имея полученный опыт!

Пост будет очень длинным, но наберитесь терпения, это поможет вам либо застраховать себя от возможного фильтра, либо избавиться от него, если он уже наложен. Итак, поехали!

Краткий экскурс в историю

Вот ссылка на мой апрельский пост, где я писал (тогда еще даже в планах не было). Там же я упомянул про один мой проект, который я никому не свечу, но сегодня я решил спалиться, вот этот сайт — http://slimdown.ru/ . Да, это женский сайт, кстати, крупнейший структурированный сборник диет в рунете. И это для него же я делал мобильные приложения для iOS и Android – если не в облом, можете скачать и поставить оценку в 5 звезд, я буду очень благодарен (ссылки на приложения в сайдбаре сверху на указанном сайте)! Но не о крутости моего сайта речь, как вы понимаете.

А речь о том, что данный сайт в октябре 2012 года попал под фильтр Google Penguin. Смотрите сами.

Срез среднесуточной посещаемости с поиска Google по месяцам по данным LiveInternet.ru:

Или вот вам статистика переходов с ПС Google за период 1 января 2012 – 13 октября 2013:

Как видите, 2 октября 2012 у меня было все в полном порядке, взял новый рекорд посещаемости с Google почти в 3000 посетителей в сутки, а уже 6 числа все оказалось в жопе и далее только усугублялось. Совершенно очевидно, что это наложение фильтра за искусственные или спамные ссылки, т.к. как раз в эти дни был апдейт Пингвина. И если все предыдущие обновления алгоритма для меня проходили незаметно, более того – сайт только рос, то в этот раз мне это с рук не сошло. Апдейт этого злосчастного алгоритма был 5 октября 2012 года, назывался он Penguin 3 и коснулся по официальным данным около 0.3% всех запросов.

Так вот, в посте, который уже упоминался выше, я выдвинул гипотезу, что «появление в ссылочном профиле трастовых сайтов должно улучшить ситуацию и теоретически вернуть трафик с Google хотя бы частично ». А так же альтернативное исследование заключалось в том, чтобы сделать выгрузку беклинков на сайт из всех возможных источников, проверить их на качество… Далее почему-то я ничего тогда не сказал, но логично, что после проверки надо было понять, насколько плох текущий ссылочной профиль, выбрать всех плохих доноров и отклонить через инструмент Google Disavow Links Tool .

Восстановим хронологию событий

Чтобы ничего не упустить, еще раз разложим хронологию:

  • До 5 октября 2012 года все было замечательно , трафик рос завидными темпами, я собирался начинать копить на яхту)))
  • 5 октября случился апдейт алгоритма, после чего трафик резко упал , я понял, что это фильтр. Конечно, первым делом заглянул в панель вебмастера, в раздел «Меры, принятые вручную ». Но и тогда и сейчас там написано «В отношении этого сайта вручную не принимались меры по борьбе с веб-спамом». Я расстроился, перестал закупать ссылки и вообще что-либо делать с сайтом.
  • 15 ноября 2012 года, тогда еще, может кто-то помнит, была на странице «мер, принятых вручную» волшебная кнопка, позволяющая написать письмо в Гугл , даже если никаких мер не принято. Вскоре эту кнопку убрали, видимо, количество таких идиотов как я превысило критическую отметку. Так вот я решил прикинуться валенком и написать слезное письмо с мольбами о пощаде. Каково же было мое удивление, когда текст этого письма, бережно сохраненный в txt-файл, я нашел сегодня в одной из забытых папок на рабочем столе:

    Добрый день, уважаемая служба поддержки веб-мастеров.

    Я к вам обращаюсь по вопросу, по которому, наверняка, обращаются еще тысячи людей – проблемы с ранжированием сайта.

    Я прочитал данную инструкцию в вашей справке — http://support.google.com/webmasters/bin/answer.py?hl=ru&answer=2648487
    Мой сайт http://slimdown.ru . Я скачал список ссылок из панели вебмастера для своего сайта. Просмотрел его, а там около 4 тысяч ссылок, и ужаснулся, очень много ссылок с мошеннический сайтов, или дорвеев, созданных на бесплатных хостингах, типа narod.ru и др., вот несколько ссылок примеров:

    http://a570028.narod.ru/page/dieta_na_chae_s_molokom_72.html
    http://alex1953.narod2.ru/dieta_kristiny_orbakayte.html
    http://andreydust.narod2.ru/kefirnaya_dieta_9_dnyay_otzyvy.html
    http://balbeska-999.narod2.ru/dieta_na_800_kkal.html

    Все они выглядят одинаково и их очень много. Я просмотрел около 1500 ссылок из списка из 4000 и чуть не сошел с ума, проверяя все вручную.

    Я составил список доменов для инструмента отклонения ссылок https://www.google.com/webmasters/tools/disavow-links?hl=ru&siteUrl=http%3A%2F%2Fslimdown.ru%2F и загрузил текстовый файл. Пример содержания файла:
    domain: 0good-diet-2011.ru
    domain: aleksei-pelevin.narod2.ru
    domain: deorseradar.pochta.ru
    domain: easy-diet.cu.cc
    и т.д.

    В соответствии с вашей справкой пишу вам это письмо.

    Хотелось бы еще попутно задать несколько вопросов:
    — Пропадут ли ссылки с доменов, указанных и загруженных в файле для инструмента отклонения ссылок? Если так, то я смогу периодически проверять список ссылок и добавлять в отклонение новые, некачественные ссылки.
    — Можно ли добавлять в список на отклонение домены верхнего уровня? Например, narod.ru, чтобы все поддомены так же не учитывались. Я готов пожертвовать ссылками с нормальных сайтов на бесплатных хостингах, иначе просто невозможно отследить все вредоносные поддомены третьего уровня.

    Небольшая предыстория этого письма. Раньше мой сайт очень хорошо чувствовал себя в поиске Google и получал хороший трафик. Я начал вести свой сайт с конца 2009 года и постепенно наполнял его качественными статьями. Сначала мы с женой писали туда новости, потом стали привлекать и других людей, которые помогали наполнять сайт. По сути, вот уже 3 года и продолжаем каждый день публиковать статьи.

    Я постоянно слежу за состоянием сайта в панели вебмастера, исправляю все ошибки, слежу, чтобы не было одинакового содержания на разных страницах и т.д. Внедряю ваши рекомендации, которыми вы делитесь в блоге и в справке для веб-мастера.

    Но вот в начале октября 2012 года трафик с Google резко упал. Вот скриншот графика одного из счетчиков — http://s2.ipicture.ru/uploads/20121115/7RIIQFhG.png (04.03.2014, прим — картинка уже не существует) . Заметно, что трафик с начала 2012 года начал очень хорошо расти, мы как раз начали более активно наполнять сайт, чаще публиковать новости. Яндекс долго «думал» прежде чем понять, что мы стали усерднее работать над сайтом и только в мае трафик начал расти. И я не знаю, с чем связано столь резкое падение посетителей с Google, ведь развитие сайта было всегда в одном направлении, просто стали добавлять больше статей. Все статьи уникальные, мы их пишем сами, хотя иногда я и проверяю, не своровал ли кто-то наши тексты.

    Поэтому и обращаюсь к вам за помощью. Может быть и правда, причина в тех самых ссылках, о которых я говорил в самом начале письма.

    Мы очень ждем вашего ответа.
    Спасибо, что выслушали и прочитали такое большое письмо.

    Как вы понимаете, прикидываться валенком было бесполезно, ни ответа, ни какой-то иной реакции на мое письмо не последовало. Я продолжал грустить.

  • В апреле 2013 наступило озарение – задумался про траст, запилил скрипт-парсер маджестика, попутно выдвинул гипотезу, решил провести . А еще через пару дней пришла мысль из разряда, а что если... Что если создать программу для автоматизации оценки имеющихся ссылок и будущих доноров!? И началась разработка (в мае).
  • 26 июня 2013 случился . Как вы знаете, случился такой ажиотаж вокруг программы, что я вообще забил все кроме программы, а времени не хватало даже на сон.
  • Летом на эксперимент я забил, но не забыл. За месяц до релиза программы на самом первом рабочем прототипе я первым делом прогнал базу доноров GGL и стал закупаться понемногу ссылками с самых трастовых сайтов (Траст > 50, Спам
  • Параллельно закупу ссылок я скачал полный список беклинков из Google WMT и из панели вебмастера Яндекса. Совместил эти таблицы, добавил в FastTrust и полностью проверил. На выходе получил список сайтов по самым жестоким фильтрам (Траст 7) и, сформировав txt-файл, использовал инструмент Disavow Tools . Под раздачу по таким критериям попали около 95% сайтов, требовались жестокие меры. Данный txt-файл я загрузил в Disavow 11 сентября 2013:

  • 5 октября 2013 года случается апдейт алгоритма в Google, и видимость сайта резко улучшается, запросы из ниоткуда возвращаются в пределы ТОП10-ТОП30. Казалось бы – вот она Победа! Но…

«Мир уже никогда не будет прежним»

Помните те графики в начале поста? Я их сделал через несколько дней после снятия фильтра. Я был полон оптимизма, наблюдая растущий график по Liveinternet’у и смотря на тут «пипку», похожую на появившийся пульс после остановки сердца, на графике Яндекс Метрики…

Я уверен, вы хотите знать, что сейчас происходит, какие сейчас графики и вообще.
Вот, пожалуйста.

Статистика по трафику с Google по данным Яндекс Метрики за 2 года (период 26 февраля 2012 – 26 февраля 2014):

Не совсем понятно что там на графике происходит. Поэтому ниже предлагаю вам два графика из Liveinternet (среднесуточная посещаемость) с группировкой по месяцам и по неделям:



Вы думаете, какая-то фигня, АлаичЪ нас обманывает! На графике по месяцам и правда можно подумать, что это не больше чем «пук в лужу». Но на графике по неделям видно, что в первый же день трафик вырос в 2 раза и продолжал расти дальше. Далее провал, связанный с новым годом, а так же всплеск, связанный с ним же. Делать еще какие-то выводы из этих графиков я не берусь, но совершенно отчетливо видно, что падений нет, но, к сожалению, нет и роста…

Почему это – Победа!

Вы не поверите, насколько сильно мне хочется вернуть былую славу моего сайта в глазах Гугла, насколько сильно мне хочется вернуть и еще увеличить трафик. Разумеется, чтобы таки начать копить на яхту, ведь я же живу теперь совсем около моря))) Но чудес не бывает, зато бывают победы, и эта одна из них.

Открывайте картинку по ссылке ниже в новой вкладке в полный размер и смотрите. Первым признаком снятия фильтра и улучшения самочувствия сайта в целом является улучшение видимости в выдаче. На графике видно, что видимость сайта улучшилась с 5000 до 8000 показов. После этого в течение 2 недель видимость увеличилась до 12 000, но скриншота этого графика у меня нет, а сейчас вернуться в те времена нельзя, история хранится только за последние 2 месяца. Другими словами, видимость сайта выросла более чем в 2 раза. А ниже графика вы можете видеть изменение видимости каких-то отдельных запросов, их CTR и средней позиции.

Ну и вот вам еще более конкретный пример моей статистики – реальные запросы и изменение их позиций. Историческая сводка по позициям ключевых слов от июня 2012 года до октября 2013. Напомню, что апдейт алгоритма Пингвина случился 5 октября 2012 (фильтр наложен) и 5 октября 2013 (фильтр снялся).

Так же хочу обратить ваше внимание на сами ключевые слова (я их не стал скрывать), это часть из списка моих ориентировочных ключей – это самые ВЧ ключевики в нише (во всяком случае, по тем временам, например, один только запрос «японская диета» дает 1000+ переходов в день, это без длинного хвоста). Я рассчитывал вывести их в топ в течение еще нескольких месяцев, и это потенциально давало мне 30-50 тысяч посетителей ежедневно. Но как в известном ролике «пацан к успеху шел», да не дошел. Я специально для мониторинга выбирал ВЧ, т.к. НЧ и СЧ отлично и сами сидели стабильно в топе, мониторить их смысла особого и не было.

Вот вам еще один график с изменением позиций по маркерным ключам после снятия фильтра . Немного более наглядно, чем исторический график:

Не знаю, что тут еще добавить, графики все наглядно показывают. Но у нас остается открытым чуть ли не самый важный вопрос – а почему все случилось именно так?

Причины и следствия

Итак, есть у меня несколько идей и мнений на тему, почему все произошло именно так, а не иначе, почему трафик восстановился не полностью, почему, почему…

Начну издалека. Знаете ли вы, что существуют специальные форумы Google для вебмастеров, где можно напрямую пообщаться с официальными представителями поиска и обсудить интересующие вопросы? Более всего нам будет интересен форум про индексирование и ранжирование сайтов , где обсуждаются вопросы о взаимодействии сайтов с поисковой системой и их положении в поисковой выдаче.

Конкретно там обсуждаются проблемы, связанные с наложением фильтра, там можно «запалить» свой сайт, если не боитесь и обсудить, почему же вашему сайту стало плохо. Лично я боюсь там обсуждать свой сайт, там валенком не прикинешься, там растерзают на месте, я уже достаточно видел случаев полного морального уничтожения вебмастеров:)

Вот просто для затравки вам несколько ссылок, связанных с наложением Пингвина:
Сайт резко «упал» по всем поисковым запросам
Помогите выйти из под автофильтра

Если почитать несколько топиков, можно заметить, что в обсуждениях отвечающие очень умело оперируют данными по беклинкам из Solomono – скрыться от алгоритма можно попытаться, а от людей – никак. Если вы действительно нарушаете правила, вас моментально разоблачат.

Короче, не о том речь. Выше я вам просто дал полезные ссылки, которые стоит почитать. Но вел я к тому, что я там однажды наткнулся на длинную переписку одного вебмастера и представителя Гугла . Заключалась переписка в следующем – на сайт наложили ручной фильтр, пользователь воспользовался Disavow Links, но эффекта не получил, решил спросить, что делать и как дальше жить. Сначала выяснилось, что он просто некорректно создал txt-файл со списком ссылок для отклонения, далее выясняли, откуда взялись ссылки и как их удалить, часть удалили, часть осталась, решили отклонить. В процессе всего это цирка, который длился около месяца, вебмастеру несколько раз отказывали в снятии ручного фильтра, с горем пополам он наконец смог создать и загрузить правильный список ссылок для отклонения и его приняли. О чудо! Ручной фильтр сняли…

Вы не поверите, но сайт вебмастера не поднялся в выдаче – он просел и потерял даже самые плохие имеющиеся позиции! Фееричная развязка, не так ли? Далее было все еще смешнее – вебмастер умолял наложить обратно на его сайт фильтр, чтобы вернуть хоть какие-то позиции. В итоге дело кончилось ничем — поохали, поахали и разошлись с миром. Зато я хорошо помню объяснение представителя Гугла на счет повторного падения позиций. Он сказал что-то в духе: «А что вы хотели?! Вы отклонили ссылки, они теперь не учитываются, а ваш сайт, может быть, только за счет них и держался хоть на каких-то позициях, теперь эти ссылки не учитываются, вот и позиций тоже нет».

Верить представителям ПС нельзя, но и не верить тоже нельзя. Возможно поэтому одной из причин, почему трафик на моем сайте не вернулся к прежнему уровню, стал именно неучет анкорных ссылок . А я, будучи совершенно бесстрашным человеком, продвигал все по-хардкору – анкорные ссылки с точным вхождением ключевиков (но без повторов, просто очень большой набор кейвордов). В итоге на сайт к моменту наложения фильтра было куплено около 300 ссылок на 50 000р в GGL и еще 300 ссылок на 30 000р в RotaPost. Ссылки покупались максимально тематические — в статьях по теме на соответствующих сайтах. Еще одно тому подтверждение, что тематика сайта мало что решает, а совсем другие факторы отвечают за то, будет ли ссылка работать и не наложат ли фильтр. Кстати, я же потом проанализировал купленные мной ссылки, оказалось, что большая часть сайтов, на которых стоят эти ссылки, заспамлены и не трастовые совсем. Поэтому почти все купленные ссылки и отправились в Disavow, а ведь когда-то они прекрасно работали…до поры до времени.

Когда трафик с Гугла начал падать, с Яндекса он начал расти. Видимо, только тогда до Яндекса дошло, что я начал покупать ссылки, он начал их постепенно индексировать и учитывать. После фильтра в октябре я сразу перестал покупать ссылки, но Яндекс долго их учитывал, потому рост шел аж до февраля. Согласно эксперименту, летом 2013-ого я начал закупать трастовые ссылки, до Яндекса это дошло только в октябре-ноябре, зато хорошо дошло, посещаемость выросла с 3000 до 5000 в сутки. Так что под Яндекс ссылки с хороших сайтов продолжают рулить.

Как правильно отфильтровать некачественные ссылки

Я писал, что находил некачественные беклинки своей программой. Но программа есть не у всех, и далеко не у всех есть возможность ее купить, я это прекрасно знаю. И поэтому месяц назад, в конце января, я незаметно анонсировал наш новый мини-сервис под названием BackLinks Checker , цель которого как раз поиск и фильтрация некачественных ссылок .

Вы просто загружаете файл, скачанный из панели вебмастера Гугла, а сервис сам проанализирует каждый сайт. Когда анализ закончится, будет сформирован готовый txt-файл, который прямо сразу без каких-либо правок можно будет загрузить в Google Disavow Tools. Алгоритмы отбора некачественных сайтов основываются на опытах и наблюдениях, можете мне доверять!

И главное – стоимость такой проверки до смешного мала – 5 копеек за один проверенных хост! Обратите внимание, что я сказал не URL, а хост. В вашем файле с беклинками может быть и 50 000 ссылок, но ссылок с уникальных доменов там может быть всего 300, например. Соответственно и плата возьмется в размере 300*5=1500 копеек = 15 рублей! Где вы еще такое видели, чтобы проверка 1000 ссылок стоила вам всего 50 рублей!

Что касается продвинутых пользователей , которые хотят контролировать каждый шаг и решать все самостоятельно, ты в данный момент мы работаем над большим сервисом под названием CheckTrust — релиз его пока не состоялся, но уже я успел сделать анонс в Москве на конференции AllInTop Conf. Сервис в стадии беты, но вы можете регистрироваться уже сейчас и полноценно им пользоваться. При регистрации каждому будет выдано 500 бесплатных проверок. Если говорить кратко, то этот сервис – аналог программы FastTrust в вебе, а к своему релизу он обрастет новыми уникальными возможностями, которых у программы нет и не будет. Пользуйтесь на здоровье и не забывайте сообщать обо всех найденных багах!

О том, как получить список некачественных ссылок я вам рассказал. Но как говорится в том самом анекдоте – есть нюанс! И нюанс этот взялся из публичных заявлений представителей Google, высказываний на форуме поддержки вебмастеров и, собственно, из писем-уведомлений о наложении ручных санкций на сайт:

«Исправьте или удалите все искусственные ссылки, не ограничиваясь приведенными выше примерами. Возможно, для этого Вам придется связаться с веб-мастерами соответствующих сайтов. Если Вы не смогли добиться удаления каких-либо ссылок, воспользуйтесь инструментом для отклонения ссылок. Однако помните, что недостаточно просто внести в него все подозрительные ссылки: отправляя запрос на повторную проверку, необходимо продемонстрировать, что Вы сделали все возможное для удаления искусственных ссылок с других ресурсов».

Так вот нюанс заключается в том, чтобы не тупо загрузить список ссылок в Disavow, но создать видимость того, что вы приложили все силы к тому, чтобы избавиться от «плохих» ссылок. Если вы арендуете ссылки в sape, то просто перестаньте это делать. А если вы покупали вечные ссылки, как это делал я, то можете попытаться связаться с вебмастерами и договориться удалить ссылки. Но я решил забить на нюанс, опасаясь за Яндекс, и потому ограничился только инструментом Disavow.

В качестве послесловия

Надо сказать, что все вышеописанное актуально и для снятия ручного фильтра Google Penguin , когда вам приходят сообщения в панель вебмастера об искусственных входящих ссылках. В этом случае задача упрощается, вам не надо будет гадать, все ли вы сделали правильно, вы просто чистите ссылки, отправляете запрос на пересмотр и ждете результата, если необходимо повторяете процедуру. Все просто. А вот мануалов по избавлению от автоматического Пингвина я пока не встречал.

Вот так совершенно незаметно вы прочитали более 20 000 знаков, при этом мне пришлось упустить некоторые моменты, поэтому обязательно задавайте вопросы, уточняйте, вместе попытаемся всю недостающую информацию раскрыть в комментариях .

Надеюсь, что мой пост оказался для вас полезным и заставил задуматься о правильных вещах!

Успехов и побед вам, дорогие друзья, в борьбе с фильтрами. Но еще лучше – не попадайте под фильтры вообще!

Спасибо за внимание, до связи.

С уважением, Александр Алаев

Несмотря на то, что изме­не­ния в алго­рит­мах Google – одна из самых живо­тре­пе­щу­щих тем в сфере SEO , мно­гие мар­ке­то­логи не могут с уве­рен­но­стью ска­зать, как именно алго­ритмы Панда, Пинг­вин и Колибри повли­яли на ран­жи­ро­ва­ние их сай­тов.

Спе­ци­а­ли­сты ком­па­нии Moz поды­то­жили наи­бо­лее зна­чи­мые изме­не­ния алго­рит­мов Google и бук­вально раз­ло­жили по полоч­кам инфор­ма­цию о том, за что отве­чает каж­дое обнов­ле­ние.

Google Панда – Инспектор по качеству

Алго­ритм Панда, глав­ной целью кото­рого явля­ется повы­ше­ние каче­ства резуль­та­тов поиска , был запу­щен 23 фев­раля 2011 года. С его появ­ле­нием тысячи сай­тов поте­ряли свои пози­ции, что взбу­до­ра­жило весь Интер­нет. Пона­чалу опти­ми­за­торы думали, что Панда штра­фует сайты, заме­чен­ные в уча­стии в ссы­лоч­ных схе­мах. Но, как позже стало известно, борьба с неесте­ствен­ными ссыл­ками не вхо­дит в круг пол­но­мо­чий этого алго­ритма. Все, чем он зани­ма­ется, – это оценка каче­ства сайта.

Чтобы узнать, не угро­жает ли вам опас­ность попасть под фильтр Панды, ответьте на такие вопросы:

  • Стали бы вы дове­рять инфор­ма­ции, раз­ме­щен­ной на вашем сайте?
  • Есть ли на сайте стра­ницы с дуб­ли­ро­ван­ным или очень схо­жим кон­тен­том?
  • Вы бы дове­рили дан­ные вашей кре­дит­ной кар­точки подоб­ному сайту?
  • Содер­жатся ли в ста­тьях орфо­гра­фи­че­ские или сти­ли­сти­че­ские ошибки, опе­чатки?
  • Ста­тьи для сайта пишутся с уче­том инте­ре­сов чита­те­лей или же только с целью попасть в резуль­таты поиска по опре­де­лен­ным запро­сам?
  • Есть ли на сайте ори­ги­наль­ный кон­тент (иссле­до­ва­ния, отчеты, ана­ли­тика)?
  • Выде­ля­ется ли ваш сайт среди кон­ку­рен­тов, кото­рые выда­ются вме­сте с ним на стра­нице резуль­та­тов поиска?
  • Поль­зу­ется ли ваш сайт авто­ри­те­том в своей сфере?
  • Уде­ля­ете ли вы долж­ное вни­ма­ние редак­ти­ро­ва­нию ста­тей?
  • Предо­став­ляют ли ста­тьи на сайте пол­ные и инфор­ма­тив­ные ответы на вопросы поль­зо­ва­те­лей?
  • Вы бы стали добав­лять сайт/страницу в закладки или реко­мен­до­вать его дру­зьям?
  • Могли бы вы встре­тить подоб­ную ста­тью в печат­ном жур­нале, книге или энцик­ло­пе­дии?
  • Не отвле­кает ли вни­ма­ние чита­те­лей реклама на сайте?
  • Уде­ля­ете ли вы вни­ма­ние дета­лям при созда­нии стра­ниц?

Какие именно фак­торы учи­ты­вает Панда при ран­жи­ро­ва­нии сай­тов, навер­няка не знает никто. Поэтому лучше всего сфо­ку­си­ро­ваться на созда­нии мак­си­мально инте­рес­ного и полез­ного сайта. В осо­бен­но­сти вам нужно уде­лить вни­ма­ние таким момен­там:

  • « Недо­ста­точ­ный» кон­тент. В дан­ном кон­тек­сте тер­мин «недо­ста­точ­ный» под­ра­зу­ме­вает, что кон­тент на вашем сайте не пред­став­ляет новизны или цен­но­сти для чита­теля, так как не рас­кры­вает тему долж­ным обра­зом. И дело вовсе не в коли­че­стве сим­во­лов, так как ино­гда даже пара пред­ло­же­ний может нести нема­лую смыс­ло­вую нагрузку. Конечно, если боль­шин­ство стра­ниц вашего сайта будут содер­жать обрывки тек­ста из несколь­ких пред­ло­же­ний, Google сочтет его нека­че­ствен­ным.
  • Дуб­ли­ро­ван­ный кон­тент. Панда посчи­тает ваш сайт нека­че­ствен­ным в том слу­чае, если боль­шая часть его кон­тента ско­пи­ро­вана из дру­гих источ­ни­ков или если на сайте есть стра­ницы с дуб­ли­ро­ван­ным или схо­жим кон­тен­том. Это рас­про­стра­нен­ная про­блема Интер­нет-мага­зи­нов, кото­рые про­дают сотни това­ров, раз­лич­ных лишь по одному пара­метру (напри­мер, по цвету). Чтобы избе­жать этой про­блемы, исполь­зуйте тег canonical.
  • Нека­че­ствен­ный кон­тент. Google любит сайты, кото­рые посто­янно обнов­ля­ются, поэтому мно­гие опти­ми­за­торы реко­мен­дуют еже­дневно пуб­ли­ко­вать новые мате­ри­алы. Однако если вы будете пуб­ли­ко­вать нека­че­ствен­ный кон­тент, не пред­став­ля­ю­щий цен­но­сти для поль­зо­ва­те­лей, то такая так­тика при­не­сет больше вреда.

Как выйти из-под фильтра Панда?

Google еже­ме­сячно обнов­ляет алго­ритм Панда. После каж­дого обнов­ле­ния поис­ко­вые роботы пере­смат­ри­вают все сайты и про­ве­ряют их на соот­вет­ствие уста­нов­лен­ным кри­те­риям. Если вы попали под фильтр Панда, после чего внесли изме­не­ния на сайте (изме­нили недо­ста­точ­ный, нека­че­ствен­ный и неуни­каль­ный кон­тент), пози­ции вашего сайта улуч­шатся после оче­ред­ного обнов­ле­ния. Учтите, что, ско­рее всего, вам при­дется ждать вос­ста­нов­ле­ния пози­ций несколько меся­цев.

Google пингвин – Охотник за ссылками

Алго­ритм Google Пинг­вин был запу­щен 24 апреля 2012 года. В отли­чие от Панды, этот алго­ритм наце­лен на борьбу с неесте­ствен­ными обрат­ными ссыл­ками .

Авто­ри­тет и зна­чи­мость сайта в гла­зах поис­ко­вых систем во мно­гом зави­сит от того, какие сайты на него ссы­ла­ются. При этом одна ссылка с авто­ри­тет­ного источ­ника может иметь такой же вес, как десятки ссы­лок с мало­из­вест­ных сай­тов. Поэтому раньше опти­ми­за­торы стре­ми­лись всеми воз­мож­ными путями полу­чить мак­си­маль­ное коли­че­ство внеш­них ссы­лок.

Google научился рас­по­зна­вать раз­ные мани­пу­ля­ции с ссыл­ками. Как именно рабо­тает Пинг­вин, известно только его раз­ра­бот­чи­кам. Все, что известно опти­ми­за­то­рам, так это то, что этот алго­ритм охо­тится за нека­че­ствен­ными ссыл­ками, создан­ными веб-масте­рами вруч­ную с целью повли­ять на пози­ции сайта. Сюда отно­сятся:

  • покуп­ные ссылки;
  • обмен ссыл­ками;
  • ссылки с нере­ле­вант­ных сай­тов;
  • ссылки с сай­тов-сател­ли­тов;
  • уча­стие в ссы­лоч­ных схе­мах;
  • дру­гие мани­пу­ля­ции.

Как выйти из-под фильтра Пингвин?

Пинг­вин – такой же фильтр, как и Панда. Это озна­чает, что он регу­лярно обнов­ля­ется и пере­смат­ри­вает сайты. Чтобы выйти из-под филь­тра Пинг­вин, вам нужно изба­виться от всех неесте­ствен­ных ссы­лок и ждать обнов­ле­ния.

Если вы доб­ро­со­вестно после­ду­ете реко­мен­да­циям Google и не будете пытаться полу­чить ссылки нечест­ным путем, то смо­жете вер­нуть себе рас­по­ло­же­ние поис­ко­вых систем. Однако чтобы вер­нуть пер­вые пози­ции, вам не доста­точно будет про­сто уда­лить нека­че­ствен­ные ссылки. Вме­сто них вам нужно зара­бо­тать есте­ствен­ные редак­тор­ские ссылки с тра­с­то­вых сай­тов.

Google Колибри – самый «понимающий» алгоритм

Алго­ритм Колибри – это совсем дру­гой «зверь». Google объ­явил о запуске этого обнов­ле­ния 26 сен­тября 2013 года, но он также упо­мя­нул о том, что этот алго­ритм дей­ствует уже на про­тя­же­нии месяца. Вот почему вла­дельцы сай­тов, пози­ции кото­рых упали в начале октября 2013 года, оши­бочно пола­гают, что они попали под фильтр Колибри. Если бы это дей­стви­тельно было так, они ощу­тили бы дей­ствие этого алго­ритма на месяц раньше. Вы спро­сите, а что же в таком слу­чае послу­жило при­чи­ной сни­же­ния тра­фика? Ско­рее всего, это было оче­ред­ное обнов­ле­ние Пинг­вина, кото­рое всту­пило в силу 4 октября того же года.

Алго­ритм Колибри был раз­ра­бо­тан для того, чтобы лучше пони­мать запросы поль­зо­ва­те­лей. Теперь, когда поль­зо­ва­тель вво­дит запрос «В каких местах можно вкусно поесть в Ека­те­рин­бурге», поис­ко­вая система пони­мает, что под сло­вом «места» поль­зо­ва­тель под­ра­зу­ме­вает ресто­раны и кафе.

Как поднять себя в глазах Google Колибри?

Поскольку Google стре­мится как можно лучше пони­мать поль­зо­ва­те­лей, вы должны делать то же самое. Созда­вайте кон­тент, кото­рый будет давать мак­си­мально раз­вер­ну­тые и полез­ные ответы на запросы поль­зо­ва­те­лей, вме­сто того, чтобы зацик­ли­ваться на про­дви­же­нии по клю­че­вым сло­вам.

В заключение

Как видите, все поис­ко­вые алго­ритмы пре­сле­дуют одну цель – заста­вить веб-масте­ров созда­вать каче­ствен­ный, инте­рес­ный и полез­ный кон­тент. Помните: Google посто­янно рабо­тает над повы­ше­нием каче­ства резуль­та­тов поиска. Созда­вайте кон­тент, кото­рый помо­жет поль­зо­ва­те­лям найти реше­ние их про­блем, и пер­вые места в выдаче вам гаран­ти­ро­ваны.


Мы все хорошо знаем, дорогие друзья, как поисковые системы корпят над своими алгоритмами, фильтрами и так далее, чтобы как можно четче выдавать простым обывателям сети Интернет то, что они ищут. Но эти самые алгоритмы параллельно проводят и чистку сети от того же спама или некачественных ресурсов, которые всеми правдами или не правдами как-то очутились в ТОПе. «Так дело не пойдет» - как-то так думают умы поисковых гигантов, и в очередной раз с этой мыслью вышли ребята из Google.

Так уже вторую неделю «гудит» вебмастерская часть сети и большинство негодует: «Google ввел что-то с чем-то и эта адская смесь порезала наши позиции, что в свою очередь сократило трафик». Да, действительно, анализируя конкуренцию в интересных мне нишах, я заметил серьезные перемены. Трафик на многих конкурентных ресурсах был срезан на 10, 20, 50, а то и больше процентов. Да что там далеко ходить, посмотрите на некоторые seo блоги, непривычно видеть посещаемость в 150-200 пользователей в сутки.

Итак, что же там нахимичил Google…

В 20-х числах апреля 2012 года в сети появилось сообщение от разработчиков Google приблизительно следующего содержания:

«В ближайшие дни мы запускаем важное изменение алгоритмов, направленных на Webspam. Изменения снизят рейтинги сайтов, которые как мы считаем, нарушают требования Google к качеству сайтов»…

В ночь с 24 на 25 апреля был введен новый алгоритм Google – Google Penguin (Гугл Пингвин ). Любовь к животным Google вызвала много шума. На том же Серче образовалось несколько тем с огромным общим числом страниц (более 500) обсуждения нового алгоритма Google Penguin. Недовольных как всегда оказалось значительно больше, чем довольных, ведь довольные тихо сидят и не палят свои наработки, которые только на «Ура» съел Гугловский Пингвин.

Давайте для начала ознакомимся с теми самыми основными требованиями к качеству сайтов, которые выдвигает Google:

  1. Не используйте скрытый текст и скрытые ссылки. Google, да и не только Google, давно идут под флагом человеколюбия. То, что не видит человек, понимается и воспринимается поисковиками как попытка повлиять на выдачу поиска, а это сравнимо с манипуляциями и пресекается в виде песимизации или еще какой «порчи». Помнится, одно время был очень модным скрытый текст, еще бы, ведь он давал эффект. Черный текст на черном фоне с оптимизацией определенной, ты попадал на страницу и недоумевал, а где то, что показывал поисковик.
  2. Не используйте клоакинг или скрытую переадресацию. Не нужно пытаться выдавать поисковому роботу одну информацию, а пользователю другую. Контент должен быть единым для всех. По поводу переадресации, то тут любителей сорвать денежку с перенаправления или продажи мобильного трафика, Google решил немного разочаровать.
  3. Не отправляйте автоматические запросы в Google.
  4. Не перегружайте страницы ключевыми словами. Этот принцип уже давно поддерживался Яндексом и позиционирование против переоптимизированности сайтов явно убивало работу приверженцев напичкать сайт ключами. Если раньше можно было напичкать статьи ключами и радоваться трафиком с Google, то теперь, как видите и сами понимаете, не все так просто. Но тут же не стоит забывать про пользовательские факторы или так называемые поведенческие факторы. Если они на хорошем уровне, то даже легкая переоптимизированность не проблема, ведь поведенческие факторы пользователей всегда были, есть и скорее всего, будут в приоритете. Только здесь уже все несколько сложнее – сами представьте, что нужно дать и в каком объеме, чтобы эти самые поведенческие факторы были на высоте. Это говорит о том, что контент действительно должен быть высокого уровня и интереса, а не легенький рерайт с конкурирующего сайта или лидера ниши.
  5. Не создавайте страницы, домены и поддомены, которые в значительной степени повторяют содержимое основного сайта или любого другого. В этом пункте гугловцы сразу соединили воедино свои взгляды по поводу аффилированности, сеток сайтов, дорвеев, копипаста, а также рерайта низкого качества.
  6. Не создавайте вредоносных страниц, таких как фишинг или содержащих вирус, троянов или другого вредоносного программного обеспечения. Этот пункт не стоит вообще как-то разжевывать, бой вирусам одним словом.
  7. Не создавайте дорвеев или других страниц, созданных только для поисковых систем.
  8. Если ваш сайт работает с партнерскими программами, то убедитесь, что он представляет ценность для сети и пользователей. Обеспечьте его уникальным и релеватным содержимым, что в первую очередь будет привлекать пользователей к вам.

Эти 8 принципов Google выделил как основные. Но так же есть и еще 4, которые особо отмечены были ими же:

  1. Создавайте страницы сайта в первую очередь для пользователей, а не для поисковых систем. Не используйте маскировок или других схем работы с сайтами, будьте предельно прозрачны.
  2. Не пытайтесь хитростью повысить рейтинг сайта в поисковых системах.
  3. Не участвуйте в схемах построения ссылок, разработанных для повышения рейтинга вашего сайта в поисковых системах или Google Page Rank. В частности, избегайте ссылок спам-вида, на линкпомойках или плохих соседей по серверу (обращаю ваше внимание на анализ и просмотр соседствующих сайтов, если ваш сайт размещен на обычном шедер хостинге).
  4. Не используйте не разрешенные программные решения для автоматического обращения к Google. Сами разработчики выделяют такие как WebPosition Gold ™.

Но все вроде бы и раньше было известно всем, кто интересовался вопросом.

В работе нового алгоритма Google Penguin (Гугл Пингвин) меня удивило четкое соблюдение принципа «заряженности рекламой» первой страницы. Помните, говорилось о том, что первая страница (главная страница) не должна быть перегружена рекламой. Google Penguin четко начал соблюдать этот принцип. Он порезал трафик у сайтов с несколькими большими блоками рекламы на главной, даже если эти блоки были своей же – реклама Google Adsense. 🙂

Наблюдения по работе Google Penguin

Теперь хотелось бы перечислить ряд собственных наблюдений. Я понимаю, они приблизительны, и представляют мои личные наблюдения и данные (показатели могут быть восприняты как относительные), но они имеют место быть, и имеют право на существование. Анализировал я работу 20 сайтов, как своих, так и своих партнеров. Анализ занял у меня 3 дня, и я оценивал массу показателей. Как вы понимаете, все сайты продвигались разными схемами и по разным алгоритмам, имели разные абсолютно показатели, что дало возможность сделать ряд выводов.

1. Точное вхождение. Если раньше, чтобы быть в Google в шоколаде, нужна была масса точных вхождений, то теперь с Google Penguin (Гугл Пингвин) все в точности также да наоборот. Это быть может как раз и есть та самая борьба с Webspam. Яндекс давно любил разбавления анкоров, вот дело дошло и до Google.

  • страницы с внешними ссылками точного вхождения 100% - просадка составила 75-90%. Среднее падение примерно на 38 позиций;
  • страницы с внешними ссылками точного вхождения 50% - просадка составила 15-20%. Среднее падение примерно на 9 позиций;
  • страницы с внешними ссылками точного вхождения менее 25% - замечен рост 6-10%. Средний подъем 30 позиций.

Исходя из этих данных, я сделал вывод – разбавляем анкоры и разбавляем как можно интереснее и глубже.

Яркий пример – запрос «gogetlinks» на данном блоге. Точные вхождения значительно преобладают над разбавленными, и вот результат:

2. Покупка временных ссылок. Временные ссылки я покупал на добивку или быстрый результат на всех анализируемых ресурсах и с разных систем. Это были и Sape, Webeffector, Seopult и ROOKEE.

Генераторы автоматического продвижения Webeffector и ROOKEE дали приблизительно одинаковые результаты. Просадка практически не замечена вообще, лишь небольшая на Webeffector, но она незначительна и больше связана с разбавлением анкоров. В остальных моментах даже рост наблюдается, что там говорить, вот скриншот кампании (кликабельно):

Что же касается Sape, то здесь совсем другая картина. Просели все проекты, на которые покупались ссылки в Sape. Все запросы, которые двигались в этой бирже улетели из ТОП 100 и даже собирать статистику, куда же они там улетели, стало как-то напряжно, что в итоге я делать и не стал.

Анализируя воздействие Гугл Пингвина на продвижение с Sape, сделал вывод, что расстановку ссылок этой биржи Google воспринимает теперь как не естественную.

Здесь начал активно снимать ссылки. Но смысл приводить свои примеры, когда можно показать вам яркие и из нашей же ниши. Возьмем блог моего товарища - Сергея Радкевич upgoing.ru . Человек работал с Sape несколько месяцев и радовался росту трафика, пока не пришел Гугл Пингвин. Смотрим:

Тут же стоит посмотреть на график источников поискового трафика:

Как видите, Гугл Пингвин снизил трафик с Google в 7 с лишним раз.

Вывод по этому пункту, что все же какие-то фильтры нужно применять при работе с временными ссылками и какие-то алгоритмы простановки и закупки. Автоматические сервисы как раз работают по определенным схемам в отличие от той же Sape. Результаты на лицо, между прочим.

У сайтов с Seopult вообще намечен рост позиций. Здесь я применял алгоритм Seopult Max для Яндекса, но как вижу, теперь он работает и с Google.

3. Переоптимизированность контента. Здесь замечен также спад, но не такой значительный как у предыдущих параметров. В пределах 10 позиций потеряло всего 10-15% переоптимизированных статей.

Здесь я делаю вывод, что не так страшно слегка переоптимизировать, давая себе какие-то гарантии. А более низкий показ можно нагнать с помощью покупки ссылок.

4. Вечные ссылки. Запросы, продвигаемые вечными ссылками с нормальным и естественным видом, только серьезнее прибавили в выдаче. Некоторые ВЧ ВК повылазили в ТОП 20 без каких-либо манипуляций, за счет заметного падения большей части конкурентов. Здесь я очередной раз делаю вывод, что моя работа по направлению продвижения ТОЛЬКО вечными ссылками правильна.

1. Примите во внимание всю вышеприведенную информацию и поработайте как над содержимым своего сайта, так и над его продвижением.

2. Проверьте наличие уведомлений от Google в Google Webmaster Tools с наличием сообщения о спамерской активности вашего ресурса. Для этого заходим на http://www.google.com/webmasters/ , авторизуемся. Далее заходим в статистику своего сайта и переходим в раздел сообщения (кликабельно):

Если все же будут сообщения, то необходимо будет принять меры по решению указанных в сообщениях проблем. Это может быть и удаление ссылок... Не все йогурты одинаково полезны... 😉

3. Проверьте сайт на наличие вредоносных программ в Google Webmaster Tools:

Решение вопроса как и в предыдущем пункте. Определяем программы и файлы помеченные Google как вредоносные, находим их на сервере, или заменяем или удаляем.

Если все совсем плохо, и вы опустили руки, то заполните форму и подпишитесь под созданной петицией к Google против Google Penguin . Это, конечно, ничего не гарантирует вам, но хотя бы момент маленького самоудовлетворения и чувства «Я сделал все что мог» обязательно наступит. По этой же теме можно через форму обратной связи обратиться к разработчикам алгоритма.

Лично я потерял немного, так как основной упор делал на действительно СДЛ и продвижение вечными ссылками. От негатива избавился в течение 2-х дней и начал расти с прежним темпом. Ну а кто любил делать все быстро и легко – вам остается по большей части жевать сопли.

Как сказал один мой знакомый: «Теперь халтуру будет видно. Любителей быстрого, дешевого и легкого ждут большие перемены. Срывающие банк на продвижении простых смертных в сети при этом, откровенно халтуря, потерпят фиаско и выслушают массу претензий со стороны клиентов»…

Свои мысли по поводу Пингвина Гугл или результаты перемен вы можете выложить в комментариях.

Всем удачных и качественных перемен!

В школе:
- Дети, придумайте предложение с выражением "Чуть было".
Коля:
- Наша Оля чуть было не стала королевой красоты!
Петя:
- В субботу мы с мамой чуть было не опоздали на электричку...
Вовочка:
- Сегодня утром мы с Лёхой едва не загнулись с похмелюги, но у нас чуть было...

Известно ли вам, что поисковые алгоритмы Google учитывают более 200 факторов ранжирования и степень важности каждого из них индивидуальна для каждого отдельно взятого сайта? А знаете ли вы, что в течение года Google совокупно вносит более 500 изменений в свои алгоритмы и перед полноценным внедрением каждая измененная версия тестируется на небольшой выборке пользователей поисковика?

Сегодня мы поговорим, пожалуй, о самом известном алгоритме Google – Penguin («Пингвин»).

Что такое Google «Пингвин»?

Google «Пингвин» – это алгоритм, созданный для борьбы некачественными сайтами и с веб-спамом. Датой его «рождения» считается 24 апреля 2012 года. Чтобы не попасть под действия алгоритма, Google приводит ряд рекомендаций, которые необходимо учитывать при продвижении сайта в этой поисковой системе. Вот некоторые из них:

    на сайте не должно быть автоматически сгенерированного контента;

    на сайте не должно быть страниц с неоригинальным или дублированным контентом;

    сайт не должен предоставлять неодинаковый контент или разные URL пользователям и поисковым системам;

    переадресация на другой URL не должна применяться для обмана поисковой системы;

    запрещено использовать скрытый текст и скрытые ссылки с целью влияния на рейтинг сайта в результатах поиска Google;

    на сайтах, участвующих в партнерских программах, свой собственный контент должен превалировать на контентом, предоставляемым партнерской площадкой;

    ключевые слова на странице должны полностью соответствовать ее содержанию;

    запрещено создание вредоносных страниц для фишинга и установки вирусов, троянов или другого вредоносного ПО;

    запрещено некорректное использование разметки для расширенных описаний веб-страниц;

    запрещена отправка автоматических запросов в Google.

Если на вашем сайте выявлено что-то из данного списка и он попал под санкции «Пингвина», то выйти из-под них можно будет только при очередном апдейте алгоритма и только в том случае, если на сайте исправлены ошибки, приведшие к пенализации. С каждой новой версией «Пингвина» частота апдейтов возрастает, а значит, скорость выхода из-под санкций тоже увеличивается.

На что влияет Google «Пингвин»

Алгоритм влияет на ранжирование сайта. Некоторые говорят, что это не понижение в поисковой выдаче, а лишь отправка сайта на ту позицию, которую он должен занимать на самом деле. Но это не совсем верное утверждение, так как понижение позиций в выдаче связано с наличием и оценкой веса негативных факторов сайта, и, как мы уже писали выше, для каждого сайта степень влияния негативных факторов индивидуальна, а это уже пенализация.

Алгоритм и ручная модерация

Напоминаем, что «Пингвин» – это автоматизированный алгоритм, и он всегда будет работать как автоматизированный алгоритм. Но существует еще и такое понятие, как «ручная модерация» сайта, что также может привести к пессимизации позиций в поисковой выдаче. При этом и алгоритмическая, и ручная модерации могут проводиться на вашем сайте одновременно. Стоит заметить, что выход из-под санкций алгоритма «Пингвин» происходит автоматически, но, чтобы выйти из-под санкций, наложенных в режиме ручной модерации, необходимо связываться с техподдержкой Google и сообщать о том, какие шаги были предприняты для исправления ошибок на сайте.

Определение проблемы

Для определения причин пенализации сайтов алгоритмом «Пингвин» необходимо проверить внутренние факторы, как, например, чрезмерная «тошнота » ключевых слов на странице. Переспамленный ключевиками текст, и другие манипуляции – это то, что нужно проверить и исправить в первую очередь в случае попадания сайта под санкции «Пингвина».

Есть еще одна распространенная причина пенализации - наличие внешних спам-ссылок на ваш ре сурс. Как правило их появление связано с попытками проведения самостоятельной внешней SEO-оптимизации, в процессе которой некоторые владельцы сайтов прогоняют его через бесплатные каталоги, доски объявлений и тому подобные низкокачественные площадки. Чтобы избежать подобных проблем, лучше всего либо обращаться к проверенным SEO-специалистам, либо доверять продвижение сайта автоматизированным системам, таким как SeoPult, которые имеют свои настроенные фильтры и отсеивают некачественные площадки, недопуская их к клиенским сайтам. Если же вы занимались SEO самостоятельно и получили ссылки со спам-площадок, то стоит провести ссылочный аудит, чтобы определить, какие ссылки негативно влияют на ваш сайт и какие из них стоит удалить или отключить от учета поисковиком (с помощью инструмента Google Disavow Tools). Получить список внешних ссылок для аудита можно через Google Webmaster Tools . Но так как Google может видеть не все ссылки, список стоит дополнить, используя сторонние инструменты, такие как: Bing Webmaster Tools , Ahrefs , Majestic , Open Site Explorer и SEMrush . Все они имеют свои базы ссылок, которые могут дополнить список Google Webmaster Tools.

Инструмент Disavow (отклонение ссылок)

Как только вы получите полный список внешних ссылок и определите, какие из них повлияли на пенализацию вашего ресурса, вы сможете отклонить их учет в поиске Google. Для этого существует инструмент Disavow Tool , содержащий список ссылок, влияние которых на ваш сайт необходимо перестать учитывать. Джон Мюллер из Google говорит, что этот инструмент аналогичен тегу, только направлен для использования на внешних ресурсах. Вы можете запретить к индексации как отдельные внешние ссылки, так и все ссылки, ведущие с конкретного домена. Джон говорит, что добавления ссылок в Disavow более чем достаточно для выхода из-под санкций «Пингвина». В случае если вы попали под ручную модерацию (пенализацию), вам следует записывать все свои действия, предпринятые для выхода из-под санкций и позже сообщить о произведенных изменениях в службу поддержки.

Запрос на повторную проверку

В случае получения ручной пенализации единственным способом выхода из-под санкций является подача запроса на повторную проверку в кабинете Вебмастера Google. Отправлять его нужно только после того, как вы, с вашей точки зрения, исправили все, что могло привести к пенализации сайта. В запросе необходимо указать, какие ошибки вы выявили и какие шаги предприняли для их исправления. Чем более подробным будет описание ваших действий, тем выше вероятность скорого выхода из-под санкций Google.

Качественные ссылки, которые помогут выйти из-под санкций «Пингвина»

По словам уже известного нам Джона Мюллера из Google, выйти с наименьшими потерями времени и усилий из-под санкций «Пингвина» или вовсе под них не попасть может помочь разумное соотношение большого количества качественных внешних ссылок к малому количеству спам-ссылок. К сожалению, точного количественного соотношения качественных ссылок к некачественным никто не знает, потому старайтесь систематически проверять качество вашей ссылочной массы и при обнаружении веб-спама сразу же удалять их или добавлять в Disavow.

Черное SEO

Черное SEO – это способ борьбы с конкурентами, при помощи которого можно сильно понизить позиции конкурентной площадки в поисковой выдаче. Одним из таких способов, например, является «ссылочный взрыв ». Но стоит помнить, что инструменты черного SEO не всегда могут быть эффективны, особенно если они применяются к сайтам с высоким трастом и качественной ссылочной массой . В ряде случаев ссылочный взрыв может сыграть в плюс сайту-конкуренту, так как новые ссылки (даже некачественные) могут значительно «утяжелить» накопленную качественную ссылочную массу и, вместо негативного эффекта, вывести сайт конкурента на более высокие позиции (относительно прежних). Также стоит отметить, что Google учится распознавать манипуляции конкурентов и защищать сайты, против которых они направлены.

Заключение

Определить самостоятельно, попал ли сайт под санкции Google, довольно сложно, особенно если они имеют алгоритмический, а не ручной характер. В Google модератор уже внесено предложение о том, чтобы в кабинет веб-мастера добавить инструмент, позволяющий определить наличие санкций «Пингвина» или «Панды», наложенных на тот или иной сайт, или отсутствие таковых. Если эта функция будет добавлена, то станет гораздо проще диагностировать и исправлять ошибки сайта, выявленные конкретными алгоритмами.