Что делать, если Вы попали под фильтр Google за входящие ссылки?
В апреле 2012 года Google выпустил алгоритм Пингвин, главная цель которого – это борьба с низкокачественным и покупными ссылками. Множество сайтов, которые закупали ссылочное подверглись пессимизации.
Еще через некоторое время Google стал извещать в своей панели (http://www.google.ru/webmasters/) о «ручных» санкциях за входящие ссылки. Слово «ручные» взято в кавычки, так как очень сомнительно, что этот фильтр действительно накладывается вручную.
Итак, мы имеем 2-ве разновидности санкций за входящие ссылки:
- Автоматический Пингвин без оповещений
- «Ручные» санкции
В первом случае происходит следующая ситуация с трафиком из Google:
Заметить не сложно, тоже самое должно отразится и на позициях.
Заметить «ручные» санкции еще проще – достаточно добавить сайт в панель Google для вебмастеров и в случае чего вам должно прийти «письмо счастья». Или же можно зайти в данную панель в раздел «Поисковый трафик — Меры, принятые вручную» и посмотреть наличие вот такой записи:
Снимаем фильтр Пингвина
Для этого нам понадобится официальный инструмент отклонения ссылок от Google: https://www.google.com/webmasters/tools/disavow-links-main. Поисковый гигант заявляет, что отправив туда файл с плохими сайтами-источниками ссылок, можно улучшить ситуацию. Также поисковик говорит, что все же желательно удалять ссылки, а не отклонять. Но это, скорее всего, связано с дополнительной нагрузкой на Google. Не всегда можно снять ссылки, да и есть ведь Яндекс и Mail, для которых эти ссылки могут работать в плюс. Так что лучше отклонять!
Сбор данных
В первую очередь нужно собрать все ссылки на сайт. Используем несколько источников:
- Все покупные ссылки
- Из панели вебмастеров Google
- Из Яндекс.Вебмастер
- Из https://www.linkpad.ru/ (бывший Solomono.ru)
- Из http://backlink.page-weight.ru/
- Другие ссылки на сайт, если известно об их существовании
Можно взять еще и другие источники, но по опыту можно утверждать, что этих более чем достаточно. Нам нужна как можно более полная картина по входящим ссылкам, только так можно будет сделать полноценный анализ.
Анализ
Предварительно из всех собранных ссылок нужно выделить только уникальные доноры. Далее загоняем их в программу Fast Trust (есть серверная версия https://checktrust.ru/backlinks-checker.html, не обязательно покупать прогу) на анализ.
Нам необходимы параметры:
- Траст
- Спам
- Количество входящих уникальных ссылок
- Количество исходящих уникальных ссылок
- Наличие на доноре фильтра АГС от Яндекса
- Данные по посещаемости из LiveInternet (если счетчик открыт)
- тИЦ
- PR
Фильтрация плохих доноров
На основе вышеописанных параметров вычисляем плохие доноры. Сразу выделяем всех, кто под АГС. Далее выделяем тех, у кого СПАМ выше 2. Разработчики Fast Trust советуют не покупать ссылку, если СПАМ выше 10. Параметр 2 был выведен на основе опыта снятия санкции для более чем 100 сайтов. Однако нужно смотреть на трастовые сайты с большим спамом, для них нужно делать скидку и не отклонять.
В целом можно было бы отклонить вообще все ссылки и избавится как от плохих, так и от хороших ссылок. Но нам нужно по максимуму сохранить хорошие линки.
Сайты с ТРАСТом ниже 10 нам тоже не подходят. Далее отсеиваем сайты, если входящих ссылок намного меньше исходящих (но, опять же, обращаем внимание на ТРАСТ). В зону потенциального отклонения также попадают сайты с низкой посещаемостью, а также с нулевыми тИЦ и PR. Это не значит, что при тИЦ 0 сайт плохой и его нужно сразу же отклонять. Смотрите на комбинацию факторов!
Ну удивляйтесь, если в список отклоняемых попадает до 90% всех ссылающихся доноров. Иногда приходится и по 95-98% отклонять, т.к. от Google несколько раз приходит ответ, что не все плохие ссылки еще отклонены и приходится дополнять файл.
Отклоняем ссылки
Нужно создать файл .txt вот такого вида:
Отклоняем именно домены, а не страницы. Вот еще некоторые требования к данному файлу:
- он должен быть в формате utf-8 без BOM
- файл не должен содержать ошибок — лишних записей
- последующая отправка отменяет предыдущую т.е. если будете отправлять файл несколько раз, то старый файл нужно обновлять/дополнять и затем отправлять
Файл нужно загрузить по адресу https://www.google.com/webmasters/tools/disavow-links-main для соответствующего сайта. После загрузки сразу же пишем запрос на пересмотр https://www.google.com/webmasters/tools/reconsideration?hl=ru&pli=1. В тексте пишем что-то вроде: «Нашли все ссылки на сайт, что смогли, проанализировали, отменили ссылки с низкокачественных сайтов». Много писать не нужно. Вообще, скорее всего, этот текст никто не читает.
Нужно обратить внимание, что запрос на пересмотр можно написать только в том случае, если у вас есть отметка о «ручных» санкциях в панели Google (см. выше). Если же данной отметки нет, то приходится просто отклонять плохие ссылки и надеяться. Выйти на переписку с гуглоидами и точно удостоверится в том, что санкции сняты в этом случае нельзя. Также условия фильтрации плохих ссылок в случае без «ручных» санкций более мягкие. Из практики можно сказать, что при «ручных» санкциях отклоняется порядка 80-90% ссылок, а без «ручных» — 50-70%.
Внимание! Нужно точно знать из-за чего у вас просел сайт, если не было извещения в панели Google. Возможно дело во внутренних факторах (фильтр Панда). Также это может быть комбинация Панда + Пингвин.
Вернемся к запросу на пересмотр при «ручных» санкциях. Вот мы написали его и ждем… Ждать ответа приходится, как привило, 2-3 недели. Если пришел ответ, что фильтр сняли – УРА! Если нет, то там должны быть примеры плохих ссылок. В этом случае нужно дополнить файл отклонения этими ссылками + пересмотреть параметры тех сайтов, которые еще не отклонялись, поднять планку качества и еще больше дополнить файл отклонения.
Далее те же действия – отклонить и написать запрос на пересмотр. Так может продолжаться несколько раз, пока не удастся снять фильтр.
Результаты
Вот несколько кейсов:
Не всегда трафик поднимается после съема санкций. Нужно иметь ввиду, что вы проработали только небольшую группу ссылочных факторов, а их гораздо больше. Плюс есть еще внутренние, поведенческие и коммерческие факторы.
Но вообще в целом карма сайта должна улучшиться.
Еще наблюдения
Чем больше мы покупаем ссылок (особенно арендованных аля-sape), тем выше вероятность словить пессимизацию. Еще замечено, что на этот фильтр сильно влияет разнообразие анкор-листа. При скудном анкор-файле получить санкции гораздо более вероятно.
Автор статьи: Андрей Гринь — http://seo-clinic.ru
Ну вот я после снятия ручных санкций вообще не заметил улучшения по трафику и позициям. Поэтому возможно есть ручной и автоматический вещи совсем разные и могут быть наложены внезависимости друг от друга.
Спасибо за отличную статью! Фильтр пока не получил, но для профилактических целей изучил и запомнил.
Информация актуальная. особенно если припомнить как часто гугл свое зверье обновляет, одну колибри до 500 раз в год, думаю пингвина не меньше. спасибо за пост
А как вы считаете, если «ручные меры» сняли, это же не означает, что автоматического «пингвина» (который без оповещений) теперь на сайте нет?
Т.е. могут быть и «ручные» меры и автоматический «пингвин» одновременно?
Просто по идее кроме говноссылок грешить больше не на что, почитал про «панду», по-моему не мой случай. Тема не особенно коммерческая, а с ПФ, закладочной аудиторией и добровольным расшариванием вообще все отлично.
ну так это совсем другой разговор! Поздравляю!
Письмо счастья, в смысле, что санкции отменили)
рад, что моя инструкция помогла.
Но, что сразу же через 6 дней опять письмо счастья — вот это странно. Я с таким не сталкивался.
Там за входящие ссылки опять, или что-то другое? Я бы этот вопрос поднял на официальном форуме Google для вебмастеров на вашем месте.
У меня прокатило)
Сделал как все здесь описано и меры сняли. Прошло около 6 дней и пришло письмо счастья)
Спасибо, решу этот вопрос.
Андрей, подскажите еще:
Запрос нужно сразу же отправлять после загрузки файла?
Или нужно ждать, когда Гугл отклонит эти ссылки в панели вебмастера?
СИГНАЛ:
Адне инфо — ребята, в Вашей несомнено полезной рассылке новых постов ссылки всегда через сликпро — этот домен уже в спам листах многих антивирусов, так что часто не позволяет по ним переходить. Будьте внимательны, так теряется значительная часть посетителей, которых просто не пустил антивирус!
Много сайтов так было очищено от фильтра? И что насчет разнообразия анкор-листа в этом случае? Могу предположить, что анкор-лист был очень разнообразный, как и должно быть в идеале.
да, запрос на пересмотр обязательно надо. Я думаю тот текст никто не читает, разве что робот только анализирует.
У меня с отклонением ссылок 50 на 50 прокатывает
А если «ручной» фильтр, после отклонения ссылок обязательно нужно на пересмотр заявку подавать? Просто у меня один фарм сайт попал под такой фильтр, боюсь, что после письма его совсем могут в гугле заблокировать.
смотрите на внутренние факторы, хороший сервис для анализа — seoto.me/.
Также есть поведенческие факторы и коммерческие (если у вас комм. тема). Тем более вы сами пишите, что трафика было ноль. Значит дело тут не только в санкциях за ссылки, а еще в чем-то.
Были «меры принятые вручную». Более полугода снимал ссылки с сайтов (писал всем на все контакты) и подавал несколько обращений на пересмотр, в конце концов сняли «меры». А вот трафика как было 0, так и осталось (с яндекса несколько тыс. в день идет, даже с маила где-то 400 уников в сутки).