Все с нетерпением ждут фильтра для статейников

1 Апрель, 2016 Блог маркетолога

Сегодня в рассылке Серча вышла интересная статья: Что ждет SEO-отрасль после Минусинска, где автор (Евгений Тарасов) предрекает запуск текстового фильтра у Яндекса, ранее в чане и по seo блогам шли слухи об Ижевске. Впрочем, не важно как будет называться (а будет ли?!).

Все ждут, все надеются. И главное — у большинства стойкая уверенность, что их это не затронет, что новый фильтр очистит поляну от конкурентов и будет счастье. Так или иначе, инфо сайты, статейники никуда не уйдут. Что-то порежется — самое унылое, в остальном — пользователям нужны ответы на вопросы, ну не магазинами же забивать выдачу.

ИМХО, вырастет роль авторского экспертного контента (в своём тренинге для копирайтеров — я уделил этому особое внимание). Прокачиваем авторов.

Вернусь к статье из Серча, несколько цитат:

Как известно, существует два кворума качества документа, от которого зависит, будет данный документ проиндексирован/оставлен в индексе или нет. Если подобного качества документов много в интернете, то ему будет сложно пройти кворум полезности среди уже имеющихся. А если сайт, на котором размещается такой документ, имеет высокий траст, и обеспечивает на этом документе некоторый внутренний трафик (т.е. прошедший кворум полезности для данного сайта), то это является основанием оставить его в индексе.

Работаем над сайтом в целом, не только точечно по статьям. Для меня траст — это в основном удержание аудитории (не буду развивать мысль, а то уйду далеко от темы).

Наиболее известной метрикой бесполезности документа на сайте является семантическая похожесть или дублирование. Оптимизаторы давно знают, что дубли могут быть причиной плохого ранжирования сайта, но грядущий фильтр не ограничится этой метрикой. Он будет пессимизировать за количество страниц, участвующих в ротации индексации.

Вспоминаем Окама и не множим сущности без необходимости.

Для древних коммерческих сайтов тоже это будет очень актуально, поэтому рекомендую в ближайшем будущем потихоньку избавляться от непопулярных страниц или запрещать их в robots.txt, давая знать поисковику о том, что они для сайта имеют лишь архивную ценность и не претендуют на участие в ранжировании.

А я предпочитаю дорабатывать страницы, приносящие мало трафика. Анализирую данные за последний месяц, смотрю, какие страницы приносили трафик меньше определённого порога (разный для каждого проекта). Добавляю информации, или таки через 301 редирект склеиваю с какой-то большой статьёй по данному вопросу, перенеся предварительно и контент и комментарии.

Новый фильтр будет точно также, как Минусинск апдейтиться и иметь два фактора — по числу ненужных страниц и по их качеству.  …. пороги нового фильтра будут точно также увеличиваться с каждой итерацией и косить говностатейники в первую очередь.

Как быть новостникам, блогам, где процентов 80 публикаций — утратили актуальность?

Во всяком случае, я надеюсь что новый фильтр, если он случится, как и предыдущие — будет обратим. Будет честны — нам есть что дорабатывать на наших статейниках и красивое форматирование, картинки, видео, содержание — не делают статьи полезными.

Автор поста:
  1. Гебельс

    Когда Яндекс зафильтрует себя, за дутые пугалки?

  2. jkeks

    Ко мне пришел филльтр АГС— за говностатьи с SEO ссылками… Основая фигня там в том что анкоры коммерческие.. и их как мусора..
    Кста готовлю новый Дайджест http://seo-today.ru

  3. Вася

    Ой все. Ну ждите, ждите. А еще главное ничего не делайте. Ждите, когда место освободится, и возможно это будет ваше время начать. Придете к успеху, однако.

  4. Александ

    будем откровенны, 90% статейников — это унылые тексты с непонятным содержанием (сужу, как пользователь), если они пропадут из выдачи, я буду только рад. Сейчас ситуация такая — открываешь 10 сайтов по запросу, что подарить девушке, и на всех 10 сайтах одинаковые по смыслу статьи, только с легким рерайтом.

  5. seoonly.ru

    Ижевск — город Пузата)) Тонкий тролинг не более

  6. Copywriter

    Это вы по поводу первого апреля поддержали миф о фильтрации статеников? Или всерьёз?

    Зачем дополнительно фильтровать, и так с плохим контентом получить топ сложно, какой смысл в дополнительных потугах?

  7. Егор

    Пока не порезал яндекс, самому порезать страницы без трафика. Такой выход?

Оставить комментарий


Adblock
detector