Очень много говорится о продвижении по НЧ запросам. Я бы хотел снова поднять эту тему и дать простой рецепт по подбору таких ключевых слов и страниц для продвижения.
Чем хорош этот подход, так это тем, что используется уже имеющийся на вашем сайте контент. Это работает только для сайтов, уже получающих трафик с поисковиков. Основной упор делаем на Яндекс, но, как правило, Гугл откликается раньше.
- Собираем ключевые слова: парсим свою статистику — чем больше, тем лучше.
- Парсим Яндекс на позиции по собранным кеям — к каждому кею находим страницу из поиска и определяем её позицию.
- Отсеиваем ключевики, оставляем только те, которые находятся с 3-й по 20-й позицию.
- Проверяем частотность по выбранным ключевикам.
- Оставляем только ключевики с определённой частотностью, например от 30 и до 900.
Самый трудоёмкий процесс позади. Зато теперь у нас на руках «золотая» база кеев и соответствующих им страниц — немного поработав над ними можно существенно увеличить трафик на сайте.
Если вам этот процесс показался сложным или долгим — чуть ниже дам решение по упрощению задачи. А пока совсем немного слов о том, что делать с полученной базой. Я вижу 3 основных пути:
- Внутренняя перелинковка.
- Доработка контента (контент маркетинг).
- Прогон по социалкам и форумам (крауд маркетинг).
- Более сложный вариант: делаем страницы прокладки под 10-20 ссылок. Прокачиваем социалками (их, кстати, можно под СЧ заточить).
Здравствуйте! Очень интересный и полезный пост, хоть и краткий. Но как говорится краткость … продолжать я думаю нет смысла! Спасибо! Жду новых полезных статей. С уважением, Валерий Бородин!!!
У меня вопрос, а плагин перелинковки аднелик ещё работает под нужды перелинковки? Там ведь как раз можно вставить запросы уже полученные и отобранные и автоматически влинковать их в страницы.
По сколько одинковых запросов рекомендуешь ссылаться, например есть 1 НЧ, с 1 анкором, сколько им раз можно ссылаться в рамках одного сайта?
А что за «Более сложный вариант: делаем страницы прокладки под 10-20 ссылок»? что имеется в виду?
Ну вот например я нашел такие кеи, по котором следует подтянуться в выдаче. Как раз как вы писали: в выдаче на 18 странице, частотность 140. Теперь буду делать вручную перелинковку по этому кею: (буду проставлять анкор = этому запросу в теле статей.) Вопрос — как мне понять, сколько нужно сделать таких внутренних ссылок? От чего это зависит?
Так ведь в этом и заключается синтаксис. ! — точное вхождение => для словосочетаний: «!word !word» -> точное вхождение (на что и нужно ориентироваться)
Я работал с ним по ключам. Помимо того что подобрал, так еще и пару вопросов по продвижению задал ему, и получил нормальный ответ. Поэтому ключи + консультация = считаю неплохо. Особенно учитывая, что сам я не хотел копаться в этих ключах
Подбор кеев за 50$ для одного сайта.
KeyCollector именно столько и стои ))) кхе-хе лучше его взять.
Пробую продвигать сайт за счет социалок и внутренней перелинковки результаты есть, сайт находиться по большому количеству ключей но вот их позиции хромают наверно надо покупать ссылки для веса.
По вашей рекомендации заказал подбор НЧ у Max1mus.
Получил отличную подборку ключей.
С самыми «жирными» буду работать вручную. Остальные буду автоматизировать.
Спасибо большое Max1mus и вам за советы и рекомендации.
Заказывал услугу подбора НЧ ключей сначала к 1-му крупному сайту (он в подписи), после проделанной работы заказал еще на 5 сайтов.
5 сайтов сделал для Яндекса, один для Гугла.
Все сделано в лучшем виде.
Заказывал на свой проект сбор статы через кеколлектор — после подгонки под НЧ существующих страниц + создание прокладок среди упущенных НЧ-смежных запросов — трафик вырос с 800 до 1000 уников в первые две недели после аппа выдачи.
Дальше думаю и еще больше будет.
Так что тема рабочая и весьма недорогая при сопостовлении цены и результата.
На точную, т.е. на «!»
Саш, ты прям нагло пиаришь меня тут -)) Моего коммента здесь ни одно, поэтому подключаюсь к диалогу, и тоже хочу сказать несколько слов по поводу всего того, что уже было сказано. В частности, о нецелесообразности этих заказов на подбор. Итак:
1. Во-первых, если у вас интернет-магазин, и вам нужно подобрать для него ключи, то есть сделать одноразовую работу, то зачем вам покупать КК?
2. Во-вторых, сегодня очень остро стоит проблема с прокси. Если вам нужно обработать сайт с приличным количество страниц в индексе, то одним айпи вам не обойтись, потому что будете либо неделю все это обрабатывать, либо сольете кучу бабла на антикапчу. А сколько сегодня стоят хорошие, быстрые seo прокси, можете сами посмотреть на сервисе глобател. Да там при желании купить, не всегда еще и есть свободные прокси на продажу. Глобател как раз являются лидерами на рынке. Хотя в последнее время тоже начинают сдуваться. То есть, проблема двойная получается: а) нужно бабло на прокси б) попробуй еще найди нормальные прокси.
3. В-третьих, когда ко мне обращаются за подбором семантического ядра, то здесь цена намного выше стандартно парсинга, потому что в данном случае используются базы пастухова+платный аккаунт semrush, который сами можете посмотреть, сколько стоит на сегодняшний день. А в большинстве случаев базы пастухова я подключаю и при обычном парсинге. Так что могу сказать, что использовать один лишь КК — это примитивно. Кстати, при подборе семантического ядра часто заказывают сначала парсинг сайта, чтобы найти слова, занимающие высокие позиции, а потом еще семантическое ядро. То есть, нужно удалять дубли из списков, вычитать из одних списков ключевиков, другие списки и многое другое. Скажите, зачем владельцу интернет-магазина или крупного сайта, приносящего нормальный доход, этот геморой с проксями, настойками программ, антикапчей, этими всеми оценками и т.д. Зачем, когда можно скинуть несвойственную себе задачу другому?
4. В-четвертых. Часто ко мне обращаются люди, которые мало чего понимают в этих вещах, либо начинающие. И часто простой, казалось бы, подбор ключевиков, перерастает в обширную консультацию. Те, с кем я работал, знают, что я всегда подробно отвечал на все интересующие вопросы, касающиеся того, как наиболее эффективно использовать ключевики при продвижении. То есть, помимо непосредственно подбора клиенты получают еще и консультацию. Я на этих ключевиках «собаку съел», я этой темой оччееенннььь интересуюсь даже не из коммерческого интереса, а из личного, поэтому мне всегда есть что подсказать по этой части клиентам, которые может быть чего-то не знают. В итоге получаешь ключевые слова, и консультацию. А найти того, кто тебя нормально проконсультирует бесплатно и компетентно, это тоже еще нужно постараться, по себе знаю
У меня есть еще много аргументов, но просто и так написал уже балладу целую, поэтому все, буду сворачиваться -))
«с определённой частотностью, например от 30 и до 900»
на какую частотность нужно ориентироваться: базовую или «!»?
Конечно, лучше самому — кто, как не вы знает свой сайт и тематику? Хотя человек со стороны может подсказать иногда весьма интересные направления даже в хорошо знакомой вам тематике. Плюс если речь идёт об 1-2х сайтах не всегда целесообразно покупать под это софт и т.д. И, конечно, экономия времени + не у всех есть знания того, как подобать эффективные кеи, а Max1mus — человек в этом деле опытный.
А не лучше самим заниматься подбором кеев?
Купите KeyCollector он стоит меньше пятидесяти долларов, но и ливинтернет ван пропарсит и выдачу проверит и отфильтровать все можно и файл для сапа подготовит.
Здравствуйте. Вы бы не могли подробнее расписать процесс сбора ключевых слов. Просто не совсем понятно как это делать. Конечно можно заказать, но хотелось бы и самому научиться это делать.
У меня как-то при посещалке за 5к VDS пришлось сменить на сервер, а тот лёг когда за 11-12k переваливало (вордпресс очень тяжёл), а если бы к такому плагину добавить ещё и аналитику по кеям… в общем для себя сделал вывод, что базу кеев лучше готовить отдельно, оставлять только наиболее выгодные (тут можно тещё с гугл аналитиксом поиграть в плане достижения целей), а перелинковку уже делать на основе статичной базы кеев, например, в текстовой файл залить ссылки и по определённому алгоритму выводить их в постах.
неперспективные кеи не отсеиваются, с этим проблема есть. как-то писал ребятам, которые делали плагины эти, про то же самое. но зато затраты на порядок меньше — установил за 1 минуту и «забыл». по нагрузке — у «молодых» сайтов с 500-1000 человек в сутки работают обычно без проблем. когда 4-5 тысяч из поиска уже идет, то на виртуальном хостинге может и лечь — но с таким трафиком уже и стимулы появляются о чем-то более существенном задуматься. или хотя бы памяти добавить:)
Ставил подобные решения, они страдают: а) не высокой эффективностью — не отсеиваются неперспективные кеи, в предлагаемом посте методе — работа идёт только с тем, что реально принесёт больше трафика, б) нагрузка: ежели сайт посещаем то отлавливать кеи и делать одновременно перелинковку — очень напряжно для сервера (по крайней мере на тех решениях, что пробовал).
Хотя, поэкспериментировать несомненно стоит — личный опыт лишним не будет.
мне кажется, многим контент-проектам задачу можно упростить, поставив плагин типа nsx-referers и просто подождав пару месяцев, пока внутренняя перелинковка по этим самым НЧ произойдет сама и естественным путем:)
Я сейчас пробую продвигать страницы по нескольким десяткам НЧ. То есть сами страницы, в общем-то, заточены под СЧ-ВЧ, продвигаются вечными ссылками, а в дополнение к этому закинул в руки хвосты микро-НЧ