Есть несколько методов ускорить индексацию сайтов и отдельных страниц поисковиками.Суть их сводится к тому, что надо как можно быстрее скормить поисковым роботам ссылку на наш ресурс. Стало быть наша цель найти сайты, которые часто посещают «быстроботы» в поисках свежего контента, и разместить там свою ссылку.
1. Где часто бывает новый контент? На новостниках. Новостники продают ркламу. Покупаем в разумных пределах, если сайт новый, то 1-й хорошей ссылки будет достаточно. Через несколько часов, после появления ссылки на доноре, страница (не весь сайт) как правило, в индексе, ссылку можно снять.
2. Задействуем Твиттер. Хорошо работают популярные аккаунты. Просто делаем твит с ссылкой. Как правило в течение часа страница появляется в Яндексе (даже с нового, неиндексированного сайта). Можно купить десяток рекламных твитов — ориентируемся не на количество, а на качество аккаунтов) — относительно недорогое удовольствие.
3. Пинг сервисы + сделать карту сайта и добавить её, как и сам сайт в Яндекс Вебмастер и аналогичный сервис Гугла, поставить Аналитику и Метрику.
Здесь ускорение индексации сайта в поисковых системах происходит благодаря прямому пингу и пингу через сервисы-посредники поисковых систем с тем, чтобы указать на появление новых страниц на вашем сайте или указать на обновление старых.
Почему Яндекс или Гугл не индексирует сайт?
Нормальный сайт, уникальный контент, десяток твитов, несколько ссылок в GGL. Уже месяц прошёл, а в индексе 0.
Знакомая ситуация?
В чём причины того, что сайт не индексируется поисковиками Google и Yandex?
- Сайт просто еще не найден поисковиками Яндекс и Гугл.
Что делать?
- добавить сайт в Яндекс и Google вебмастер, а также в поисковые системы (Add url).
После этого сайт появится в выдаче в течение нескольких часов или дней.
- Сайт закрыт от индексации в мета тегах (noindex).
Поисковики могут не видеть сайт или отдельные его страницы по той причине, что он закрыт мета тегом. Проверьте код основных страниц. Выглядит это так: <meta name=»robots» content=»no index, nofollow»>
Такой код может быть внедрён, например, через шаблон. Или оставлен на время разработки сайта, чтобы ничего лишнего не попало в выдачу. Ещё вариант — такой код может автоматически добавляться CMS, если указаны соответствующие настройки.
- Сайт заблокирован от поисковых ботов через в .htaccess
Найдите в корне сайта файл с названием .htaccess и в его коде посмотрите, не закрыт ли сайт. Пример кода: SetEnvIfNoCase User-Agent «^Googlebot» search_bot
- Ошибки сканирования.
Поисковым роботам сложно дойти до нужных страниц, если возникает много ошибок при сканировании сайта. Это легко проверить. Заходим в Google Webmaster Tools: сканирование – ошибки сканирования.
- Проблемы с индексацией JavaScript и AJAX.
Google индексирует JavaScript и AJAX, но нужны правильные настройки.
- Страницы сайта или веб-ресурс закрыт в robots.txt
- Бан домена.
Такое бывает, что можно сделать:
- В случае с Яндексом направить запрос на пересмотр блокировки, и узнать в чем была ее причина.
- В случае с Google постараться выяснить причину, написав на форуме.
- Развивать и дальше свой проект в надежде, что он выйдет из бана. Бывает ли такое? Да, бывает — в частности adne.info был в бане поисковых систем и вышел оттуда.
- Нестабильная работа сервера или очень медленная загрузка сайта.
В ремонте — нагрузки очень большие создавал — много пользователей.
а где ваш сервис для ускорения индексации?