Биржа контента CM

Решение проблем индексации

Всем приветик. Неожиданно для себя столкнулся с проблемой индексации страниц моего блога. Долго не заходил в ГоГетЛинкс, а когда зашел оказалось, что 4 обзора до сих пор не проиндексировано и осталось всего 14 дней. Ну я как обычно взял и прогнал эти урлы по своим твиттер аккаунтам. Это всегда помогало при проблеме с индексацией. Но в этот раз этого оказалось недостаточно. Поэтому я решил рассказать читателям о том, как я боролся за добавление позабытых страничек в индекс.

Сразу отмечу, что если апа не случится завтра с утра, то моя 100% индексация снизится на несколько пунктов. Уже не так красиво будет выглядеть. Но как бы то ни было…

Итак, как я боролся за свой индекс. С удивлением узнал, что в webmaster.yandex.ru добавили новый сервис «Проверить URL» Там можно проверить конкретный адрес сайта который не индексируется. Ключевой момент заключается в том, что высвечивается конкретный статус странички. Всего их пять:

  1. В данный момент адрес страницы неизвестен роботу – то есть робот еще ни разу не заходил на сайт
  2. Адрес страницы уже известен роботу, но в данный момент контент страницы ещё не проиндексирован. Это значит, что скорее всего, ваша страничка появится в индексе в следующий апдейт
  3. Страница была проиндексирована роботом и присутствует в поиске. Ну здесь все понятно
  4. Страница обходится роботом, но отсутствует в поиске. Скорее всего проблема технического плана запрет в роботсе, мета роботсе и т.п.
  5. Страница обходится роботом, но отсутствует в поиске, поскольку дублирует уже имеющиеся на вашем сайте страницы. А этот пункт уже указывает на то, что страничка дублирует уже имеющиеся аналоги.

Как яя уже говорил, 4 пункт это технические запреты. Здесь самое важное – отсутствие запрета на индексацию сайта. Если написать в файле robots.txt «Disallow: /», поисковые системы не будут индексировать сайт, т.к. вы запретили им это делать (disallow – запретить, / – корневой каталог). Проверьте этот файл. Если запреты отсутствуют, подумайте, нужно ли вам абсолютно все в выдаче – как правило, имеются и «мусорные» (или системные) страницы. Их лучше запретить. Также нужно проверить, нет ли у вас meta-тега robots – он тоже влияет на индексацию.

Следующий пункт – поисковик должен знать URL-адрес страницы. Уведомить поисковую систему о таком адресе можно, нужно воспользоваться страницами с добавлением адреса в очередь на индексацию (вебмастера такие страницы называют «аддурилками», от английских add и url – аддурл). Впрочем, для Яндекса лучше всего купить одну-две ссылки со страниц, уже известных поисковику. Дело в том, что аддурилка этой поисковой машины работает достаточно медленно.

Ну и безусловно, не всегда нужно работать, иногда хочется расслабиться и отвлечься от оптимизаторских проблем. В этом случае прекрасно подойдет ваш телефон с какой-нибудь заранее установленной интересной игрой. Если у вас возникают проблемы, рекомендую посмотреть экшн игры на андроид на сайте AndroidNewGames. Рекомендую установить игру KingdomRush в стиле Tower Defence. Прекрасно помогает расслабиться и отвлечься от насущных проблем.

Популярность статьи: 1%

Почитайте связанные посты:


Опубликовано в рубрике: Поисковые системы
Биржа контента Etxt

Комментариев (4) на “Решение проблем индексации”

  1. vektor48:

    блин…как избавиться от дублей страниц на wordpress…уже замучился

  2. Lee:

    Robots.txt, meta name robots вам в помощь )

  3. Websash:

    Адрес страницы уже известен роботу, но в данный момент контент страницы ещё не проиндексирован. Это значит, что скорее всего, ваша страничка появится в индексе в следующий апдейт

    Сколько ждать такой апдейт, страницы появляются в поиске где-то через 2 недели.. как ускорить?

  4. Lee:

    Чо то мне кажется вам не удастся ускорить апдейты Яндекса. Как только, как говорится, так сразу :)

Написать ответ

Вверх