В индекс Гугла и Яндекс за день!

Вместо вступления напомню свои мысли о поисковиках. Суть в том, что поисковики, точнее программисты, создали роботов и наделили их возможностью управляться. Управляться пользователями системы! Именно так. Владельцы сайтов и посетители сайта управляют роботом! Это ключевое. Остальное лишь следствие.

Мы же про индексацию сайтов говорим. При этом стоит учитывать, что все ниже написанное говориться с уклоном на Яндекс и Гугл. Про другие поисковики сведений у меня нет. Только могу подозревать, поскольку основной язык в мире всё же английский, то и работают они аналогично Гуглу. С чего такой вывод? Люди мыслят шаблонами и самое яркое выражение шаблонов - язык. Мысля одинаково - получаешь похожие результаты.

Обязательные условия.

Для быстрого попадания материалов в индекс требуется выполнение следующих обязательных условий:

1. Наличие сайта в вебмастере обеих поисковиков.

Добавилять новый сайт на этапе шаблона категорически не рекомендую. Вот перед началом наполнения контентом, даже не важно что он из себя представляет (статьи в блог, видео, товар в интернет магазине, социальный контент), настоятельно советую. Причем, учтите очень важный момент. Давайте время роботам переваривать материал. Особенно для новых сайтов на новыых доменах. Для роботов поисковиков, как для многих людей, правильное питание это "часто и по чуть-чуть". Хотя роботы всего лишь программы, но даже им легче систематизировать материал порциями, раскладывая по полочкам. Еще у них есть особенность - связываение ресурсов между собой. Метод от частного к общему. 

Применительно к человеку это выглядит так: ноготь - фаланга пальца - палец - кисть - рука - туловище - ноги - другая рука - шея - голова - человек. Можно идти и в обратном порядке. Такие данные поисковики любят и хорошо стыкуют, правильно ранжируя в запросах.

2. Материал на сайте уникальный.

Увидев плагиат роботы сразу ставят жирный минус сайту. Дело в том, что технические ресурсы, даже Яндекса и Гугла, ограничены. Обрабатывать и забивать сервера ненужной информацией накладно с финансовой точке зрения - требуется покупать дополнительное очень дорогое оборудование. В то же время позволить себе совсем не обрабатывать "плохие" сайты поисковики не могут - все же там может быть что-то стоящее. Вот только обрабатыывать они начинают такие ресурсы по остаточному принципу, иногда заходя посмотреть что там и как.

3. Периодличность выхода новой информации.

Роботы поисковиков анализирет частоту выхода получаемой информации (смотрят когда быстробот находит контент, дату на самом контенте если есть, анализирует логи сайта /возможно/). Скажем, как только робот засечет, что статьи публикуются ровно в 19 часов ежедневно без выходных, то, будьте уверены, каждый день в 19.05 будет приходить быстробот или даже основной робот поисковика и "кушать" информацию.

Важна не частота выхода информации, а периодичность. Периодичность может быть любой от ежечастно до раз в неделю. Но должна быть.

Откровенно говоря, есть способы нивелировать не периодичность. Но о них, возможно, в другой раз.

 

Это были условия обязательные. То есть если они выполняться не будут, то дальнейшие действия теряют всякий смысл. Никакими ковришками не заманишь робота раньше времени на сайт, которому он не верит. Прямо по Станиславскому робот всем видом покажет: "Не верю!"

Общие рассуждения о поисковых роботах.

Смотрите. Официально Яндекс говорит о наличии в его арсенале нескольких видов роботов. Есть основной. Есть дополнительные, которые отвечают за определенные части контента (текст, картинки, видео, флеш, товары, магазины и т.д). Есть быстробот.

Схема работы предположительно такая. Основной бот ходит с определенной частотой на сайт. Частота изначально задается примерно "раз в 2 недели". И по результатам работы изменяется в большую или меньшую сторону. Изменения, скорее всего, не значительны каждый раз. Так же предположительно на основного бота влияют дополнительные и, в особенности, быстробот.

Быстробот работает по принципу: "глянул на новенькое, переработал, часть временно в поиск добавил запросов, дал информацию основному боту".

Исходя из этих предположений и на основе личного опыта, можем сказать, что при правильном подходе ботов можно прикармливать и индексацию увеличить вплоть до моментальной (тот же твиттер, судя по всему, индексируется моментом, например).

Понимаю, что зачастил "предполагаю", "возможно", "судя по всему". Данные о ботах держаться в секрети и постоянно меняются алгоритмы работы. О чем никто не сообщает официально. Только обрывки информации, только личный опыт и опыт коллег.

Рекомендации по увеличению скорости индексирования.

0. Используйте сервисы GetBot (работает исключительно для Яндекса, платный /цена всего 2 рубля за страницу/) и Feedburner (исключительно для гугла).

1. Привести сайт в порядок. Роботы практически так же оценивают сайты как люди. Но они не "всё схавают".

- Удалить не нужный материал.

- Закрыть для роботов не предназначенные иму страницы. Это и служебные файлы, файлы движка, технические дубли страниц, информация о пользователях...

- Проверить и исправить битые ссылки, ведущие в никуда или на не правильные ресурсы.

- Структурировать данные. Например, с помощью микроразметки.

- Настроить удобную и понятную навигацию.

- Удалите лишние ссылки с сайта, закройте от индексации счетчики и справочную информацию.

2. Создайте и настройте RSS ленту.

3. Создайте и настройте feed ленту.

4. Новый материал прогоните через социальные сети. Много не нужно. Достаточно в 1-2 социалки кинуть информацию. Тут очень опасно слишком много дать ссылок и получить от ботов "по шапке". Если ссылка сама "подет в народ", то боты это просекут и большой плюс поставят ресурсу.

5. Сообщите Яндексу и Гуглу о новом материале напрямую. Никакие программные средства и социальные сети не заменят прямого и честного стука в дверь поисковика. Ссылки на страницы пингаторов с поямнениями.

6. Используйте сервис "оригинальные тексты" вебмастера Яндекса. Найти и включить его можно вебмастер - содерживмое сайта - сервис оригинальных текстов. Желательно использовать перед публикацией контента на сайте. Это достаточно хорошая гарантия от плагиата. Но гарантий яндекс не дает.

7. Связывайте статьи. Это называется перелинковка. Когда серия стетей ссылается друг на друга. Подходить к этому надо осторожно. Связать, например, статью о родах со статьей о путешествиях плохая идея. Причем несколько таких связок бота не напугают, а вот систематические такие пассажи на пользу не пойдут ресурсу. Вот перелинковка роды - таблетки - гимнастика будет выгодно смотреться.

8. Завоевывайте доверие поисковиков. Ссылки на сайт пусть ведут напрямую к статьям. По ссылкам должны переходить живые люди и читать. И, считаю, покупка поведенческих факторов бесполезна. Писал об этом. Ссылка в самом начале статьи. Продвигайте сайт статьями на других сайтах.

9. Избегайте взаимных ссылок с чужими сайтами. Роботы понимают, когда сайты принадлежат одному человеку и ссылаются друг на друга. Похоже такие ссылки учитывает как внутреннюю перелинков и без придания им значимости (веса). Однако, при взаимной ссылке разных сайтов, вес может передаться плохой да еще и есть риск попасть в черный список не благонадежных сайтов (а уж если они еще и с разной тематики...). Опять же. Иногда это прокатывает и даже идет в плюс, но при системе однозначно путь к понижению позиций или к бану.

10. Проверяйте сайт сервисом XT траст (кнопка слава на панели). Проблем не решит, но покажет куда развиваться и что дорабатывать.

11. Грамотно размещайте рекламу. Запретите рекламу к индексации. Реклама отдельный большой разговор. То, что более-менее однозначно:

- реклама с автоматических бирж (типа сапе) негавтивно сказывается на сайтах. Особенно молодых и маленьких. Пессимизация выдачи однозначна, а то и бан.

- реклама поставленная вручную при её минимальном количестве может быть плюсом сайту. И со стороны поисковика и со стороны посетителей. Например на сайте про собак рекламировать собачий корм, с условием что по ссылкам будет народ переходить.

- банеры, закрытые от индексации, заметного влияние на роботов не оказывают. Но и дохода с них при маленьком счетчике посещений почти никакого.

- никаких выпрыгивающих сообщений.

12. Программой отправлять пинги поисковым серверам. Например, pingxpertfree. С этим нужно экспериментировать. Вреда быть не должно.

 

P.S. Ну что могу сказать. Эта статья написана на этом, 6 дневном (ШЕТЬ ДНЕЙ) сайте. Домену 7 (семь) дней. Он даже в индексе яндекса еще не появился. Написана час-полтора назад. Сделал запрос в гугл по названию. В поиске уже есть! Фантастика?!

 

Приятной и быстрой индексации Вашим ресурсам.

Автор статьи: 
Рейтинг: 
Средняя: 5 (3 оценок)
Поделитесь статьей в социальных сетях.
На главную вернуться.