По каким параметрам страницы попадают в поиск

Как работают поисковые боты

*Так выпьем же за кибернетику! (из фильма)

Как бы далеко пресловутая кибернетика не продвинулась, робот "мыслит" исключительно логически. Человек же мыслит образами. Например, словосочетание "зеленый мячик" у нас вызовет самые разнообразные ассоциации. Зеленым мячиком можем назвать любой предмет, который хоть сколько отдаленно похож на нечто зеленое и круглое, чем можно запулить. Для программы термин "зеленый мяч" это ровно набор букв "зеленый мяч". И ошибка в одну букву уже скажет боту, что это уже не "зеленый мяч".

Всё к чему. А к тому, что поисковые алгоритмы как бы совершенны они не были, очень "тупы" и "прямолинейны".

Сейчас придумали очень много наворотов. Это и лексические и синтаксические разборы текста. Это и синонимы. Сюда же идут и технологии эвристического анализа с нейронными сетями.

Как работали поисковые алгоритмы раньше

Самые первые результаты поисковой выдачи были на уровне:

1. Поисковик собрал все тексты и разложил их по словам.

2. Пришел запрос на поиск текста.

3. Робот берет и  находит документы где нужные слова встречались.

4. Из отобранных документов подсчитывает количество раз, сколько слова встретились.

5. Выдает в результате документ, где встретилось наибольшее количество слов максимальное количество раз.

Естественно, писатели текстов в интернете, начали просто много раз повторять фразу запроса на нужной страницы.

Поисковики посмотрели на это. И решили усложнить алгоритмы. Добавили критерий выделенного текста, котрый соответствовал запросу. 

И начали вебмастера выделять текст....

Вечная история...

Дальше алгоритмы начали учитывать сотни разноплановых параметров. Чего только тут нет. И количество ссылок, и качество сайта, и посещаемость, и анкоры текста, и околотекстовое окружение, и тематика сайта, и много-много чего... Сейчас в тренде идут так называемые поведенческие факторы и защищенные протоколы передачи данных.

Плавно подошли к основному вопросу.

По каким параметрам попадают страницы в поисковую выдачу

Точные параметры знают только разработчики поисковых систем. Держатся в секрете. И, самое главное, постоянно меняются.

На сегодняшний день очень много факторов, которые учитывают поисковики при фолрмировании выдачи. Для себя глобально выделил три фактора:

1. Доверие к сайту. Относительный показатель.Важно понимать, что Ваш сайт не должен быть самым лучшим сайтом в глазах Яндекса и Гугла. Ваш сайт должен быть лучше, чем сайт конкурента.

2. Тема сайта. Сайту о рыбалке невероятно сложно вывести в выдачу запрос из строительной сферы. Боты настроены, что сайт о рыбалке может и должен рассказывать о рыбалке и прилегающих отраслях.

3. Контент страницы. Содержание самой страницы. Что и как написано, оформлено и преподнесено.

С первыми двумя факторами работать можно только в долгую перспективу. Их нужно учитывать, но в рамках одного материала их изменить нельзя (мы же о странице и как из неё формируется выдача).

С контентом мы и будем работать.

Вернемся чуть назад по времени. Умные люди придумали специальные форматы, которые могли бы сказать поисковикам по каким запросам данная страница может быть показана. И... вебмастера начали просто вбивать туда продвигаемые запросы, причем текст основного материала не всегда им соотвествовал. Получалось, что пользователи приходили на ресурс, а ответ получали не соответствующий ожиданиям.

Далее только мои наблюдения и мои выводы. Могут не соотвествовать реальным алгоритмам работы поисковых ботов. Сегодня анализ страницы происходит следующим образом.

1. Новая страница попадает в обработку. Раскладывается на составляющие.

2. Проверятеся на соответствии тематики сайта.

Если тематика нарушена, то статья берется на заметку. При накоплении статей по новой тематике, может измениться тематическая принадлежность самого сайта. А пока статья в выдачу не попадет такая.

Тематика соблюдена - идем дальше.

3. Ключевые поля беруться "для сведения". В выдачу данные из них не попадают.

Проводил эксперименты. Заполнял ключевые поля различным образом. И в результатах поиска они не присутсвовали. Это не означает, что они не учитываются совсем. Означает, что озадачиваться и придавать им большое значение не стоит.

4. Анализируется сам материал.

Экспериментально выявлено, что основные запросы формируются из заголовков в статье. Причем заголовки должны быть осмысленно связаны с последующим текстом.

Для очень редких запросов могут использоваться в выдаче точные вхождения поисковых фраз. Например, если скопировать любое предложение из этой статьи, то практически наверняка на первой странице в выдаче будет ссылка на эту статью. Кстати, таким образом можно легко найти точную копию статьи в интернете.

5. Страница анализируется на предмет входящих и исходящих ссылок.

Ссылки важнейшее составляющее. Они показывают ботам взаимосвязи. Материалы по ссылкам должны "биться". Очень логично смотриться в статье про жизнь рыб ссылка на статью о червях, как элемент питания. И совсем иначе будет ссылка на ремонт потолков в той же статье про рыб.

6. Общие элементы: дизайн, юзабилити, грамотность, стилистика...

7. Поведение посетителей. Что и как они читают.

Вывод. Что и куда писать в статье

Ключевые запросы оформалять в заголовок материала, в заголовки нижних уровней. Запросы в разных словоформах в естественном порядке вписывать в текст. По большому счету заморачиваться не нужно. Просто пишите материал для посетителей по теме продвигаемого запроса. Запрос "сам" вставиться в нужные места в нужном виде.

Подчеркивайте или выделяйте нужные запросы. Это играет роль в восприятии текста полтьзователем и боты обращают на это внимание. Важно не переусердствовать. Лучше не выделить лишний раз.

Запросы в виде анокрных ссылок ставим с других публикаций сайта. Желательно подкрепить парочкой внешних ссылок с продвигаемыми запросами.

Поисковики хорошо обращают внимание на рубрику метариала. Например, все материалы под тегом "отзывы" почти гарантировано попадут в выдачу по запросу "отзыв о название статьи".

 

При выполнении этих условий, запрос из уникального материала, практически гарантированно попадет в поисковую выдачу. А вот ранжирование в ней и попадание в ТОП уже зависит от относительного траста сайта в данной и теме.

Важно отметить. Будут читать материал приходящие пользователи и по поведению робот поисковика оценит материал как хороший, то позиции в выдаче будут неуклонно расти. Поведенческими факторами очень хорошо и качественно можно поднять статью и сам сайт по нужным запросам. Вот только поведенческие факторы нужно закладывать на уровне сайта. Накрутка поведенческих факторов ведет к бану или понижении в выдаче.

 

Спасибо за внимание. Возможно, Вас заинтересует моя статья как за 10 минут и 2 рубля заставить Яндекс быстро проиндексировать новую страницу сайта.

Считаете статью полезной - опубликуйте ссылку у себя в социальной сети. Кнопки сбоку.

Автор статьи: 
Рейтинг: 
Средняя: 5 (2 оценок)

Добавить комментарий

Filtered HTML

  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Разрешённые HTML-теги: <a> <em> <strong> <cite> <blockquote> <code> <ul> <ol> <li> <dl> <dt> <dd>
  • Строки и параграфы переносятся автоматически.

Plain text

  • HTML-теги не обрабатываются и показываются как обычный текст
  • Адреса страниц и электронной почты автоматически преобразуются в ссылки.
  • Строки и параграфы переносятся автоматически.
CAPTCHA
This question is for testing whether or not you are a human visitor and to prevent automated spam submissions.
3 + 5 =
Решите эту простую математическую задачу и введите результат. Например, для 1+3, введите 4.

Поделитесь статьей в социальных сетях.
На главную вернуться.