Все, что нужно знать об алгоритмах Яндекса

Большинство людей, которые проводят немало времени в интернете по работе или по личным интересам, наверняка слышали про алгоритмы Яндекса. Но что это такое? Разумеется, специалисты, работающие в сфере поискового продвижения, хорошо осведомлены обо всех алгоритмах и принципах их действия. Но что о них знает обыватель? Давайте разбираться в этом вопросе вместе. Если вы хотите получить ценную информацию об алгоритмах Яндекса, то обязательно прочтите нашу статью.

Что представляет собой поисковая выдача?

При нахождении информации в интернете важную роль играет алгоритм выдачи. Сама она представляет собой страницу результатов, которые соответствуют определенному запросу. Алгоритм выдачи Яндекса устроен так, что может просчитать возможность нахождения наиболее релевантного ответа. После этого формируется выдача из 10 ресурсов. Но если запрос сложный, то в ней будет показано 15 ответов.

Что такое поисковые алгоритмы?

Поисковые алгоритмы представляют собой, по сути, математическую формулу. Только неизвестным в данном случае является запрос пользователя. Чтобы решить эту формулу, поисковый робот подставляет вместо неизвестного разные значения, выбирая наиболее подходящее.

А чтобы было более понятно, объясним еще проще. Поисковый алгоритм – это специальная программа, которая получает, так сказать, «проблему» (то есть поисковый запрос) и выдает ее «решение» (то есть показывает список сайтов с необходимой пользователю информацией).

Но как алгоритм «решает проблему»? Оказывается, что он изучает все ключевые слова на страницах, анализирует полученную информацию и формирует подходящую для пользователя поисковую выдачу. Благодаря алгоритму роботы способны анализировать содержимое всех ресурсов. А на основе полученных данных определяется нахождение сайта в поисковой выдаче.

Что влияет на поисковые алгоритмы?

Наверное, вы замечали, что поисковая выдача по одному и тому же запросу в разных поисковых системах отличается. И это неудивительно, поскольку алгоритмы Яндекса и Google существенно различаются. Причем они анализируют одинаковые параметры, но неизвестно, каким из них уделяется больше внимания. Алгоритмы поисков находятся под строгим секретом. Даже самые продвинутые SEO-оптимизаторы ломают над ними голову.

Параметры работы алгоритмов

Алгоритмы Яндекса руководствуются определенными параметрами, которые условно можно разделить на 2 группы:

  1. Текстовые. Отвечают за смысловое наполнение ресурса. К таким параметрам относится:
  • соответствие ключевых слов разделу каталога, где зарегистрирован сайт;
  • язык ресурса;
  • количество ссылок в тексте;
  • востребованность тематики и объем текста на каждой странице;
  • тип и размер шрифта;
  • соотношение ключевых слов к общему объему текста;
  • уникальность контента и количество цитат.
  1. Инженерно-функциональные. Характеризуют технические характеристики (плагины, дизайн и т.д.). Они включают в себя:
  • тип страницы, наличие дублей, комментарии в программном коде;
  • местоположение, доменное имя и возраст сайта;
  • стиль заголовков, подзаголовков и КС;
  • вес и количество страниц;
  • наличие мета-тегов, мультимедийных файлов, флэш-модулей и фреймов;
  • количество запросов по определенному ключевому слову и частота обновляемой информации;
  • наличие стилевого решения.

Параметры работы алгоритмов

О ранжировании

Все вышеперечисленные параметры играют важную роль в алгоритмах ранжирования. Но что это означает? Алгоритм ранжирования является способом, с помощью которого можно узнать ценность каждой страницы. То есть если у сайта отличные показатели по всем этим параметрам, то он сможет занять лидирующие позиции в поисковой выдаче.

Следует заметить, что алгоритмы Яндекса меняются практически каждый год. Самые важные из них названы в честь городов. Причем в большинстве случаев наименование нового алгоритма начинается с последней буквы названия предыдущего. Сразу же вспоминается игра «Города». Итак, на данный момент поисковая система создала следующие алгоритмы:

Помимо перечисленных выше, существуют также особые алгоритмы: АГС-30 и АГС-17. Главная задача таких программ заключается в поиске сайтов, которые не удовлетворяют их требованиям. То есть алгоритмы ищут ресурсы с обилием ключевых слов и неуникальным контентом, после чего применяют к ним штрафные санкции.

Алгоритмы 2008-2011 годов

За 2 года Яндекс разработал 4 поисковых алгоритма, которые существенно отличались от начальных версий. В 2008 году в поисковом ранжировании впервые начали учитывать уникальность контекста («Магадан»). Также в первый раз была введена система, обращающая внимание на стоп-слова («Находка»).

В 2009 году алгоритм поиска Яндекса начал учитывать регион пользователя. Поэтому появился классификатор геозависимых и геонезависимых запросов. Также намного улучшилась региональная формула подбора ответов («Арзамас»). Кроме того, существенно изменилась поисковая выдача. Появилось 19 новых формул регионального ранжирования, обновились параметры геонезависимого ранжирования («Конаково» и «Обнинск»).

В 2010 году алгоритмы поисковых систем Яндекса разработали новые формулы для геозависимых и геонезависимых запросов («Краснодар» и «Обнинск»). А 2011 год стал началом персонализированной выдачи, поскольку учитывались языковые предпочтения пользователей интернета.

Поисковое ранжирование 2012-2014 годов

В 2012 году персонализация выдачи значительно изменилась: начали учитываться интересы пользователей в долгосрочной перспективе, а также увеличилась релевантность сайтов, которые чаще всего посещались («Калининград»). Через год алгоритм Яндекса уже мог подстраивать результаты поисковой выдачи под интересы каждого конкретного пользователя во время сессии и к тому же учитывал даже кратковременные интересы («Дублин»). А уже в 2014 году был отменен учет ссылок для коммерческих запросов при ранжировании ответов («Началово»).

Поисковое ранжирование 2012-2014 годов

Подробнее об «Амстердаме», «Минусинске» и «Кирове»

В 2015 году в поисковой выдаче возле результата стала появляться карточка с информацией при наведении на ссылку курсора («Амстердам»). За все это время Яндекс впервые поставил важную цель. Она заключалась в том, что сайты с большим количеством сео-ссылок ждет снижение в ранжировании. Наличие крупного ссылочного профиля стало для ресурсов главной причиной потери позиций в поисковой выдаче.

Алгоритм «Минусинск» стал масштабно снимать сео-ссылки. Немного позже учет ссылочных факторов вернули, но только в Москве и Московской области. В алгоритме «Киров» была внедрена рандомизация релевантных запросов. То есть при выдаче запросы можно было сортировать по региону, популярности и дате.

Немного об алгоритмах «Владивосток» и «Палех»

Алгоритм «Владивосток» начал учитывать адаптивность сайтов к смартфонам, планшетам и другим устройствам. Благодаря этому повысились результаты мобильной выдачи. Но отдельного внимания заслуживает алгоритм «Палех», презентованный в ноябре 2016 года. Он умеет сопоставлять смысл вопроса и страниц с помощью нейронных сетей – искусственного интеллекта, моделирующего работу человеческого мозга. За счет этого увеличилась выдача по редким запросам.

Изначально алгоритм «Палех» работал только с заголовками страниц. Однако его создатели утверждают, что со временем он научился понимать и сам текст. Работа этого алгоритма заключается в том, что он учитывает статистику соответствия заголовка и запроса, увеличивая таким образом точность поисковой выдачи.

Работа с соответствием заголовка и запроса называется семантическим вектором. Он позволяет находить ответы даже на самые редкие запросы. Алгоритм «Палех» умеет понимать текст, поэтому он может выдавать результаты, в которых нет ни одного похожего слова с запросом, но при этом они полностью соответствуют друг другу по содержанию. То есть специалисты Яндекса создали «умную» технологию, способную искать ответы, опираясь не на ключевые слова, а на само содержание текста.

Особенности алгоритмов «Баден-Баден» и «Королев»

Алгоритм «Баден-Баден», который вышел в марте 2017 года, стал настоящим открытием в системе поискового ранжирования. Лидирующие позиции в ТОПе начали занимать сайты с читабельными, понятными и полезными текстами. Главная задача этого алгоритма – предоставить пользователю не текст, который соответствует запросу, а нужную информацию.

За время работы алгоритма «Баден-Баден» в поисковой выдаче заметно снизились позиции сайтов, содержащих некачественный или переоптимизированный контент. СЕО-эксперты были уверены, что упадут позиции многих интернет-магазинов. Ведь на их страницах можно увидеть большое количество повторяющихся описаний товаров, практически ничем не отличающихся между собой. Однако разработчики алгоритма учли, что есть тематики, в которых повтор однокоренных слов неизбежен.

Во второй половине августа 2017 года Яндекс запустил новый алгоритм «Королев». Он был создан на основе «Палеха». Главная задача «Королева» – улучшение качества выдачи по многословным низкочастотным запросам. В данный сегмент фраз попали и голосовые запросы, заданные с помощью мобильных устройств.

Алгоритм «Королев» отличается от «Палеха» факторами ранжирования, которые могут учитывать:

Кроме того, алгоритм «Королев» был реализован с расчетом ряда факторов на этапе индексирования и внедрением дополнительного индекса.

Тексты, не соответствующие поисковому алгоритму

Итак, мы выяснили, что если раньше поисковые роботы выводили на первые позиции сайты, в которых были ключевые слова, то теперь ситуация изменилась благодаря алгоритму «Баден-Баден». Переспамленные тексты обычно выглядят как большое количество запросов, разбавленных «водой». Рассмотрим такой контент на примере:

«Каждый год Nike выпускает огромное количество товаров для занятий спортом. Футбольные мячи, кроссовки Nike, спортивные штаны Nike, кеды, спортивные костюмы Nike, бутсы, шорты, футболки Nike – все эти и другие товары марки Nike можно найти в любом фирменном магазине. Женские, мужские Nike и детские коллекции передают основную тему бренда. Одежда Nike уникальна тем, что каждый товар способен передать настроение марки».

Такие тексты не несут никакой пользы для пользователя. Они представляют собой набор ключевых запросов, дополненных некачественным текстом. С ними и борется алгоритм «Баден-Баден», снижая их позиции в поисковой выдаче.

Существует 3 критерия низкокачественного контента:

Разумеется, СЕО-оптимизацию никто не отменял: основные принципы поисковых систем остаются такими же. Однако подход, при котором на 1000 символов текста приходится 20 ключевых запросов, уже не актуален. Ведь алгоритм «Баден-Баден» уделяет пристально внимание качеству контента.

В этой статье были рассмотрены основы работы всех поисковых алгоритмов Яндекса: от «Магадана» до «Королева». Мы выяснили, что лидирующие позиции в выдаче в настоящий момент будут занимать сайты не только с правильно подобранными ключевыми запросами, но также с читабельным, информативным и качественным контентом.