В марте 2017 года Яндекс анонсировал запуск нового алгоритма определения переоптимизации страниц «Баден-Баден». Живописный курорт дал свое имя новому детищу разработчиков компании не случайно: «спамовое» название немецкого городка как нельзя лучше иллюстрирует направленность программного продукта на борьбу текстовым содержимым, изобилующим ключевыми словами и создаваемым исключительно для поисковых роботов.
На заре SEO-продвижения переоптимизированные статьи прекрасно справлялись со своей ролью, выводя в ТОП страницы сайтов, текст на которых выглядел приблизительно так:
Выделение полужирным шрифтом или курсивом, а также вхождение ключевых фраз в текст ссылки, добавляло текстовому контенту привлекательности «в глазах» поисковика, так как работавшие на первых порах алгоритмы его оценки были неприхотливы и несовершенны. Хорошему аналитику не составляло труда разгадать принцип их работы и определить предпочтения.
Необходимо отметить, что борьба с переоптимизацией велась не только с помощью программных средств, но и вручную. То есть, «нехорошие страницы» находили сотрудники поисковика, и сайт попадал под санкции. Однако количество проверенных модераторами текстов было ничтожно мало.
Создавался контент для роботов следующим образом:
С учетом данного подхода, SEO-тексты получались однотипными, в большинстве своем низкокачественными, а иногда и полностью лишенными смысла. Но даже если копирайтерам удавалось вдохнуть в них жизнь и включить некую полезную информацию, редкий пользователь дочитывал такую статью до конца. У абсолютного же большинства она вообще вызывала раздражение и формировала негативное отношение к сайту. Понимая это, вебмастера старались «спрятать» унылый контент с «кривыми» ключами любыми возможными способами:
Чтобы успешно конкурировать со своим основным соперником в русскоязычном сегменте интернета – компанией Google – Яндекс постоянно совершенствует поиск по различным направлениям. В сентябре 2011 года глобальная перестройка коснулась оценки наполнения сайтов контентом на предмет переоптимизации – в арсенале поисковика появились мощные программные средства, позволяющие проводить многофакторный анализ текстового содержимого.
Однако такой анализ до недавнего времени велся посредством пост-фильтров, то есть не сразу. Вследствие этого переоптимизированная страница изначально могла ранжироваться высоко и пессимизировалась только через определенное время. При этом разделы без переспама санкции вообще не затрагивали.
Баден-Баден работает по принципиально иной схеме. Новый алгоритм:
На первом этапе работы Баден-Бадена теряли свои позиции конкретные страницы с «неправильным» контентом. В начале апреля 2017 года на конференции «Неделя Байнета» в Минске Михаил Сливинский объявил о скором запуске второго этапа, на котором санкции будут применяться уже не к отдельным страницам, а ко всему ресурсу в целом. Руководитель службы по работе с вебмастерами также сообщил, что «попасть под репрессии» могут несколько тысяч сайтов.
Вот так это выглядит при анализе возникшей проблемы в разделе Яндекс.Вебмастера «Безопасность и нарушения»:
Вероятнее всего, на первом этапе Баден-Баден накапливал данные и оценивал, кого именно следует наказать. Не исключено, что основанием для пессимизации всего сайта стал определенный процент «нехороших» страниц, но это всего лишь предположение.
Итак, новый алгоритм работает в полную силу вот уже почти два месяца. Результатом этой работы стал «вылет» далеко за пределы ТОП-10 ряда ресурсов, годами уверенно удерживающих первые позиции. При этом многие вебмастера уверяют, что пострадали незаслуженно. Так это или не так – сказать сложно. А вот оценить выдачу, очищенную от «текстов для роботов», мы попробуем в следующей статье. [11]
Разработчики убеждают вебмастеров: публикуйте тексты «для людей», и будет вам счастье. Судя по ссылке в посте о «Баден-Бадене», предпочтения поисковика в этом отношении с 2011 года не менялись:
Вот, собственно говоря, и вся конкретика, так как «измерить гармонию алгеброй» отныне вряд ли получится. Ведь, как уже говорилось выше, ресурсы с не нравящимися поисковику текстами теперь пессимизируются полностью. То есть, теряют позиции не только страницы с «неправильным контентом», но и остальные разделы.
Отделить же текстовую составляющую от других нельзя – худо-бедно справлявшийся с этой задачей оператор intext больше не функционирует. Используя этот инструмент, можно было нивелировать значение ссылочного фактора в результатах выдачи. Теперь такой возможности нет. Поэтому и составить «портрет» идеального текста с точки зрения обновленного поиска Яндекса текстовые анализаторы не способны.
[11] Сюда добавить ссылку на второй текст
(Нет голосов) |
|