Поведенческие факторы и АГС

1 ноября Яндекс выпустил обновление своего алгоритма АГС и объявил об этом в блоге. Особое внимание в сообщении стоит обратить на фразу: «Основной принцип при этом остался неизменным: новый классификатор также ориентирован на малополезные сайты, создаваемые, как правило, для продажи ссылок».

Что это значит? Какой из следующих вариантов имели в виду в Яндексе? АГС подвержены…

1)    малополезные сайты (ГС)

2)    любые сайты, продающие ссылки (продажные ссылки)

3)    малополезные сайты, продающие ссылки (ГС + продажные ссылки)

В первые же дни после АГС мы разделили все сайты на 2 группы: группу сайтов, попавших под АГС и группу нормальных сайтов.

Далее мы посмотрели распределение сайтов, разместивших то или иное количество обзоров по этим группам. Результат смотрите в следующей таблице:

Количество размещенных обзоров

АГС, %

Не АГС, %

от 1 до 250

40,9

51,8

от 251 до 500

22,2

20,5

от 501 до 750

14,2

10,5

от 751 до 1000

8,3

6,3

больше 1000

14,4

10,9

Итого

100%

100%

Некоторая зависимость прослеживается, однако далеко не такая четкая, как со следующим фактором, который мы обсудим далее. Кроме того, на форуме Searchengines значительное количество людей сообщило о попадании под АГС сайтов, на которых никогда не размещались платные ссылки.

Итак, Яндекс сообщает, что под фильтр попадают «малополезные сайты». Вопрос, как именно Яндекс определяет, какой сайт полезен, а какой нет?

По уникальности контента? Очевидно, что это уникальность учитывается, но не является главным фактором. В интернете масса полезных сайтов с большим количеством неуникального текста в индексе. В то же время полезность сателлитов, наполненных некачественным рерайтом некачественных статей, намного ниже, несмотря на их уникальность. Более того, существуют сайты и с автоматически сгенерированным контентом, которые совершенно бесполезны для пользователей, хотя они полностью уникальны. Подобные сайты, как правило, недолго находятся в индексе Яндекса и легко выпадают автоматически или по жалобам пользователей.

Вообще, определить машинными методами полезность контента – задача, на наш взгляд, слабо осуществимая. Машину можно научить определять явный спам, но не полезность. Как машина может знать, что один текст «ни о чем», а другой содержит очень интересные факты? Полезность определяется человеческим фактором, тем, насколько данный конкретный текст интересен аудитории, но ни в коем случае не тем, уникален ли он. Ведь уникальный генерированный текст не сравнится по своей полезности с интересной скопированной из другого источника статьей.

Вопрос определения полезности стал решаемым для поисковых систем, когда они начали работать с поведенческими факторами (ПФ). Именно ПФ могут показать машине, насколько людям интересны страницы сайта и сам сайт в целом.

В Яндекс Метрике можно, например, найти карту кликов и карту скроллинга. Анализируя свои сайты по Метрике, мы можем видеть, читают ли пользователи наши статьи, когда они покидают сайт, куда кликают. Наряду с общими цифрами (просмотров на посетителя, время на сайте и тд), эта информация дает полное понимание того, интересен ли сайт пользователям или нет.

Подобная обезличенная статистика, которая собирается поисковыми системами через бары, счетчики и свои браузеры дает исчерпывающие данные о разных сайтах. И, на наш взгляд, именно ПФ являются одним из самых важных маркеров интересности сайта для посетителей.

Давайте посмотрим на цифрах, так ли это. Ниже таблица сайтов Gogetlinks, разделенных на группу сайтов под АГС и нормальных сайтов. (Статистика по посещаемости бралась в первые дни после АГС за последний месяц. Посещаемость по Liveinternet была доступна для более, чем половины сайтов):

Посетителей в сутки

АГС, %

Не АГС, %

до 25

33,9

7,8

до 50

23,2

9,1

до 75

15,1

8,4

до 100

10,0

6,9

до 200

10,5

16,9

до 500

5,9

21,5

до 1000

0,9

12,3

больше 1000

0,5

17,1

Итого

100%

100%

 

Более 57% сайтов до наложения АГС-40 имели посещаемость менее 50 посетителей в сутки! Из группы же нормальных сайтов их было не более 17% (разница в 3,4 раза). Вместе с этим сайтов с посещаемостью от 200 посетителей в сутки в категории попавших под фильтр было всего 7%, тогда как среди нормальных сайтов их более 50% (разница в 7 раз).

Цифры более чем красноречиво говорят о том, что ПФ – это ярчайший маркер того, насколько сайт подвержен АГС.

Конечно же сами по себе низкие ПФ не говорят о том, что сайт обязательно будет отфильтрован, но для снижения риска и повышения отдачи от продвижения ссылки лучше размещать на сайтах с хорошими ПФ.

Возвращаясь к вопросу о том, что же имели в виду в Яндексе под «малополезными сайтами, созданными, как правило, для продажи ссылок», мы считаем, что основной упор кроме самих текстов делается на малую полезность сайта, то есть, в основном на поведенческие факторы.

Именно поэтому с ноября Gogetlinks требует полный доступ к статистике добавляемых сайтов, чтобы отсечь площадки с некачественным или очень низким трафиком. Это позволяет значительно улучшить модерацию, отбирая только действительно качественные сайты.

Оценить:
1 Звезда2 Звезды3 Звезды4 Звезды5 Звезд
Загрузка...

20 комментариев Поведенческие факторы и АГС

  • Довольно интересно, хоть какие то более конкретные сведения о АГС, в отличие от гаданий на серче.
    Если возможно, озвучите минимальный порог посещаемости?

  • Чем больше посещаемость и время, которое посетитель проводит на сайте, тем меньше вероятности попасть под АГС

  • Хороший анализ АГС-40, спасибо.
    Получается, что 92,7% сайтов, попавших под АГС, имело посещаемость до 200 чел. в сутки.
    Странная логика все же у Яндекса.
    То он любит сверх-узкоспециализированные сайты, которые из за своей узкой специализации в принципе не могут иметью бОльшую посещаемость, то вводит фактически одним из главных критериев колличество посетителей.

    Про поведенческие факторы.
    На мой главный коммерческий сайт офлайн бизнеса (не тот который я сейчас указал в комментарии) люди заходят из поиска только лишь для того, что бы узнать телефон или адрес, т.е. им достаточно нескольких секунд на просмотр главной страницы. А чаще и не заходят, так как тел. и адрес написан прямо в результатах поиска яндекса.
    Получается, что у меня по мнению яндекса малополезный сайт? Ерунда короче какая то выходит.

  • О каком учете посещаемости может идти речь, когда она напрямую зависит от того, на какой позиции сайт находится в поисковой выдаче по ключевому слову? Нет, эта таблица не объективна и не отражает истинного положения дел.

    Согласна, что ни один робот не в состоянии определить полезность контента. Да и человеку это тоже не доступно, если он не в теме. Например, мой сайт ароматерапия. Вряд ли неспециалист сможет определить полезность его информации. А ведь здесь все статьи авторские, написанные лицензированным ароматерапевтом, которых можно пересчитать по пальцам.

    Вот если бы яндекс ввел в свои алгоритмы следующую опцию. Индексировать сайт не по количеству ключевых слов, а по словосочетанию. Например, по запросу «ароматерапия» учитывались бы сайты, в тексте которых есть, помимо этого слова и другие, раскрывающие смысл этого слова: смеси, эфирные масла, базовые масла и др. Как мне кажется, именно по такому принципу строит свои алгоритмы гугл. Хотя, в последнее время он в свой ТОП пихает группы в соцсетях, а не сайты.

    • Гугл уже довольно давно работает по такому алгоритму. По которому он считает количество употреблений тематических словосочетаний на других схожих ресурсах относительно вашего. Например для гугла фраза «Смысл ароматерапии заключается в использовании эфирных масел и смесей» (возможно пишу чушь т.к. не разбираюсь, но прошу уловить смысл). Вот для гугла такая фраза показатель качества сайта относительно ГС. А для яндекса это псевдо-сдл из-за отсутствия добавочной ценности.

      Поэтому каждый ВМ для себя решает на какую ПС он будет ориентироваться в продвижении.

  • Ничего удивительного. Интернет растет. Сайтов становится больше. Вот и чистят поисковую выдачу.

  • kane писал: «Получается, что 92,7% сайтов, попавших под АГС, имело посещаемость до 200 чел. в сутки.»

    Да, именно так, по сайтам из ГГЛ такие цифры

    Дмитрий писал: «А как же «молодые» сайты? Ведь понятно, что, как правило, посещаемость у них не всегда высокая…»

    Совсем молодые сайты в систему и не принимаются. Да и порог посещаемости в ГГЛ весьма низкий.

  • Была бы неплохо составить статистику по тем сайтам, которые замечены в линкоброкерах

  • Получается что если сайт попал под АГС по причине низкой посещаемости, то он оттуда уже не вылезет.
    Так как трафика с Яндекса же не будет и откуда улучшение по посетителям тогда возьмеся?

  • Сложно судить по таблице. Но есть сомнения что если менее 50 хостов сайт АГС получит…. у меня у сайта 30 хостов…. и в индексе более 4000 стр. А трафика нет т.к материал НЧ…

  • Незнаю незнаю насчет посещалки, куча старых Яков продают, сайты или просто домены, посещалка у которых нулевая, а индексируются потом оч даже неплохо и тиц стоит)

  • Статья спорная, конечно. А по логике согласно пункту 2) любой сайт, все-таки чудом попавший в последнее время в систему ГГЛ автоматически улетает под АГС (появятся же продажные ссылки).

    • Спорить можно с гипотезами, но с цифрами не поспоришь, а они объективно доказывают факт связи АГС с плохими ПФ и отсутствие связи с внешними ссылками.

  • да и ваш метод оценки такой же как у яндекс робота. Вы тоже робот наверно, т.е. я сейчас пишу роботу, и чувствую себя идиотом.
    у меня сайт ЦИТ30 продаёт услугу с доставкой по Москве.
    Не смотря на то, что страниц 17000 для продажи ссылок, сайт лично для меня кажется полезным, ведь ко мне ежедневно заходит покупатель, заказывает услугу и уходит. Может, иногда сделает 1 клик, — за это Вы, уважаемый робот, определяете Высокий риск фильтрации (бана, АГС) Яндексом, из за того, что покупателей меньше 100 и клики не делают, потому, что я не убиваю их мозг лишней информацией?

  • Все это ерунда. Сайты проверяются не по количеству посетителей, а по таким факторам, как уникальный контент, дизайн и навигация (чем удобнее — тем лучше) и наличие агрессивной рекламы.
    С неуникальным контентом попадают под агс лишь сайты с большим тиц. Все остальные попадают со 100%-ой вероятностью

  • Резюме из этой статьи такое:
    1. Сайт, наполненный с помощью парсера копипастом, состоящий из 50к страниц, только что сделанный и выставленный на индексацию (всеми своими 50к) через пару Апов получит посещалку и ПФ (пользователи так и так будут лазить в этой тонне бесполезной информации)- он не АГС и никогда под него не попадет.
    2. Коммерческим узкоспециализированным сайтам с посещалкой 30 чел (которых им, кстати, хватает «с головой» в качестве клиентов)- труба!

    • Я думаю имеет место отношение количества страниц к посещалке.

      Для одностраничника и 1-2 посетителя это уже круто.

      Ваш копипаст с 50к страниц улетит в бан через 2 апа, т.к. при Ваших 50к, у вас и траффик должен быть 25к (образно).

      Я лично считаю что в статье все верно описано, но забыли упомянуть про отношение, которое я описал выше.

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *