X

Хорошие ссылки – плохие ссылки (часть 5)

Продвинуть сайт в топ по сколь-нибудь конкурентным запросам без обратных ссылок невозможно. Наличие большого количества хороших ссылок является основным условием попадания сайта в топ.

Однако не все ссылки одинаково полезны. Более того, некоторые ссылки, а также принцип появления ссылок на разных сайтах могут оказать негативный эффект на продвижение сайта. Далее мы выясним, какие ссылки являются хорошими, а какие плохими. Мы научимся получать ссылки бесплатно на лучших сайтах в интернете, разберемся, как правильно покупать ссылки, и обсудим, какие риски связаны с бессистемной расстановкой платных ссылок.

Основной постулат о хороших ссылках

Как было сказано ранее, не все ссылки одинаково хороши.  Часть ссылок подтягивает сайт к топу, некоторые же ссылки – препятствуют его вхождению в топ. Наша задача – научиться выбирать хорошие ссылки на хороших сайтах. В общем случае, можно считать, что ссылки с плохих сайтов (сайтов, находящихся на грани АГС и бана, дорвеев и тд) являются плохими ссылками. С другой стороны ссылки с хороших сайтов (трастовые популярные сайты) не всегда и не при всех условиях являются хорошими.

Спам не пройдет

Есть такое понятие – ссылочный спам, который подразумевает расстановку множества единообразных ссылок на разных сайтах. К ссылочному спаму относится массовая регистрация в форумах с установкой ссылки в профиле, массовое размещение одинаковых сообщений с ссылкой в форумах, гостевых книгах, комментариях к блогам. Даже размещение одинаковых статей на разных сайтах является поисковым спамом.

Ключевой особенностью поискового спама является одинаковый ссылочный или околоссылочный текст. Допустим, вы хотите разместить сразу на 100 сайтах ссылку «Изготавливаем металлические двери на заказ». В этом случае можно не сомневаться, ссылки будут отнесены к поисковому спаму. Точно так же дело обстоит и с неуникальными статьями. Если Яндекс находит множество одинаковых статей в интернете с одной и той же ссылкой, то никакого положительного эффекта от таких статей не будет.

Более того, Яндекс довольно легко находит рерайт, поэтому мнение, что можно написать одну статью, затем размножить ее до 1000 штук, и ссылки в таких статьях будут передавать вес, ошибочно. Синонимы, перестановки слов, написание текста из кусков других текстов вычисляется быстрее, чем можно себе представить.

Метод промышленного клонирования ссылок и текстов сегодня не просто не работает, а при определенных условиях может оказать негативный эффект на продвижение сайта, то есть, сайт вместо приближения к топу будет от него удаляться. Сегодня можно смело утверждать, что спам побежден, и эпоха его закончена. Лучше о нем забыть раз и навсегда.

Более того, в своем докладе «Поиск неестественных текстов» (http://rcdl.ru/doc/2009/306_308_Section09-3.pdf) Яндекс ясно дал понять, что умеет эффективно вычислять машинно-сгенерированные тексты (такие как http://referats.yandex.ru/), в том числе, машинные переводы невысокого уровня качества. Если Яндекс находит такие тексты на сайте, то он использует это обстоятельство как маркер поискового спама. Поэтому настоятельно не рекомендуем использовать данный спам-метод, как и любые другие спам-технологии.

Выявление плохих сайтов на основе статистики.

Теперь перейдем к вопросу распознанию сайтов, подверженных бану и АГС. Эти сайты не являются трастовыми, и в процессе продвижения нужно избегать простановки ссылок на таких сайтах. Это связано с двумя причинами:

1)      Высока вероятность выпадения из индекса страниц на этих сайтах, либо бана сайта целиком. В этом случае ссылка окажется не в индексе.

2)      Даже если ссылка в индексе, вклад ее в продвижение будет незначительным или при определенных условиях, вообще, отрицательным.

Наша задача —  научиться определять сайты из группы риска, находящиеся на пороге бана или АГС. Весной этого года мы в Gogetlinks, обладая базой в более, чем 10000 сайтов, начали проводить исследование факторов риска попадания под АГС и бан. Это делалось для улучшения модерации входящих сайтов. И сейчас я представлю некоторые результаты исследования.

В сентябре мы взяли результаты исследования 6174 сайтов.  Часть этих сайтов проявляла активность в системе последние 3 месяца, другая часть была отклонена нашими модераторами. Отклоненные сайты интересны тем, что среди них как раз и содержится подавляющее большинство зафильтрованных сайтов, тогда как среди участвующих в системе сайтов таких единицы.

Проанализировав различные показатели, мы получили следующую картину:

Практически 60% сайтов на момент попадания под фильтры или бан имели посещаемость не выше 20 человек в сутки. Тогда как из группы нормальных сайтов подобных сайтов было не более 14% (разница в 4+ раза). В то же время сайтов с посещаемостью от 200 человек в сутки в категории фильтрованных (на момент попадания под фильтры), всего лишь 8%, а среди нормальных сайтов 38% (разница в примерно 5 раз).

Очень похожая ситуация и с Alexa Rank, рейтингом, который можно использовать, если нет возможности проверить счетчики сайта.

Явная группа риска здесь сайты с Alexa Rank>10 000 000, которых в группе сайтов под фильтрами, 26%, тогда как в группе нормальных сайтов их всего лишь 7% или в 4 раза меньше. В то же время фильтрованных сайтов с Alexa Rank <1 000 000 на момент фильтрации всего лишь 6% в группе, в то время как в нормальной группе их 29% (в 5 раз больше).

Наличие сайта в DMOZ – очень хороший маркер нормального сайта. Доля сайтов в DMOZ, среди находящихся под фильтрами сайтов всего 2,6%, тогда как среди группы нормальных сайтов 16,3%, разница здесь в более чем 6 раз.

Каталог Яндекса тоже хороший показатель 4,7% в зафильтрованной группе против 18,5 в нормальной группе, что составляет четырехкратную разницу.

Показатель практически абсолютной безопасности – наличие сайта в обоих каталогах, в нашей выборке из более чем 6000 сайтов нашелся всего один сайт  (лишь доля процента в своей группе) в обоих каталогах, который находился под фильтром. В то же время, в группе нормальных сайтов целых 8% сайтов добавлены в оба каталога.

Очень интересны результаты по поиску количества упоминаний домена в интернете. Речь идет не о количестве ссылок на сайт, а именно об упоминании домена в виде site.ru или www.site.ru. Примечательно, что целых 41% сайтов из группы зафильтрованных имеют до 150 упоминаний в сети. В то время как в группе нормальных сайтов таких сайтов всего лишь 3,4%, то есть относительная разница в 12 раз!!!

С другой стороны, если домен упоминается свыше 5000 раз в Сети, то в группе зафильтрованных сайтов он встречается всего в 2,8% случаев, а в группе нормальных сайтов 26%, то есть, разница в 9 с лишним раз.

Примечательно, что наличие автоматических ссылок на сайте не может являться маркером опасности наложения АГС или бана сайта. Другими словами, бан и АГС не используется как оружие против сайтов, продающих ссылки, для них у Яндекса есть другие фильтры, незаметные глазу.

Возраст домена мало чем может помочь. Как маркер выглядит только статистика по возрасту домена менее года. Там разница между фильтрованными и нормальными сайтами составляет 2 раза.

ТИц как маркер можно использовать только в том случае, если его величина выше 100. В этом случае разница между 14% в нормальной группе и 3,7% в зафильтрованной группе составляет 3,8 раза. С другой стороны ТИц ниже 100 довольно легко накручивается, скорее всего, именно с этим связана незначительная разница между показателями в обеих выборках.

Резюме по выявлению рисковых сайтов на основе статистики.

Итоговая таблица рисков и сильных сторон сайтов доноров приведена ниже. В скобках указана, во сколько раз доля сайтов с указанным признаком встречалась чаще в группе фильтрованных или нормальных сайтов. Для удобства каждый признак имеет определенное количество звезд. Чем более ярко выражен тот или иной признак, тем больше звезд  ему присвоено.

Важно! Решение о том, нужна ли нам ссылка с того или иного сайта, нужно принимать на основе анализа как можно большего числа факторов, а не какого-то одного фактора. Если сайт, например, имеет посещаемость более 200 человек в сутки, совершенно не означает, что  он не будет отфильтрован. Аналогично и низкая посещаемость не означает, что сайт будет обязательно забанен. Однако, чем больше признаков риска или сильных сторон у того или иного сайта, тем более правильное решение может быть принято.

Выявление плохих сайтов на основе осмотра

Самое главное при выявлении плохих сайтов — это осмотр и оценка сайта с позиции пользователя. Нужно погулять по его страницам, посмотреть статьи, регулярность и частоту обновления конента, наличие пользовательских комментариев к контенту, в том числе и спам-комментариев. Если сайт живой, интересный, и пользователи общаются, оставляя свои комментарии, то это хороший сайт. Если же кроме спам-комментариев и редкого нерегулярного обновления контента вы не заметили ничего примечательного, то лучше воздержаться от сотрудничества с таким сайтом.

Вот несколько признаков плохого сайта:

1) Плохой, некачественный дизайн

2) Очень неудобная структура сайта, не рассчитанная на удобство пользователя

3) Нерегулярное обновление сайта

4) Коротенькие статьи на 500-1500 символов (характерно для псевдо-сайтов)

5) Сканированные рисунки

6) Многочисленные внешние ссылки в текстах статей, не связанные с их содержимым (например, неожиданная ссылка «Купить авто» в тексте о вязании)

7) Закрытое комментирование в блоге

8 ) Полное отсутствие комментариев к контенту, если комментирование открыто

9) Большое количество спам-комментариев к контенту

10) Чрезмерное количество баннеров, тизеров и другой рекламы, особенно, если она порно-характера

11) Имя домена, противоречащее содержимому сайта (например домен buycar.xyz, а сайт о разведении собак)

12) Наличие на сайте большого количества автоматических текстов и машинных переводов

И снова рекомендуем принимать решение о том, является ли данный сайт хорошим сайтом, на основе сочетания ряда факторов. Конечно, выше перечислены не все свойства, характерные для псевдосайтов, и у вас может быть свой собственный список маркеров.

Использовать его — действительно хорошая идея. Не стоит гнаться за количеством ссылок. Куда важнее сегодня их качество. И в первую очередь нужно отсечь плохие сайты-доноры.

Платные ссылки

А являются ли платные ссылки (SEO-ссылки) с разными околоссылочными текстами, а также ссылки в платных уникальных статьях спамом? Можно точно утверждать, что к поисковому спаму такие ссылки не относятся, однако и тут все очень не просто. В одном из недавних интервью Александр Садовский заявил: «Ссылки классифицируются по множеству признаков, и оценка является вероятностной. Чем выше вероятность, что ссылка является SEO, тем меньше будет ее вес. Но если нет полной уверенности, поисковый алгоритм учитывает ссылки, хотя придает им небольшое значение.»

Это еще раз подтвердило то, что уже давно было замечено оптимизаторами – платные ссылки работают хуже и хуже. А ведь еще 18 марта 2008 года оптимизаторы получили предупреждение в блоге Яндекса о том, что эффективность платных ссылок будет падать:

Некоторое время назад мы осторожно относились к таким ссылкам, которые устанавливались на качественных ресурсах, часто на коммерческой основе. В частности, мы полагали, что факт «проданности» сам по себе не делает ссылку «плохой».

Однако возможность получить ссылку кому угодно у кого угодно серьезно мешает Яндексу достоверно определять степень доверия к сайтам. Тот факт, что с главной страницы сайта издания, учрежденного Правительством Российской Федерации, стоит ссылка на сайт, торгующий дипломами, никак не говорит о том, что официальная газета желает поддержать репутацию сомнительного бизнеса.

В настоящий момент мы приняли меры для уменьшения влияния SEO-ссылок с наиболее популярных сайтов Рунета. Мы планируем и далее выявлять подобные ссылки, а также принимать все меры к тому, чтобы:

1) сайты, продающие ссылки, потеряли способность влиять таким способом на ранжирование;

2) покупка ссылок с сайтов не могла бы привести к повышению ранга сайта-покупателя.

Итак, Яндекс действительно занижает вес платных ссылок, причем занижает его тем сильнее, чем очевиднее, что ссылка платная. Кроме того, эффективность распознавания платных ссылок Яндексом увеличивается постоянно и увеличивается очень быстро. Это значит, что уже сегодня средний вес, передаваемый платными ссылками, ниже, чем был вчера, а завтра, скорее всего, будет еще ниже, чем сегодня.

О том, как Яндекс вычисляет SEO-ссылки,  и что делать в сложившейся ситуации, мы и поговорим в следующей главе…

Предыдущие части пособия «Эффективное продвижение в Яндексе»:

На пути к вершине (часть 1)

Как Яндекс ранжирует сайты (часть 2)

Какие сайты любит Яндекс (часть 3)

Внутренняя оптимизация сайта (часть 4)

Ваше мнение о статье важно для меня. Задавайте любые вопросы и комментируйте статью, чтобы уточнить детали и поделиться своим мнением.

1
Алексей (Основатель Gogetlinks): Алексей Кураков - руководитель Gogetlinks, более 8 лет занимается разработкой и управлением интернет-проектами. С 2007 года профессионально работает в сфере SEO.

View Comments (16)

  • Можно ли данную статью считать как основу принятия сайтов в систему?

  • Losjo, конечно, данное сообщение писалось с пониманием того, что есть масса псвдосайтов, стремящихся попасть в Gogetlinks. И, конечно, информация изложена таким образом, что промышленными методами и накрутками невозможно ей воспользоваться для прохождения модерации в системе.

  • Хорошая статья. Почаще бы писали еще!
    Жалко, что сайтов со всей совокупностью признаков, не так много. И стоят на них ссылки очень дорого...

  • Статья понравилась, особенно тем, что подтвердились мои мысли по поводу платных ссылок. В принципе как по мне, так всё идёт к тому, что надо будет пользоваться миралинкс. Сейчас ещё в Яндексе какие-то не понятные явления происходят, поэтому хочется стабильности. А она может быть только с миралинкс, и то, относительная.
    Или может я ошибаюсь?

  • Павел, сайтов не так уж и мало, другой вопрос, что на рынке ссылок действительно идет сильный перевес в сторону псевдосайтов.

    Вячеслав, все идет к тому, что естественные ссылки и ссылки, близкие к естественным останутся единственно рабочими ссылками. Автоссылки, к которым все привыкли, имеют слишком много признаков продажности. Вычислять их автоматически - проще простого. И на конференции "Оптимизация 2010" не скрывалось, что вскоре их прижмут окончательно.

  • Да я промышленные методы и не имела в виду - до сих пор не знаю как это делается )) Просто было интересно узнать хоть примерные критерии от которых вы отталкиваетесь ))

  • Алексей, а как вы считаете, имеют ли вес ссылки с профилей форумов на сайтах (тематических продвигаемому, естественно), которые в ЯК и ДМОЗ?

    Я имею ввиду те профили, которые не закрыты от индексации и позволяют вставить анкорную ссылку (в подписи, например).

  • Павел, так называемый контент, генерируемый пользователями, имеет довольно ограниченное влияние на продвижение сайтов. Причина этого - распространенность спама и простота получения подобных ссылок. Примерно до 2006 года это работало не плохо, пока Яндекс практически полностью не поборол спам.

  • Я просто почему спрашиваю - у меня есть сайт, на который ссылаются около 50 ссылок с таких профилей. Так вот, он сейчас в топ 3 по 5ти, и в топ 10 по 6ти СЧ и НЧ запросам. И по остальным 10 продвигаемым запросам медленно, но уверенно, движется к топу.
    Конечно, небольшая оптимизация (по почерпнутым из вашего, кстати, блога советам) была проведена. Но, как мне кажется, только одной оптимизацией таких показателей достичь трудно.

    Надеюсь, что ваша фраза "практически полностью" оставляет небольшой "просвет", который таки позволяет думать о том, что эффект от таких ссылок есть.

1 2