Чтение онлайн

ЖАНРЫ

Раскрутка: секреты эффективного продвижения сайтов

Костин Евгений

Шрифт:

Потом отключили операторы #link и ancor. Это был болезненный удар по оптимизаторам. Да что там – одна из ядерных бомб на SEO. Дальше операторы начали отключать один за другим. Были какие — то недокументированные. Порой до сих пор оператор существует, но показывает белиберду. Одно время в BDBD хотели запустить биржу Indexoid. Они фиксировали дату индексации ссылки с помощью языка запросов «Яндекса». Завязались на один запрос. Но это их не спасло.

Ссылочные базы бирж все приохотились парсить, стали свои белые списки формировать. Но эта волна быстро спала.

Поисковики начали закручивать гайки. То, что работало для одного, могло не работать для другого. Одно время ходила хохма: мол, если ссылка с точкой на конце, значит, она работает. А без точки – нет. Был еще экзотический

способ: в конце ссылки ставили /n, перевод на следующую строку. Мне один клиент прислал ссылку со словами: «А если взять простую ссылку, без этой каретки, то донор находится под непотом. А когда ее добавляешь, донор работает». Ссылки стали разнообразиться. Их начали делать с разными ухищрениями (абракадабра, текстовые простановки и пр.), чтобы узнать, работают ли они. Это вошло в моду. Перед тем как закупаться, большой оптимизатор ставил несколько ссылок на сайт, смотрел, работают они или нет, анализировал обстановку.

2008 год был переломным для оптимизации?

С. Ц.: Он точно был переломным для «Яндекса». Именно тогда он объявил войну SEOссылкам. Биржам, между прочим, войну не объявляли. Если бы объявили, то, наверное, сразу бы их забанили.

Положа руку на сердце, Россия – уникальная страна с точки зрения ссылочного ранжирования. В Рунете на 2009 – 2010 годы «живых», активных сайтов был миллион, из них биржи заняли 60 %. Сравним с Google. Это несколько триллионов сайтов, и из них участвующих в линкоторговле, наверное, 0,5 %. Упомянутые наши 60 % надо было, возможно, сразу срубить под корень, но тогда осталась бы абсолютная помойка – всякие дорвеи и иже с ними. «Яндекс» упустил момент. Не знаю, жалеет он или нет. Процент ГС сохраняется, и ситуация необратима. Даже «публичные порки» ее не изменят. Если отменить ссылочное ранжирование, в топе останется шлак.

А. Ж.: Кроме ссылочных, нет других факторов, которые позволяли бы достаточно хорошо отранжировать сайты. «Яндекс» постепенно снижает влияние ссылочного ранжирования, но полностью от него никогда не откажется. Это невозможно.

Какие способы обмана со ссылочным продвижением использовались позднее, вплоть до настоящего времени?

А. Ж.: Последнее веяние – это когда ссылка… есть. Заходишь на страницу – ссылка вроде стоит. По ней переходишь – все чисто. Ведь как проверяется ссылка? Проиндексирована – не проиндексирована. Что ищется? Анкор ссылки на конкретной странице. Итак, анкор наличествует. Но это не ссылка. Это может быть кусок текста. А биржа «клоачится». Отследить такой финт сложно. Выполняется клоакинг робота биржи, чтобы тот видел ссылку, либо она в комментарии вставляется.

С. Ц.: Проверки, естественно, проводятся у всех, но вот если, например, есть каскад (комментарии) или вложенность, то структура документа нарушается и ничего нельзя отследить. Когда имеется вложенный документ – один в другой, другой в третий, – а тег берется из другого и эти области накладываются друг на друга, робот не понимает, что это за страница и что с ней происходит. Удастся ли его провести – фифти — фифти.

(noindex)

(table)

(tr)

(td)какой-то текст(/td)

(/noindex)

(td)какой-то текст(/td)

(/tr)

(tr)

(td)(a href="#">анкор ссылки(/a>(/td>

(td>какой-то текст(/td>

(/tr>

(/table>

А. Ж.: Было дело, «Яндекс» не вполне корректно обрабатывал тег noindex. Можно было закрыть с помощью noindex одну часть таблицы, а после (/noindex> в тот же блок ставилась ссылка, и она попадала в noindex. Разрыв тега нарушал структуру. Например, начинается таблица, тег noindex стоит перед ней, а закрывающий тег – внутри нее, после какой-то строки. А на следующей строке – ссылка. Вроде как она не закрыта noindex, а поисковик всю таблицу забирал. Формально нарушений нет, с точки зрения веб — мастера.

Предъявить ему нечего, но ссылка не индексировалась.

Одно время веб — мастера очень любили использовать для ссылок «бегущие строки». Они индексируются, но очень долго. «Бегущая строка» шла по сайту обычным тегом, и в него вставлялись ссылки. «Яндекс» почему —

то не хотел индексировать его содержимое – индексировал с изрядной задержкой. Проиндексировал он страницу – и ты тотчас добавил ссылочку в «бегущую строку». А появлялась она в индексе только через три месяца. Вебмастер три месяца получает деньги, избегая кары. Потом ему надоедало, он снимал эту ссылку. А в кэше ничего криминального не оказывалось, санкций не было.

Когда начали предъявляться более строгие требования к площадкам: «Статья должна быть уникальной» и т. д., возникла мода генерировать кучу бредотекста. В индекс он влетал на ура. Но если оптимизатор заходил на такую площадку и начинал ее изучать, то, естественно, он плевался. Значит, посетителю сайта нужно было показать что — то более или менее нормальное. Что делали? Брали какой-то сайт из «Яндекс. Каталога» и подсовывали его пользователю. (До сих пор работает.) А поисковику показывался бред полнейший. Причем если оптимизатор был неопытный, пытался скопировать часть текста со страницы вроде бы хорошего сайта, вставлял в какую — то программу, чтобы с помощью поиска проверить фрагмент на уникальность, то получал подтверждение, что текст абсолютно уникальный, в индексе нигде ни фразы, кроме как на рассматриваемом сайте.

С. Ц.: Отдельная тема – создание ГС. До сих пор эта индустрия процветает. Конечно, есть мнение, что хороший сателлит стоит от $500. Но именно хороший. У многих умельцев процесс автоматизирован. Они пишут свои программы, скачивают сайты, что — то видоизменяют, выкладывают в Сеть, ждут, когда это загонится в индекс хоть как — то, и сразу на биржу бегут.

А. Ж.: Есть более продвинутые, которые ничего не пишут. Просто в онлайн — режиме парсят контент с другого сайта и бирже это показывают. Единственное, добавляются ссылки. На хостинге находится только данный скрипт и фрагмент кода, скрипт с Sape например. Сайт выглядит прилично, его принимают в биржу. Ну почему не принять — то? Иные площадки такого сорта существуют очень долго. Мне известен сайт с бредом в коде (посетителям и роботам подсовывается сравнительно приемлемый контент), существующий больше года. Там 3000 страниц, и через Sape на него продано приблизительно 1700 ссылок. Даже если одна ссылка стоит рубль – средняя цена составляет 3 руб., но там показатели никакие, – выходит 1700 руб. в месяц. Ни с чего. Веб — мастеру в карман. Ну и биржа получает свой процент. Такие ссылки, конечно, все менее действенны. Раньше эффект приносила любая.

С. Ц.: Все больше и больше фильтров вводится, все меньше и меньше ссылок работает. Но не работать совсем они, наверное, не могут. У «Яндекса» есть вероятность срабатывания, вот что хорошо. Не «0 или 1», а какое — то промежуточное значение.

А может ли ссылка работать в минус?

С. Ц.: Да. Кстати, это один из большущих недостатков любого поисковика. Неоднократно в порядке эксперимента брали сайт, прогоняли по форумам, как — то еще гадили – и он валился. Даже в 2012 году целая индустрия существует – заплюй конкурента и вылези в топ. Или скопируй сайт конкурента и насоли ему. Новомодное направление – исправление репутации в Интернете. Создаешь сайт «Вася Пупкин – дегенерат», он попадает в топ, а потом Васе Пупкину сам же и предлагаешь услугу «ассенизатора» за хорошие деньги.

А. Ж.: В свою очередь, купив некачественные ссылки на бирже самостоятельно, веб — мастер сегодня рискует ухудшить свои показатели. Часто ругают SeoPult, Rookee, WebEffector, но самостоятельно многие вещи человек малознающий не сумеет сделать с той же эффективностью, что и любой из агрегаторов.

Чаще встречается обратное мнение, что агрегаторы покупают такие ссылки, которые заводятся под фильтры. Насколько это обоснованно?

А. Ж.: Я вправе говорить только с точки зрения SeoPult. Да, мусор встречается, любой автомат дает какой-то процент брака. У SeoPul сложная проверка доноров, вплоть до того, что все будто бы хорошо, но на сайте 30 – 40 % ссылок не индексируется. Донор в таком случае будет просто — напросто выкинут из системы. Ссылки переиндексируются, но примерно через полгода. Даже если я сам буду закупать, многие вещи в ручном режиме не замечу.

Поделиться с друзьями: