Поисковое продвижение сайтов
Шрифт:
Но если вопрос стоит остро, на помощь придут автоматические скрипты и конкатенация.
На заметку
Конкатенация – операция склеивания объектов линейной структуры, обычно строк. Например, конкатенация слов «микро» и «мир» даст слово «микромир» [23] .
Заниматься написанием скриптов должны программисты, это технический вопрос. Важнее другой момент: как составить тексты для заголовков и описаний?
23
https://ru.wikipedia.org/wiki/KoHKaTeHau,Ha
Универсальных
Допустим, нужно заполнить метатеги для большого количества продуктовых страниц на сайте интернет-магазина парфюмерии. Для начала необходимо определить, как пользователи движутся по сайту. Пусть это происходит так: главная – категория – продукт. Эти три переменные необходимо заполнить.
Далее определяются дополнительные параметры и слова, которые важны для пользователей. Для этого необходимо проанализировать хвост низкочастотных запросов, который возникает при проверке основного запроса. Например, вот что мы видим при проверке в сервисе Яндекс. Wordstat [24] категории «женские духи»:
Анализируем таблицу и выбираем то, что волнует покупателей женских духов (цена, фото, отзывы, купить…).
24
https://wordstat.yandex.ru/
Переходим к построению шаблона заголовка. Например, для страницы с товаром он мог бы быть таким:
{название категории} {название товара} – купить в {название магазина}. Цена от {цена} р., фото, отзывы, доставка.
После подстановки всех переменных получим:
Женские духи Dia Woman – купить в магазине Beauty. Цена от 17 800 р., фото, отзывы, доставка.
С мета-описанием аналогично. Если на страницах сайта есть подробное описание товара – можно планировать схемы детальнее, включать больше параметров и полезной для пользователей информации.
Рекомендуется делать схемы для каждого раздела сайта. Чем детальнее их проработать, тем лучше, хотя стоит помнить о балансе затрат и полученных результатов.
Метатег <keywords> (ключевые слова)
На заре развития поисковых систем появилась красивая, но наивная идея о том, что веб-мастера будут сами подсказывать поисковым системам те ключевые слова, которым релевантна та или иная веб-страница.
Для реализации этой теории ввели метатег <keywords >, слова из которого имели серьезное значение при ранжировании документов.
Что произошло дальше, догадаться нетрудно. Веб-мастера и специалисты по продвижению начали запихивать в <keywords> все ключевые слова, по которым они хотели продвинуть сайт в результатах поиска. На релевантность никто не обращал внимания: зачем эти тонкости, когда можно было в короткий срок продвинуться по всем нужным коммерческим запросам?
Масштаб злоупотреблений достиг такой величины, что поисковые системы вынуждены были свести влияние <keywords> буквально до нуля, поэтому на данный момент заполнять этот тег бессмысленно.
Если тег все-таки заполняется содержимым (так сказать, на всякий случай), необходимо
соблюдать простые правила. Содержимое <keywords> должно быть уникальным в пределах сайта, все ключевые слова должны быть релевантны странице, и их должно быть немного.В противном случае поисковые системы могут воспринять содержимое метатега <keywords> как веб-спам и понизить сайт в результатах поиска.
Метатег <robots>
Данный метатег [25] позволяет контролировать сканирование и индексирование сайта поисковыми системами. По умолчанию задаются значения «index, follow» (то же самое, что «all») – дополнительно их прописывать не нужно. Разные поисковики распознают разные значения тега, но универсальными являются два:
25
https://developers.google.com/search/reference/robots_metatag?hl=ru
– noindex: запрещает индексирование страницы;
– nofollow: запрещает роботу переходить по ссылкам с этой страницы.
Эти значения можно комбинировать, разделяя их запятыми. Например, комбинация
<meta name=«robots» content=«noindex, follow»/> заставит робота поисковиков перейти по всем ссылкам на странице, но не индексировать ее содержимое.
Нужно отметить, что использование данного метатега, как правило, свидетельствует о проблемах со структурой сайта. С такими проблемами еще можно мириться на огромном портале, где регулярно возникают трудноустранимые с программной точки зрения «тупики» (страницы, представляющие мало интереса для пользователей и возникающие вследствие несовершенства архитектуры сайта). Но для небольшого проекта это недопустимо.
На заметку
Данное правило является частным случаем другого, более универсального, принципа, который звучит так: «Пользователи и поисковые системы должны видеть одинаковый контент». Если на сайте возникают страницы, содержимое которых нецелесообразно индексировать поисковому роботу, необходимо задуматься о том, а стоит ли их «индексировать» пользователям сайта и какое впечатление такие страницы на них произведут? Не проще ли просто их убрать?
Остается добавить, что использование данного тега для управления индексированием менее предпочтительно по сравнению с правильным формированием файла robots.txt (о нем мы поговорим позже).
10. Поиск и устранение дублей
Идентичный (дублированный) контент на разных страницах сайта может привести к ошибкам индексации и даже свести на нет все усилия по продвижению. Чем опасны дубликаты и почему от них стоит избавляться?
Во-первых, на дубли уходит часть статического веса, а неправильное распределение веса ухудшает ранжирование целевых разделов сайта.
На заметку
Статический вес – это один из важных параметров, влияющих на продвижение сайта в целом и конкретной страницы в частности. Вес определяется количеством и качеством ссылающихся на страницу документов (в основном, html-страниц, но учитываются еще pdf и doc-файлы, а также другие распознаваемые поисковиками документы с гиперссылками).
Во-вторых, на дубли тратится часть драгоценного краулингового бюджета. Особенно остро эта проблема стоит для крупных информационных и e<ommerce (онлайн-торговля) проектов.