Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Каннибализация ключевых слов
Каннибализация ключевых слов обычно начинается тогда, когда информационная архитектура web-сайта требует целевого использования термина или фразы на нескольких страницах сайта. Часто это делается неумышленно, но в результате приводит к тому, что несколько (десятков) страниц имеет одно и то же целевое ключевое слово в тегах названия и заголовка. Эта проблема проиллюстрирована на рис. 4.5. Рис. 4.5. Пример каннибализации ключевых слов Поисковый движок проползет по вашему сайту и увидит 4 разные страницы (или даже 40), причем все они как будто бы релевантны для данного конкретного ключевого слова (в нашем примере ключевым словом является snowboard). Google не интерпретирует это таким образом, что ваш сайт в целом более релевантен для сноубордов или должен иметь более высокий рейтинг, чем конкурент. Вместо этого Google выбирает из многих версий одну, которая (по его мнению) лучше всех соответствует запросу. Когда это происходит, вы теряете некоторые возможности, поднимающие ваш рейтинг. Какие же это возможности? • Внутренний якорный текст. Поскольку вы указываете на множество разных страниц с одной и той же темой, то не сможете сконцентрировать пользу от внутреннего якорного текста на одной цели. • Внешние ссылки. Если четыре сайта делают ссылки на одну страницу о сноубордах, три сайта ссылаются на другую страницу о сноубордах, а еще шесть сайтов ссылаются на третью страницу о сноубордах, то вы разделили всю пользу от ваших внешних ссылок между тремя страницами (вместо того, чтобы сконцентрировать ее на одной странице). • Качество контента. После трех или четырех страниц информации (по одной и той же теме) ценность вашего контента начинает падать. Вам нужно, чтобы ссылки и реферралы привлекала самая лучшая ваша страница (а не десяток безликих дублированных страниц). • Показатель конвертации. Если одна страница конвертируется лучше других, то совершенно не нужно иметь несколько нацеленных на тот же самый трафик страниц с более низкой конвертацией. Если вы хотите отслеживать конвертацию, то используйте систему тестирования с множественной доставкой. Итак, каково же решение? Посмотрите на рис. 4.6. Рис. 4.6. Решение для каннибализации ключевых слов Все страницы сфокусированы на уникальных вариациях и все они имеют обратные ссылки на исходный (канонический) источник (вместо целевого использования snowboards на каждой странице). Теперь Google может легко идентифицировать самую релевантную страницу для каждого из этих запросов. Это ценно не только для поисковых движков, но и обеспечивает лучшее впечатление пользователям, а также улучшает общую информационную архитектуру. Что же вам следует делать, если вы уже имеете каннибализацию ключевого слова? Используйте редиректы 301, чтобы ликвидировать конкурирующие друг с другом страницы (или подумайте, как их дифференцировать). Начните с выявления всех страниц, имеющих эту проблему, определите самую лучшую страницу, на которую их можно направить. Затем используйте редирект 301 (с каждой из проблемных страниц) на ту страницу, которую хотите сохранить. Это обеспечит не только попадание пользователей на нужную страницу, но и тот факт, что накопленные с течением времени ссылки и релевантность направят поисковые движки на самую релевантную для данного запроса страницу с наиболее потенциально высоким рейтингом. Рассмотрим пример ликвидации проблемы с внутренними ссылками. Допустим, сайт предприятия может иметь размер от 10 тыс. и до 10 млн страниц. Для многих сайтов такого типа серьезной проблемой является неправильное распределение " сока" внутренних ссылок (рис. 4.7 иллюстрирует эту ситуацию). Рис. 4.7. Распределение " сока ссылок" на очень большом сайте Вообразите, что каждая из этих крошечных страничек представляет собой от 5 до 100 тыс. страниц на сайте масштаба предприятия. Некоторые его части (блоги, статьи, инструменты, популярные новости и т. д.) могут получать непропорционально большое количество внутренних ссылок. Другие области (обычно это бизнес-контент или контент, связанный с продажами) остаются в стороне. Как это поправить? Посмотрите на рис. 4.8. Рис. 4.8. Использование перекрестных ссылок для выталкивания " сока ссылок" в нужные места Решение простое (по крайней мере, его принцип прост). Пусть богатые " соком" страницы поделятся со своими обделенными ссылками братьями. Это кажется простым, но в реализации может быть невероятно сложно. Внутри архитектуры сайта (с несколькими сотнями тысяч или миллионом страниц) почти невозможно выявить богатые и бедные " соком" страницы, а тем более добавить такой код, который поможет распределить " сок ссылок" по справедливости. К сожалению, решение этой задачи с точки зрения программирования очень трудоемко. Владельцу такого сайта необходимо разработать систему, которая будет отслеживать входящие ссылки и рейтинги, а также строить мосты (или трубы, что больше соответствует рис. 4.8), которые будут переливать сок от богатых ссылками к бедным. Но есть альтернатива – это создание очень плоской архитектуры сайта, которая основана на релевантности или семантическом анализе (такие услуги предлагают несколько компаний, специализирующихся на поиске по сайтам предприятий и их архитектуре). Подобная стратегия больше соответствует указаниям поисковых движков (хотя она несколько хуже) и, безусловно, гораздо менее трудоемка. Существенное увеличение весового коэффициента авторитета домена (за последние два или три года) производит впечатление попытки поисковых движков преодолевать потенциально плохие структуры внутренних ссылок (поскольку проектирование web-сайтов под PageRank практически ничего не дает пользователям) и поощрять те сайты, которые имеют большой авторитет, входящие ссылки и доверие. Проблемы сервера и хостинга К счастью, на поисковую оптимизацию влияет очень незначительное количество проблем с серверами и web-хостингом. Однако если их просмотреть, то они могут развиться в серьезные проблемы, поэтому их также следует упомянуть. Рассмотрим те проблемы с серверами и хостингом, которые могут негативно повлиять на рейтинги поисковых движков: • Тайм-ауты сервера. Если поисковый движок делает запрос страницы, ответ на который не приходит в пределах тайм-аута поискового робота или который выдает ответ " тайм-аут сервера", то ваши страницы могут и вовсе не попасть в индекс. И тогда эти страницы наверняка будут иметь очень плохой рейтинг, поскольку не было найдено пригодного для индексирования текстового контента. • Медленный отклик. Это не так вредно, как тайм-ауты сервера, но все равно является потенциальной проблемой. Не только пауки могут не дождаться загрузки ваших страниц, но и потенциальные пользователи могут предпочесть посещать другие ресурсы (поскольку доступ к вашему сайту становится проблемой). • Совместно используемый IP-адрес. Lisa Barone в марте 2007 г. написала великолепную статью (http: //www.bruceclay.com/blog/archives/2007/03/which_is_better.html) на тему совместного использования адресов IP. Основные проблемы: скорость, возможное присутствие спамеров или не вызывающих доверия соседей на вашем IP-адресе, получение неполной выгоды от ссылок на ваш IP-адрес (более подробно обсуждается по адресу: http: //www.seroundtable.com/archives/002358.html). • Блокирование IP-адреса. По мере того, как пауки ползают по Интернету, они часто находят целые блоки IP-адресов, заполненные совершенно очевидным спамом. Вместо блокирования каждого сайта по отдельности движки иногда принимают дополнительные меры – они блокируют IP-адрес или даже диапазон IP-адресов. Если это вас коснулось, то ищите ваш IP-адрес в Bing при помощи запроса IP: address. • Выявление ботов и работа с ними. Некоторые системные администраторы избыточно усердствуют в плане защиты и ограничивают доступ к файлам любому посетителю, который делает больше определенного количества запросов (в заданный промежуток времени). Для трафика поисковых движков это может быть губительно, поскольку будет постоянно ограничивать возможности пауков. • Ограничения на ширину полосы пропускания и скорость передачи. Многие серверы имеют ограничения по количеству поступающего на сайт трафика. Это может быть очень вредно в тех случаях, когда контент вашего сайта становится очень популярным, а ваш хост ограничивает доступ. Вашу работу не смогут увидеть не только те люди, которые потенциально могли бы сделать ссылки (и которые, соответственно, не сделают ссылок), но и поисковые движки также не смогут просмотреть ваши страницы. • География сервера. Это не обязательно проблема, однако нужно понимать, что поисковые движки используют местоположение web-сервера при определении релевантности контента сайта для местного поиска. Поскольку местный поиск является главной частью компаний по продвижению многих сайтов, то очень разумно размещать сайт в той стране, для которой ваш контент наиболее релевантен. Популярное:
|
Последнее изменение этой страницы: 2016-04-10; Просмотров: 1207; Нарушение авторского права страницы