Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология Образование Политология Производство Психология Стандартизация Технологии |
Создание внутренней перелинковки сайта
Остался последний пункт – сам процесс внутренней перелинковки сайта. Имея все данные по целевым документам (ключевой запрос, страницы-доноры), необходимо добавить ссылки с ключевыми запросами на выбранных постах. Важно, чтобы текст анкора содержал поисковый запрос, а сама внутренняя перелинковка была сделана по выше написанной схеме. Можно добавить ряд внутренних переходов с непродвигаемых страниц для усиления целевых. Когда работа будет закончена, желательно все данные занести в одну таблицу, чтобы в дальнейшем было проще отслеживать различные параметры ключевых слов и проще сверять релевантность целевых документов. К примеру, я пользуюсь такой таблицей для проверки позиций продвигаемых постов по ключевым запросам семантического ядра моего блога. Таблица содержит следующие пункты: ключевые слова моего ядра, их базовая и точная частотность, качество слов, количество внутренних ссылок на продвигаемую страницу, ее адрес, title cтраницы, ее позиции в Яндексе и Google, KEI запроса. Имея такие данные перед глазами я всегда вижу, по какому ключевому запросу мой блог проседает, тот ли документ на текущий момент в выдаче, улучшилось ли качество поискового запроса и т.д. Итак, для ручной правильной внутренней перелинковки сайта необходимо сделать следующие мероприятия: 1. Сканировать текущую перелинковку веб-ресурса. 2. Проверить релевантность целевых страниц. 3. Подобрать страницы-доноры. 4. Создать новые внутренние ссылки по рекомендациям Яндекса. Как видите, процесс создания линковки сайта – важный этап для успешного seo-продвижения сайта. Да и к тому же он достаточно трудоемкий – приходится делать многие повторяющиеся действия, учитывать различные моменты. Делаем грамотно robots.txt Файл Robots.txt - располагается в корневой папке сайта (например, site.ru/robots.txt). Он нужен исключительно для правильной индексации сайта поисковыми системами. Обычному пользователю всё равно, что там написано.
Основные возможности robots.txt: · закрывать от индексации страницы (разделы сайта) · указывать зеркало сайта · указывать host · указывать ссылку на xml-карту сайта Давайте для примера создадим файл robots.txt для Яндекса: User-agent: YandexDisallow: /cgi-binHost: www.VASH-SITE.ru Sitemap: http: //www.VASH-SITE.ru/sitemap.xmlЕсли бы мы создавали файл robots.txt для Google, то нужно было написать: User-agent: GooglebotDisallow: /cgi-binHost: www.VASH-SITE.ru Sitemap: http: //www.VASH-SITE.ru/sitemap.xmlЧтобы учесть всех поисковых роботов, нужно прописать так: User-agent: *Disallow: /cgi-binHost: www.VASH-SITE.ru# здесь можно написать комментарийSitemap: http: //www.VASH-SITE.ru/sitemap.xmlТеперь поясню, что мы прописали выше. Host: www.VASH-SITE.ru - указывается главное зеркало Вашего сайта. Например, я не люблю прописывать www и на всех своих сайтах прописываю host без www. Если Вы напишите несколько host-ов, то использоваться будет первый. См. какой вариант выбрать: сайт с www или без www http: //www.VASH-SITE.ru/sitemap.xml - указывается карта сайта в формате xml. Данный формат поисковые системы воспринимают очень хорошо, поэтому владельцам движков стоит использовать такую карту сайта. Для владельцев статических сайтов прописывать все в формате xml я не вижу смысла. См. как создать карту сайта # - является признаком начала комментария. Распространяется только на одну строчку. Использование * в robots.txt 1. В данном примере все файлы, которые содержатся в папке (и подпапках) /php-script и имеют расширения.php не будут проиндексированы. 2. Все папки, которые имеют название lichnoe, запрещены к индексации. Т.е. папки /articles/lichnoe, /2011/lichnoe, /lichnoe - будут запрещены к индексации. Использование $ в robots.txt User-agent: YandexDisallow: /primer$В данном случае будет запрещена индексация /primer, но /primer.php - разрешен. Файл robots.txt является открытой информацией для каждого. Любой пользователь может посмотреть его по адресу сайта с окончанием robots.txt: site.ru/robots.txt Как создать карту сайта Довольно часто мы слышим о важности карты сайта на seo-семинарах, форумах и т.д. Вполне логично, что у многих вебмастеров возникает вполне нормальный вопрос, " а для чего нужна карта сайта"? Существуют сразу две важные причины иметь карту сайта, поскольку она нужна, как пользователям, так и поисковым машинам. Пользователям она нужна, чтобы можно было понять структуру сайта и быстро ориентироваться в ней ориентироваться, а поисковикам она помогает быстрее индексировать сайт (см. как ускорить индексацию сайта ). Ниже я расскажу о том как создать карту сайта и какой она должна быть.
Популярное:
|
Последнее изменение этой страницы: 2016-03-17; Просмотров: 929; Нарушение авторского права страницы