Архитектура Аудит Военная наука Иностранные языки Медицина Металлургия Метрология
Образование Политология Производство Психология Стандартизация Технологии


Часть #1 - Общий анализ сайта



Полный аудит сайта

Настоящий документ представляет собой описаниеSEO аудита. Аудит включает более 700 проверок. При проведении аудита используется более 50-ти программ, плагинов и сервисов. Проверки выполняются по 25 группам факторов. Ориентировочное время на проведение аудита – 120-200 часов, но может варьироваться в зависимости от размеров проекта. В таком виде аудит изучают слушатели полного курса специализаций продвижение каталога, продвижение интернет-магазинов и продвижение порталов. По такому формату проводится полный аудит в ТопЭксперт.

Анализначальной точки продвижениясайта

Для того, чтобы замерять эффективность, перед тем, как начинать продвижение сайта, необходимо обозначить начальную точку. Это так же позволит нам соотнести сайт с потенциалом тематики, замерив, например, разнообразие ассортимента.

 

§ Кол-ворубрик: 15

§ Кол-вокарточек: ≈ 600-800

§ Анализ позиций по всей семантики (A-Parser, http: //www.seolib.ru/analytics/)

§ Видимость_1 SUMM(wordstat/position) – грубо

§ Видимость_2 SUMM (wordstat/k_ctr_position) – менеегрубо

§ Посещаемостьсайта (Яндекс.Метрика, LiveInternet, Google.Analytics, http: //seobudget.ru/visitors/, http: //www.alexa.com/)

Часть #2 - Матрица сайта

Матрица – формат представления структуры сайта, удобный при изучении крупных проектов.

1. Матрица сайта:

- по горизонтали категории сайта (ноутбуки, пылесосы)

- по вертикали шаблоны страниц (карточки товаров, каталог товаров)

- на пересечении типы страниц, представленные параметрами в URL (карточки пылесосов, каталог ноутбуков)

 

2. Ошибки:

- перечисление всех страниц

- логические несоответствия

- матрица должна строиться на текущем состоянии сайта, а не планируемом

 

3. Особые случаи:

- для небольшого сайта может быть всего 1 раздел

- " о компании", " контакты", " помощь" - это одна группа в матрице, а не 3 страницы

 

 

Часть #3 - Изучение тематики

 

Выбор проектов для анализа

При изучении конкурентов рекомендуется отбирать лидеров в одном с вами сегменте, лидеров более узкого сегмента и лидеров более широкого сегмента. Так, если вы торгуете компьютерной техникой, то лидер в вашем сегменте будет успешным магазином компьютерной техники, более узкий сегмент может быть представлен магазином, где продаются только ноутбуки, а более широкий сегмент может представить онлайн-гипермаркет, который охватывает множество товарных категорий.

- изучение лидеров по LiveInternet

- изучение лидеров по SEORate

- изучение лидеров по MegaIndex

- изучение лидеров через http: //www.seolib.ru/help/seoprice/

- сравнение отобранных проектов

На этой схеме видно, что все представленные проекты имеют существенный трафик, большое количество страниц, что делает проекты интересными для изучения. Лидер по поисковому трафику – проект carsguru.net. Для того, чтобы это выяснить, пришлось удалить в статистике витальные запросы, с их учетом лидер – auto.ru, который весьма плохо ранжируется в поисковых системах.

Анализ 404 страницы

404 страница должна быть корректно оформлена, это позволит минимизировать потери трафика

 

- Страница должна иметь шаблон в дизайне сайта

- Страница должна давать возможность пользователю вернуться назад

- Страница должна давать возможность пользователю посетить важные разделы

- Страница должна отдавать код ответа 404

 

Исправление ошибок

Для того, чтобы исправить ошибки, необходимо их найти. В рамках большого сайта эту задачу невозможно решить без инструментов автоматизации.

 

- Поиск страниц с кодами ответа 3**

- Поиск ссылок на редиректы

- Поиск страниц с кодами ответа 4**

- Поиск ссылок на 404 страницы

- Сервисы, построенные на краулере, которые определяют откуда какая куда ссылка: СайтРепорт, PageWeight, Xenu

 

Анализ размеров страниц

Анализ крайних значений размеров страниц позволяет обнаружить неочевидные ошибки, например страницы с очень маленьким весом могут создаваться из-за ошибок CMS.

 

- анализ крайних значений по типам страниц и разделам сайта

- верстка должна быть оптимизирована, чтобы страницы грузились быстро

 

8. Анализ логов сайта, поиск страниц, которые не посещал робот:

 

Анализ логов позволяет понять, какие страницы посещал робот. Это важно, например, при работе над индексацией страниц. Бывает так, что страница посещается роботом, но в индекс не попадает.

 

- По User-Agentможно узнать, какая ПС заходила

- В логах хранятся запросы

- Дата посещения

- URL страницы

- Код ответа

- Сервисы для анализа логов: Awstats, WebAlizer, Analog, Logalyzer

 

Часть #5– Индексация

Поиск дублирующих страниц

 

Необходимо найтивсе возможные дубли страниц сайта и перенастроить сервер таким образом, чтобы только 1 страница главного зеркала была индексируемой.

 

- сравнение по шинглам (сервис СайтРепорт)

- сравнение TITLE (сервис СайтРепорт, WebMasterGoogle, оператор «intitle: » в Яндексе)

- проверка по дублям: www.site.ruиsite.ru

- проверка по дублям: http: // иhttps: //

- проверка по дублям: dirиdir/

- проверка по дублям: / и /index.php

- проверка по дублям: /cat/dir/ и /dir/cat/

- проверка по дублям: /cat/dir/id/ и /cat/id/

- проверка по дублям: panasonic/tv/ и param_1=12& param_2=44

- проверка по дублям: param_1=12& param_2=44 и /cat_12/dir_44/

- проверка по дублям: site.ruиtest.site.ru

- проверка по дублям: test.site.ruи site.ru/test/

- проверкаподублям: /bedroom/divan_roza.htmlи /guestroom/divan_roza.html

- проверка по дублям: /? red_id=3342

- проверка по дублям: /session_id=442424424022492

 

Поиск дублирующего контента

 

На сайте могут присутствовать частичные дубли. Такие страницы не только соревнуются между собой в релевантности по ключевым словам дублированного блока, но и могут терять релевантность по продвигаемым запросам за счет размытия текста.

 

- сравнение по шинглам (сервис СайтРепорт)

- ручной осмотр разных страниц сайта по матрице

 

Поиск пустых страниц

 

На некоторых сайтах можно найти страницы с пустыми TITLE. При таком раскладе продвигаемые страницы теряют в релевантности, потому что содержимое TITLEимеет значительное влияние на ранжирование страницы.

 

- по TITLE (сервис СайтРепорт)

- по количеству контента и по размеру страницы (часто пустые страницы и страницы с ошибками имеют проблемы в TITLE)

 

Поиск страниц с ошибками

 

Из-за ошибок CMS, базы данных, кодировки, верстки, скриптов и др., некоторые страницы могут отображаться с ошибками.

 

- вручную при сравнении индексов

- через поиск ключевых слов “admin”, “SQL” и т.п. в тексте

- анализ ошибок в логах

- анализ страниц с высоким % отказов

 

Часть #7 - Региональность

 

 

Анализ SEOIN/SEOOUT

 

При простановке ссылок важно учитывать значения SEOIN/SEOOUT, чтобы избежать фильтрации на вес входящей ссылки.

 

- SEOIN> SEOOUT (сервисы RDS bar, Solomono)

- Количество исходящих ссылок < количество страниц в индексе (сервисыRDSbar, Solomono, плагинWink)

 

Анализ сайта на клоакинг

 

Некоторые вебмастера всё ещё используют клоакинг с целью манипуляции поисковой системой. Необходимо проверить сайт

 

- Сравнение кеша страницы с текущей версией

- Сравнить содержание страницы с копией в от СайтРепорт (по умолчанию представляется user-agent: YandexBot)

- Поиск клоакинга в продаваемых ссылках

- Поиск клоакинга в контенте

 

Поведенческие накрутки

 

Важно узнать, не предпринимаются ли осознанные или не осознанные действия по накрутке поведенческих факторов.

 

- Не обоснованный рост трафика по некоторым запросам, опережающий рост позиций (или вообще при отсутствии роста позиций) (сервисы Яндекс.Метрика, Google.Analytics)

- Рост трафика при отсутствии роста конверсии(сервисы Яндекс.Метрика, Google.Analytics)

Часть # 10 - URL факторы

 

Проверка URL наспамность

 

SEO специалист может переборщить со стремлением разместить ключевые слова в URL, сделав URLспамными.

 

- ключевое слов встречается не более 2 раз, если 1 раз - в домене

- если в домене ключевого слова нет, оно встречается в URLне более 1 раза

 

Как формировалась структура

 

В первую очередь важно, чтобы структура сайта соответствовала реальным проблемам пользователей, чтобы содержимое страниц было основано на изучении спроса.

 

- при разработке сайта проводилось ли маркетинговое исследование спроса

- находят ли текущие проблемы пользователей отражение в структуре сайта

Часть #13 - HTML

Часть #14–Юзабилити

 

 

Вкратце оюзабилити   - изучить, что нужно пользователю - убрать все лишнее - добавить необходимое - оформить наглядно  

 

 

Анализ юзабилити ссылок

 

Правила юзабилити не являются жесткими, профессионалы интерфейсов могут смело нарушать их и делать удобные сайты, но для среднестатистического проекта стоит придерживаться простых правил:

 

- ссылки подчеркнуты

- ссылки не выглядят так же, как текст

- ссылки, действие которых происходит в том же окне, имеют прерывистое подчеркивание

- очевидно, что за ссылкой кроется выпадающее меню

- границы ссылок и кнопок должны быть очевидны

- ссылка «купить» должна быть кнопкой

 

Часть #15-Сниппеты

Анализ сниппетов в Google

Необходимо выделить и изучить, что каждая часть сниппета формируется корректно:

- ЧПУ URL

- отзывы по микроформату hReview

- заголовок (TITLE, DMOZ, анкор ссылки, текст страницы)

- указание авторства контента по микроформату hCard

- содержимое сайтов по микроформатам hProduct и GoodRelations

- мероприятия по микроформату hCalendar

- адрес по микроформату hCard

- хлебные крошки по микроформату Breadcrumb

- описание (текст страницы, description, описание в каталоге DMOZ)

 

Необходимо зафиксировать по каждому пункту, корректно ли формируется сниппет и существуют ли возможности к улучшению.

Анализ сниппетов в Яндекс

Необходимо выделить и изучить, что каждая часть сниппета формируется корректно:

- ЧПУ URL

- регистр букв в домене

- иконка (файл favicon.ico)

- заголовоксниппета (title, h1-h6, strong, b, ul, li, Я.каталог, DMOZ, Description)

- быстрые ссылки (структура, url, переходы по ссылкам)

- содержимоесайтов (микроразметкаhCard, hRecipe, hReview, hProduct)

- регион (я.адреса, я.каталог)

- адрес (я.адреса)

- социальные ссылки (связанные аккаунты в соц. сетях)

- хлебные крошки (хлебные крошки, ЧПУ)

- описание (текст страницы, description, яндекс.каталог, анкор-лист)

- ссылки в описании

 

Необходимо зафиксировать по каждому пункту, корректно ли формируется сниппет и существуют ли возможности к улучшению.

Часть #16 - Ссылочная масса

 

Получение данных о ссылках

 

Для анализа ссылок необходимо получить данные о всей ссылочной массе.

 

- URL

- тИЦ

- PR

- кол-во исходящих ссылок со страницы

- возраст

- Як.

- ДМОЗ

- дата индексации

- текст ссылки

- цена

- количество входящих ссылок на сайт

- количество исходящих ссылок с сайта

- трафик сайта

- страниц сайта в индексе Яндекс

- страниц сайта в индексе Google

 

Сборанкор-листа

 

Тексты ссылок участвуют в ссылочном ранжировании. Необходимо собрать всю доступную информацию об анкорах.

 

- внутренний анкорлист – СайтРепорт(Проект -˃ Отчетпозагрузке -˃ Коллекторанкоров)

- внешнийанкорлист – Ahrefs, Solomono, Majesticseo

- проанализировать по матрице по популярной странице каждого типа

Часть #18 - Статический вес

 

 

Часть #19 - Анкоры

Поиск дублирующихся TITLE

 

Существует правило – 1 запрос нельзя продвигать на 2 страницы. Дублирование TITLE нарушает это правило, поскольку размывает релевантность продвигаемой страницы.

 

- необходимо найти на сайте все дубликате TITLE (сервисы СайтРепорт, Google.WebMaster)

Проверка TITLE на спамность

 

На некоторых страницах SEO специалист могут перестараться с употреблением ключевых слов в TITLE. При генерации, кстати, TITLE так же могут быть спамными.

 

- поиск TITLE, где несколько раз повторяются ключевые слова

- ручной отсмотр списка всех TITLE сайта (такой отчет есть в СайтРепорт)

Анализ уникальности текстов

 

Необходимо убедиться в отсутствии дублей контента внутри сайта.

 

- сравнение контента внутри сайта (сервис СайтРепорт)

Анализ текста по матрице

- Наличие

- Объем

- Содержание

 

Проверка саппорта

 

Служба саппорта может долго реагировать на запрос, давать некорректную информацию.

 

- матерный злой запрос

- стандартный запрос

- замер времени ответа

- информативность

- готовность и способность решить проблему

- соответствие режима работы, указанному на сайте

Проверка колл-центра

 

В результате работы неэффективногоcallцентре сайт может потерять позиции по поведенческим факторам JКлиент может потерять заказы.

 

- злой клиент

- звонок в обеденное время

- звонок за 5 минут до конца рабочего дня

- оформление заказа по телефону

- глупые вопросы

- сложные вопросы

- обещание перезвонить

Таблица приоритетов: критические, важные и незначительные ошибки

 

Приложение

Список программ и сервисов, используемых в процессе аудита:

1. Поиск с использованием спец. операторов Yahoo – http: //www.yahoo.ru/

2. Поиск с использованием спец. операторов Яндекс – http: //www.yandex.ru/

3. Поиск с использованием спец. операторов Google – http: //www.google.ru/

4. Построение таблиц в Excel

5. Сервис Яндекс.Метрика – http: //metrika.yandex.ru/

6. Сервис Яндекс.Вебмастер - http: //webmaster.yandex.ru/

7. СервисGoogle.Analytics - http: //analytics.google.com/

8. СервисWebmasters.Google - http: //webmaster.google.com/

9. Сервис SEORate (анализ видимости) - http: //www.seorate.ru/

10. СервисMegaIndex (комплекс инструментов аналитики) – http: //www.megaindex.ru/

11. Сервисwordstat.yandex.ru (анализ спроса) – http: //wordstat.yandex.ru/

12. ПрогрммаPage-Weight (анализсайта) – http: //www.page-weight.ru/

13. Программа Xenu(анализ сайта) - http: //home.snafu.de/tilman/xenulink.html

14. Сервис СайтРепорт(SEO анализ сайта) – http: //сайтрепорт.рф/

15. Сервис LoadImpact (проверка нагрузоустойчивости) - http: //www.loadimpact.com/

16. Сервис Awstats(анализ логов)- http: //awstats.sourceforge.net/

17. WebAlizer (анализ логов) - http: //www.webalizer.org/

18. ПлагинPageOptimizer (проверка скорости загрузки) - https: //chrome.google.com/webstore/search-apps/pagespeed

19. СервисPingDomTools (проверка скорости загрузки) - http: //tools.pingdom.com/

20. Программа A-Parser (универсальныйпарсер) – http: //a-parser.com/

21. Antigate(распознавание капчи)– http: //antigate.com/

22. Сервис AWMProxy (прокси) – http: //awmproxy.com/

23. Сервис Alexa(веб аналитика) – http: //www.alexa.com/

24. Сервис валидацииrobots.txtот Яндекс –http: //webmaster.yandex.ru/robots.xml

25. Сервис валидацииsitemap.xml от Яндекс – http: //webmaster.yandex.ru/sitemaptest.xml

26. Проверка орфографии Яндекс – http: //www.webmaster.yandex.ru/spellcheck.xml

27. Валидациямикроразметки Яндекс – http: //webmaster.yandex.ru/microtest.xml

28. Плагин RDS bar – http: //www.recipdonor.com/bar

29. Сервис Skvotte.ru (поиск доменов по данным whois)– http: //www.skvotte.ru/

30. Сервис 2ip.ru (поиск доменов по данным whois) – http: //2ip.ru/domain-list-by-email/

31. Сервис recipdonor(поиск доменов по данным whois) – http: //recipdonor.com/infowhois

32. Nic.ru (анализ whois) –http: //nic.ru/whois/

33. СервисSolomono (анализ ссылок) – http: //www.solomono.ru/

34. Плагин wink’a (анализ ссылок) – https: //addons.mozilla.org/ru/firefox/addon/webmaster-sape/

35. SEOBudget (проверка уникальности текста) – http: //seobudget.ru/tools/unique/

36. SEOBudget (распознавание CMS) – http: //seobudget.ru/tools/cms/

37. SEOBudget (определение посещаемости сайта) – http: //seobudget.ru/visitors/

38. SEOBudget (оценка влияния ПФ по запросам) – http: //seobudget.ru/tools/factors/

39. Alexa (веб аналитика) – http: //www.alexa.com/

40. SEOLib(потенциал трафика по запросам) – http: //www.seolib.ru/script/pop/

41. SEOLib (анализ конкуренции по запросам)– http: //www.seolib.ru/help/seoprice/

42. SEOLib(анализ геозависимости запросов) – http: //www.seolib.ru/script/geo/

43. SEOLib(анализ позиций) – http: //www.seolib.ru/analytics/

44. Плагин WebDeveloper (анализ страниц) – https: //addons.mozilla.org/ru/firefox/addon/web-developer/

45. Плагин LiveHTTPHeaders (анализ серверных ответов) - https: //addons.mozilla.org/ru/firefox/addon/live-http-headers/

46. Яндекс.антиспамAPI– http: //api.yandex.ru/cleanweb/

47. Acunetix (проверка сайта на уязвимости безопасности) – http: //www.acunetix.com/

48. Чек-лист по XSS уязвимостям – https: //www.owasp.org/index.php/XSS_Filter_Evasion_Cheat_Sheet

49. WebArchive(история интернета) – http: //web.archive.org/

50. HTMLвалидатор – http: //validator.w3.org/

Полный аудит сайта

Настоящий документ представляет собой описаниеSEO аудита. Аудит включает более 700 проверок. При проведении аудита используется более 50-ти программ, плагинов и сервисов. Проверки выполняются по 25 группам факторов. Ориентировочное время на проведение аудита – 120-200 часов, но может варьироваться в зависимости от размеров проекта. В таком виде аудит изучают слушатели полного курса специализаций продвижение каталога, продвижение интернет-магазинов и продвижение порталов. По такому формату проводится полный аудит в ТопЭксперт.

Часть #1 - Общий анализ сайта

 

1. Сбор информации о проекте от клиента:

 

Для того, чтобы работа велась эффективна, необходимо изучить историю проекта и текущее состояние. Чем больше данных предоставит клиент, тем более эффективным будет ваша работа, т.к. вы сумеете изучить совершенные ранее ошибки, поймете слабые места проекта и сможете сэкономить время, используя чужой труд в тех областях, где он выполнен удовлетворительно.

 

- доступы в Яндекс.Метрика, Яндекс.Вебмастер

- доступы в Google.Analytics, Webmasters.Google

- логи сервера

- отчеты по SEO

- семантическое ядро

- выгрузка из бирж, или доступы туда

- информация о том, попадал ли сайт хоть когда-нибудь под фильтры

- информация о том, что меняли на сайте за последний год (два)

- информация о том, какими человеческими ресурсами располагает заказчик

- информация о том, какие результаты к каким срокам ожидает заказчик

- план развития проекта на ближайший год

- порядок внесения изменений на сайте

- контактные лица

- информация о том, как создаются новые страницы

- аудиты (+ТЗ), проводимые ранее

- есть ли другие сайты у компании, где продается та же или похожая продукция

- есть ли зеркала сайта, менялся ли хозяин домена

- логи всей переписки с Платоном Щукиным

 

2. Ручной анализ сайта:

Необходимо вручную изучить сайт, стать его постоянным пользователем, зарегистрироваться, найти ошибки и столкнуться с теми проблемами, которые мешают посетителям решать свои проблемы.

 

- открыть большое количество разнообразных страниц сайта и изучитьструктуру, категории, шаблоны, наполнение, виды контента, проблемы, ошибки

- попытаться добавить спамный контент

- совершить основные действия пользователя

- изучить способы создания контента на сайте

- изучить регулярность публикаций на сайте и актуальность информации

- изучить работоспособность функционала и разделов сайта

 

3. Анализ отчетов о продвижении:

 

Сопоставление отчетов с хронологией изменений алгоритмов поисковых систем, изменений на сайте, покупки ссылок и другими явлениями позволяет изучить и понять многие скрытые проблемы проекта.

 

- запросы, соответствие проблем страницам

- что было сделано, как это коррелируется с динамикой продвижения

- соответствие прогнозов результатам

- объяснение проблем и задержек в достижении результатов

- наличие и содержание рекомендаций по сайту

- наличие и содержание контрольных аудитов

 

4. Оценка трафикового потенциала сайта:

 

Невозможно делать прогноз трафика, но можно оценить потенциал тематики и выполнить свою работу максимально эффективно.

 

- Изучение проблематики в тематике

- Изучение полноты охвата тематики на сайте

- Изучение содержания сайта

- Изучение трафиковых достижений успешных проектов

- Изучение трафикового потенциала контентных решений в тематике

 

Почему нельзя делать прогноз трафика приемлимой точности - среда нестабильна: ошибки ПС, новые алгоритмы, фильтры, действия конкурентов, неполное представление об алгоритмах, машинное обучение - сезонность и всплеск спроса: метеориты и пластиковые окна, лед и шины - неисполнение обязательств со стороны клиента (текст не выложен, тз не внедрено) - данные по статистике запросов основаны на прошлом опыте - неизвестны все запросы, по которым придут посетители - технологическое отставание специалистов - 6 мес. минимум - ошибки SEO-специалиста, ошибки клиента, ошибки сторонних сервисов - ошибки подрядчиков - происки конкурентов …

 

5. Анализ CMS на эффективность для продвижения:

- CMS обновляется?

- Содержит ли CMSнеобходимые для такого типа проектаSEO модули? http: //topexpert.pro/2.html

-Не совершили ли разработчики критических ошибок? http: //topexpert.pro/4.html

- Проверка на использование стандартного шаблона в качестве дизайна сайта

- Определение CMS сайта (http: //seobudget.ru/tools/cms/)


Поделиться:



Последнее изменение этой страницы: 2019-06-08; Просмотров: 150; Нарушение авторского права страницы


lektsia.com 2007 - 2024 год. Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав! (0.168 с.)
Главная | Случайная страница | Обратная связь