Чеклист по полному СЕО-аудиту интернет-проекта

Данный чеклист составлен для разных интернет-проектов и включает в себя несколько видов анализа, которые можно использовать как в комплексе, так и отдельно друг от друга.

 

Часть I. Технический аудит сайта

1. Проверка наличия дублей

— главной страницы: с www и без www; с index.php в конце адреса и без; наличие на главной странице тэга canonical (его на главной странице быть не должно);

— проверка и устранение общего количества дублей сайта по «Гугл Вебмастер» в разделе «Оптимизация – Оптимизация html»;

— дубли, которые возникают из-за зеркала сайта (если оно есть);

— посмотреть по «Гугл Аналитикс» и «Яндекс Вебмастеру» число загруженных страниц и страниц в поиске, выяснить, большой ли разрыв, выявить непроиндексированные страницы и понять причины их неиндекса, удалить или закрыть для индексации страницы, которые не нужно индексировать. Для того, чтобы выяснить этот разрыв в Гугле, нужно ввести в адресную строку site:mysite.ru — показывает страницы сайта mysite.ru, находящиеся в индексе Google (общий индекс) и site:mysite.ru/& — показывает страницы сайта mysite.ru, участвующие в поиске (основной индекс);

— проверить дубли материалов и их анонсов в ленте новостей, статей, тэгов и т.п.;

— проверить дублирование тэгов title, description и keywords на разных страницах сайта (это тоже можно проверить по Гугл «Вебмастеру»);

— адреса со / на конце и без тоже могут создавать дубли, знаков # это не касается.

2. Проверка наличия и настройка robots.txt: закрытие от поисковиков ненужных страниц. Некоторые по незнанию запрещают индексацию всего сайта. Помним: disallow —индексация запрещена, аllow разрешает индексирование раздела или страницы. Чтобы разрешить индексацию всех страниц, достаточно создать в корневой директории сайта пустой файл robots.txt. Но все же нужно скрыть от индексации разделы и страницы, которые не относятся к пользовательскому контенту, например, вход в админку и т.п. Отдельно проверить наличие индексации в robots.txt страниц пагинации: их нужно либо закрывать от индексации, либо реализовать другие (более сложные, но подчас более правильные) технические решения.

3. Проверка наличия хлебных крошек. Они должны быть в большинстве случаев, если на сайте есть вложения дальше связки «Главная страница — ссылка на материал».

4. Проверка на наличие вирусов: для Друпал — сервис https://hackertarget.com/drupal-security-scan; для Вордпресс — https://hackertarget.com/wordpress-security-scan. Также это проверяется через многие сервисы анализа сайтов (платные и бесплатные), через вебмастерские панели поисковиков.

5. Сплошной прогон сайта при помощи сервиса www.pr-cy.ru или любого другого подобного сервиса (можно выбрать платный тариф).

6. Проверка наличия сайтов-аффилиатов (сайтов, которые создаются одной компанией и продвигаются по одинаковым запросам с целью полностью заполнить поисковую выдачу).

7. Проверка и корректировка частоты кеширования данных. На сайтах, которые обновляются как новостники этом может быть 1 раз в 15 секунд, для прочих можно установить 1 раз в день или реже.

8. Проверка круглосуточной доступности сайта: настроить на Яндексе функцию оповещения по электронной почте, если необходимо.

9. Прогон ошибок по Яндекс.Вебмастеру и Гугл.Вембастеру. Например, в Гугле во вкладке «Оптимизация HTML» можно найти краткие рекомендации по дооптимизации сайта. Также надо проверить наличие резкого неестественного увеличения количества страниц 404 и ошибок сервера 500. Также проверить 1-2 страницы в разделе «Просмотреть как Googlebot». Видит ли Google контент, которые вы продвигаете? Часто бывает так, что разработчики выводят контент с помощью AJAX без учета рекомендаций поисковых систем по выводу такого контента (рекомендации от Google по ссылке https://goo.gl/N3S1b).

10. Исполь­зу­ются ли ссылки в Javascript? Старайтесь не использовать ссылки в Javascript (поисковые роботы часто игнорируют их), лучше стан­дарт­ные html-ссылки. И убедитесь, что ваша тема дизайна (если она покупалась и тем более бралась бесплатно уже готовая) не нашпигована JS-ссылками и лишним кодом, ухудшающим индексацию сайта.

11. Найти следы движка, которые можно убрать. Например, на Друпале это строка <meta name="Generator" content="Drupal 7 (http://drupal.org)" />. Но у некоторых, если ее просто вычеркнуть из кода, может перестать работать весь сайт. Однако ее легко безболезненно удалить при помощи модуля «Метатег». Также на Друпале генерируется лишняя строка <a href="#main-content" class="element-invisible element-focusable">Перейти к основному содержанию</a>, которая в итоге автоматически становится в снипет поисковой выдачи.

12. Проверка использования 404 ошибки. 404 страница нужна обязательно для вывода тех страниц, которых на сайте нет.

13. Наличие ЧПУ. Все урлы сайта должны идти латиницей в нижнем регистре.

14. Правильный порядок расположения тэгов в коде: <head>, <title></title>, метатеги, CSS, </head>, <body>, код сайта, скрипты, </body>. Они должны идти по очереди именно в такой последовательности.

15. Проверка правильности кода сайта по сервису: https://validator.w3.org.

16. Уровень вложенности каждой страницы — не дальше 3-го. Если есть страницы с глубокой вложенностью, нужно поиграть с картой сайта, футером и т.п. инструментами, чтобы вывести на 3 уровень все важные страницы.

17. Нет ли на сайте битых ссылок и индексируемых пустых страниц? Проверяем при помощи Xenu или Netpeak Spider. Пустые страницы смотрим по «Гугл Аналитикс» и «Яндекс Вебмастер».

18. Корректна ли кодировка шрифтов сайта?

19. Не попали ли какие-то страницы сайта во второстепенный индекс Гугла, куда попадают низкокачественные страницы и целые сайты? Единственный способ обнаружить попадание страниц сайта во второстепенный индекс — перейти на последнюю страницу результатов поиска по запросу: site:site.com, где site.com — домен анализируемого сайта, и выявить наличие строки: «Мы скрыли некоторые результаты, которые очень похожи на уже представленные выше» (это может быть написано по-английски). Чтобы увидеть такие страницы, нужно в этом сообщении развернуть все результаты поиска. Чем больше таких страниц, тем хуже для индексации сайта в целом. Их нужно либо закрыть от индексации, либо, если это хорошие страницы, проанализировать, в чем причина нелюбви к ним Гугла и устранить ее.

20. Обязательный протокол https — без вариантов. Если покупаете бесплатный сертификат, то такой — https://letsencrypt.org либо сертификат от https://www.cloudflare.com, если их сервис используется на сайте. Однако с такими сертификатами могут возникнуть проблемы. Подробнее о переходе на новый протокол.

21. Проверить служебный заголовок продвигаемой страницы: он должен отдавать 200 заголовок. Проверить можно с помощью сервиса http://www.bertal.ru. http://prntscr.com/9q4bcn.

22. Посмотреть кэш страницы по запросу cache. Видит ли Гугл весь полезный контент страницы или какие-то нужные элементы ему не видны?

 

Часть II. Семантический аудит сайта

1. Составить семантическое ядро сайта.

2. Проверить соответствие главных тэгов (главная страница, разделы, подразделы) запросам семантического ядра.

3. Есть ли на сайте микроразметка: http://www.schema.org (для поисковиков) и http://ruogp.me (для соцсетей). Руководство: https://yandex.ru/support/webmaster/schema-org/intro-schema-org.html. Проверить микроразметку для соцсетей можно здесь https://developers.facebook.com/tools/debug/sharing/ .

4. Правильно ли настроена информация для быстрых ссылок: https://yandex.ru/support/webmaster/search-results/quick-links.html. Указать их нельзя, но можно повлиять на решение поисковика.

5. Проверить представленность на сайте страниц, соответствующих менее важным ключевым словам ядра. Проверить соответствие этих страниц (текстов и графики) СЕО-стандартам и требованиям пользователей.

6. Составить контент-план по написанию недостающих текстов под оставшееся семантическое ядро. Составить техзадание копирайтерам по каждому пункту контент-плана.

7. Проверить позиции сайта в поисковых системах по ключевым запросам и сравнить с конкурентами. Релевантна ли продвигаемая страница запросу: site:example.com продвигаемый запрос? Продвигаемая страница должна находиться на 1 месте, не должно быть очень схожих по содержанию страниц.

8. Проверка технических нюансов, связанных с семантикой:

— наличие Alt и Title на картинках;

— уникальность изображений;

— для title: главный ключ использован в начале тайтла, размер в пределах 80-100 символов (самый лучший — до 65 символов), title может не дублировать полностью h1, ограниченное количество прилагательных, особенно качественных (лучший, эффективный, прекрасный, современный и т.д.), верхний регистр поисковики могут расценить как спам, не должно быть знака вопроса (пользователи могут подумать, что мы спрашиваем, а не отвечаем) (рекомендации Романа Пузата);

— description составляется на основе того, что написано в статье, никаких вводных слов и воды (Правильно: «Строительство гаража своими руками: способы, инструменты, материалы…». Неправильно: «Из этой полезной статьи вы узнаете о том, как в современном мире происходит строительство гаража».), размер в пределах 170 символов, главный ключ находится в первом предложении в прямом вхождении и во втором предложении в разбавленном вхождении — тогда description имеет шансы попасть в сниппет (рекомендации Романа Пузата);

— h1 всегда один на страницу, после прочтения заголовка должно быть понятно, о чем статья, h1— заголовок в первую очередь для пользователя, должен быть главный ключ статьи в разбавочном вхождении: с измененными окончаниями или добавлением других слов в ключ, заголовок в пределах 60 символов, в заголовке нет знаков препинания, не рекомендуется даже вопросительный знак, исключение только для блока вопросы-ответы (рекомендации Романа Пузата);

— соблюдается ли последовательность подзаголовков, например, h2-h3-h3-h2, ключ может быть использован в h2-h4, но тогда он должен быть также и в тексте, не менее 1 подзаголовка на 1000 знаков текста (рекомендации Романа Пузата).

9. Проверка на спам по таким критериям:

— читабельны ли тексты, отвечают ли они реально на вопрос пользователей или просто привлекают трафик;

— проверка каждого текста по сервису текстов, например, «Главред»;

— проверка уникальности контента, например, по сервису https://content-watch.ru/text;

— не используются ли тэги bold/strong чаще 1-2 раз на большой текст (можно не чаще 1 раза на 1000 символов или вообще не использовать);

— настройка частоты захода поисковых роботов на сайт.

10. Проверка внутренней перелинковки на сайте (хорошее руководство можно почитать здесь: https://seoprofy.ua/blog/optimizaciya-sajtov/vnutrennyaya-perelinkovka-sajta):

11. По итогам наличия текстов нужно прогнать их на соответствие критериям, указанным в данной статье: https://www.seonews.ru/analytics/35-pravil-seo-kontenta-kotorye-polyubit-lyuboy-poiskovik.

12. Все тексты проверить на соблюдение технических параметров, например, по https://advego.ru/text/seo. Показатели ниже — именно для этого сервиса, т.к. другие сервисы считают по-другому и у них получаются другие показатели, для которых есть свои нормы:

— показатель воды – от 40% до 65%;

— показатель классической тошноты – до 7;

— показатель академической тошноты — до 9.

13. Какие используются методы для защиты от воровства контента? Рекомендуем:

— добавление в сервис уникальных текстов «Яндекса»;

— встроить код, который будет автоматически добавлять к скопированному тексту ссылку на первоисточник;

— связать вновь выходящие материалы сайта с профилем Гугл+ автора (нужны реальные имя и фамилия, чтобы можно было потом доказать свое авторство и заблокировать вора). Чтобы присвоить статье авторство и отобразить аватарку в Google, необходимо на всех авторских страницах сослаться на свой профиль в Google+, а в настройках профиля указать ссылку на сайт или отдельные статьи. Подробней о том, как это сделать технически, написано здесь: http://lp-up.com/blog/optimization/google-avtorstvo.html;

— так как время появления статьи в индексе существенно для определения первоисточника, важно поисковику сообщить как можно раньше о том, что контент на сайте появился. Это можно делать разными способами. Один из них — это так называемая посылка пингов FeedBurner PingShot. Если на сайте используется FeedBurner, то активируйте функцию PingShot во вкладке «Публикуй». Активация PingShot позволит моментально уведомлять Google о появлении новых статей в RSS. В связке с «Твиттером» это дает еще лучший эффект. Правда, метод подходит лишь для новых статей.

14. Проверить позиции сайта по ключевым запросам: http://top-inspector.ru, http://allpositions.ru, http://site-control.ru и другим сервисам.

 

 Часть III. Аудит юзабилити сайта 

1. Все ли важные элементы сайта являются сквозными и заметными с первого взгляда?

2. Все ли элементы сайта работают?

3. Есть ли на логотипе переход на главную страницу?

4. Проанализировать страницы выхода по «Яндекс Вебмастеру» и «Гугл Аналитикс» и понять, почему пользователи уходят именно с них.

5. Проанализировать данные карты кликов.

6. Проанализировать данные путей пользователей на сайте.

7. Есть ли кнопки расшаривания соцсетей и кнопки на соцсети?

8. Есть ли блоки комментирования?

9. Тестирование на живых людях и учет их замечаний.

10. Определение целей в системах аналитики.

11. Возможность подписаться на обновления сайта по RSS и электронной почте (она должна быть).

12. Проверка скорости загрузки сайта: https://developers.google.com/speed/pagespeed/insights/ и http://sitespeed.ru, а также https://www.thinkwithgoogle.com/intl/en-gb/feature/testmysite.

 

Часть IV. Визуальный аудит сайта

1. Оценка цветового решения сайта.

2. Оценка кроссбраузерности.

3. Оценка мобильной адаптации сайта по «Яндекс Вебмастер» и «Гугл Аналитикс»: https://search.google.com/test/mobile-friendly.

4. Оценка сайта группой пользователей и учет их замечаний.

 

Часть V. Анализ внешней оптимизации сайта

1. Добавление сайта на карты Гугл и Яндекс, если это сайт компании.

2. Добавление счетчиков или кодов статистики.

3. Добавление сайта в системы "Яндекс Вебмастер" и "Гугл Аналитикс".

4. Анализ изменений ТИЦ во времени.

5. Анализ изменений посещаемости.

6. Анализ входящей ссылочной массы. Если на сайт ссылаются подозрительные ресурсы, нужно добиться снятия ссылок.

7. Анализ исходящей ссылочной массы. Это можно сделать с помощью бесплатной программы Xenu. После того, как вы получите список исходящих ссылок, убедитесь в том, что: на сайте не присутствует неизвестных вам ссылок, рекламные ссылки закрыты rel=nofollow, сквозные ссылки на партнеров закрыты rel=nofollow, ссылки на подозрительные сайты закрыты в rel=nofollow.

 

Часть VI. Анализ системы безопасности сайта

1. Если на сайте стоит общедоступная CMS, поменять адреса входа в админку и регистрации пользователей.

2. Проверить, какие стоят модули или плагины безопасности и поставить новые, если нужно. Как минимум должны быть такие:

— CAPTCHA;

— ограничение количества попыток неудачного входа в админку.

3. Если сайт мультипользовательский, то нужно тщательно проверить все права доступа для разных ролей. Даже если все пользователи — это ваши друзья, все равно надо их ограничить, чтобы они не навредили нечаянно.