yandex metrika

Smart SEO Auditor

Программа для SEO анализа сайта

Технический аудит сайта

Что такое технический SEO аудит сайта?

Технический аудит сайта — комплекс мероприятий, направленный на определение эффективности работы веб-сайта с технической точки зрения.  Технический аудит включает в себя:

  • аудит файла robots.txt и карты сайта sitemap.xml,
  • поиск битых ссылок, дубликатов контента,
  • проверка скорости загрузки ресурса,
  • анализ размера страницы сайта,
  • проверка «человекопонятности» адресов страниц,
  • проверка кодировки страницы,
  • аудит текста и кода страницы,
  • анализ JavaScript и CSS, проверка других технических параметров.

Аудит сайта необходимо выполнять регулярно не в зависимости от того, вносите ли вы какие изменения на сайте или нет. Битые ссылки, дубликаты и прочие проблемы могут появиться без вашего участия и совершенно в неподходящий момент. Обратите внимание, технически неисправных сайтов в ТОП 10 поисковых систем нет. Там только качественные ресурсы!

Программа Smart SEO Auditor - Технический аудит сайта

Различия между техническим аудитом сайта и другими видами аудита.

  • Поисковый SEO аудит проверяет содержимое сайта, заголовки и описания страниц, ссылки, картинки и их атрибуты и т.д.
  • Аудит юзабилити помогает понять насколько сайт удобен и понятен пользователю. Чем понятнее, проще и удобнее сайт, тем выше конверсия сайта.
  • Маркетинговый аудит - проверка эффективность с точки зрения рынка.

Технический аудит файла robots.txt.

Файл robots.txt содержит инструкции для Google, Yandex и других поисковых систем. Прежде чем начать сканирование сайта, поисковый робот анализирует инструкции в этом файле.

На этой вкладке в левой части расположена таблица с результатами аудита. Кликнув мышкой на каком-либо из параметров, в нижней части Вы увидите подсказку по этому параметру.

В правой части представлено содержимое файла robots.txt. Инструкции этого файла либо разрешают, либо запрещают поисковыми системам индексировать определённые странички или папки сайта.

Технический аудит файла robots.txt

Здесь же вверху есть вкладка «Запрещённые к индексации ресурсы». Здесь размещена таблица страничек и картинок, которые запрещены к индексации. Убедитесь, что в этом списке только те странички и картинки, которые не должны быть проиндексированы поисковыми системами. Иначе, следует внести правки в robots.txt.

Технический аудит сайта поисковые системы начинают с файла robots.txt.

Проверка карты сайта.

Карта сайта – это файл в формате XML, содержащий адреса всех тех страниц веб-сайта, которые должны быть просканированы поисковыми системами. Сейчас среди оптимизаторов нет единого мнения о важности этого файла. Тем не менее, лучше, всё-таки, его создать.

Технический аудит карты сайта

Вкладка карты сайта аналогична предыдущей вкладке «Файл robots.txt». В левой части перечень параметров, по которым проверяется карта сайта, в правой – само содержимое файла карты сайта. 

Обратите внимание на вкладку «Рассогласования карты сайта и robots.txt». Иногда бывает так, что веб-мастер добавил страничку в карту сайта для того, чтобы страничка была проанализирована поисковыми системами, но при этом robots.txt запрещает индексацию этой странички. Отчёт на данной вкладке поможет Вам выявить такую ситуацию. Аудит сайта начинается с robots.txt, затем анализируется карта сайта, и только потом каждая отдельная страничка. Также обратите внимание на вкладку «Не найдено». На этой вкладке указаны все страницы, которые есть в карте сайта, но не были найдены при его сканировании. Таких не найденных страниц быть не должно. Если же они все-таки есть – это нужно исправить.

Немного о битых ссылках и дубликатах.

Проблема битых ссылок, пожалуй, одна из наиболее распространённых. Даже на авторитетных сайтах таковые встречаются. Нужно стараться вовремя выявлять и исправлять их, иначе про ТОП 10 можно забыть. Не будем сильно подробно останавливаться на битых ссылках, на эту тему написана отдельная статья, с которой можно ознакомиться здесь.

Дубликаты, как и битые ссылки, могут сильно повлиять на позиции сайта. Под дубликатами имеются ввиду странички сайта, имеющие одинаковый либо очень похожий контент. Программа Smart SEO Auditor не выполняет глубокого сравнительного анализа контента всех страниц, но она ищет повторяющиеся заголовки (Title, H1) и описания (Description). 

Заголовки и описания сайта

Чтобы проверить наличие повторяющихся заголовков и описаний, перейдите на вкладку «Заголовок, описание, Н1, Н2». В правом нижнем углу вкладки показана общая информация о найденных дубликатах. В центральной части таблица с заголовками и описаниями для всех страниц сайта. Возле некоторых заголовков и описаний можно увидеть красный значок ошибки, который говорит о том, что данная строка повторяется. Для удобства анализа, рекомендуем использовать фильтры в верхней части окна и сортировку по советующему столбцу. 

После завершения всех исправлений, обязательно выполните повторный технический аудит всего сайта. Подробнее о поиске дублей можно прочитать здесь.

Вкладка «Тех. аудит.»

В центральной части все страницы, которые были проанализированы. Ну а в нижней части детальная информация по выделенной страничке. Эта информация так же разбита на вкладки. Для удобства каждая вкладка имеет иконку в заголовке, которая указывает на наличие либо отсутствие ошибок. На первой вкладке необходимо убедиться, что кодировки заданы корректно и время ответа сервера в пределах допуска. На рисунке ниже с этими двумя критериями все в порядке, об этом нам говорят две зелёные галочки.

Технический аудит сайта со Smart SEO Auditor

Обратите внимание на кнопку «Показать подсказку». Если смысл какого-либо SEO критерия Вам не понятен – нажмите на эту кнопку и Вы увидите подсказку.

На вкладке «HTML» необходимо обратить внимание на два критерия: «Текст / HTML», «Всего слов». Оба критерия являются косвенными SEO критериями, но все же их лучше не игнорировать. 

  • «Текст / HTML» может указывать как на недостаток контента, так и на слишком большой размер HTML разметки. 
  • «Всего слов» поможет выявить страницы с недостатком контента. Возможно, некоторые из выявленных страниц стоит заблокировать в robots.txt.

Откроем вкладку «Размер». Здесь можно посмотреть размер всей веб-страницы, размер HTML документа, CSS/JavaScript файлов, изображений. Здесь необходимо убедиться в том, что выбранная страница не слишком «тяжелая», иначе это скажется на скорости загрузки и, как следствие, на позициях сайта в поиске.

Вкладка «Изображения». Здесь представлен список всех изображений, найденных на страничке. Суммарный вес всех изображения не должен превышать допуска. Так же стоит обратить внимание на размер каждого изображения отдельно. Большие картинки негативно влияют на скорость загрузки сайта. Ну и конечно же, битых изображений быть не должно.

Следующие две вкладки: «CSS файлы» и «JS файлы». Они организованы аналогично, поэтому рассмотрим их вместе. Здесь нужно убедиться в том, что количество файлов не слишком велико (не более 10), так же суммарный размер должен быть в пределах допуска.

О последняя вкладка «HTTP заголовок ответа». Этот заголовок не имеет отношения к SEO, но, очень часто, могут возникать вопросы, ответы на которые могут содержаться в HTTP заголовке.

Рассмотрим вкладки «CSS файлы» и «JS файлы», расположенные вверху. На этих вкладках можно увидеть полный список всех CSS и JavaScript файлов, найденных на сайте.

Технический аудит JavaScript файлов

Здесь можно проверить, какие CSS/JavaScript файлы используются на сайте, какие страницы их используют, размеры файлов, коды ответа сервера. Здесь стоит убедиться, что нет битых ссылок, нет запрещённых для индексации файлов и нет слишком больших файлов. На этом технический аудит сайта завершается. Ещё раз хотим напомнить – проверять сайт необходимо регулярно, ошибки могут появляться не зависимо от вас.