×

Пошаговый технический seo-аудит: проверки и инструменты

Грамотный технический SEO-аудит сайта проверяет здоровье и убирает барьеры для органического роста. Методика строится на объективных метриках и помогает команде разработчиков фокусироваться на приоритетных задачах.

Сбор исходных данных

Начало работы — выгрузка лог-файлов, копия robots.txt, актуальная XML-карта, перечень перенаправлений и информация о серверных настройках. Эти документы формируют базу для дальнейшего анализа.

Сканер Screaming Frog либо аналог проходит по каждому адресу, фиксирует статус, глубину, заголовки, canonical-ссылки. Полученные таблицы указывают на битые страницы и циклические перенаправления ещё до публикации отчёта.технический SEO аудит

Ключевые проверки

Блок индексации начинается с отчёта Search Console. Неиндексированные страницы сверяются с robots.txt, метатегами noindex и директивами canonical. Ошибочные правила удаляются, верные уточняются.

Структура URL оценивается на предмет дублей, параметров, лишних каталогов. Единый формат снижает вероятность расслоения ссылочного веса.

Скорость измеряется Lighthouse и WebPageTest. LCP до 2,5 секунд, CLS под 0,1, быстрый FID подтверждают корректную загрузку. Картинки через Wap, критический CSS inline, отложенный JavaScript сокращают первоначальный объём данных.

Мобильная пригодность проверяется отчётом Mobile Friendly Test. Без всплывающих окон и масштабируемыми шрифтами сайт комфортно воспринимается на экранах любого размера.

Конфиденциальность подтверждается HTTPS с актуальным TLS 1.3, корректными цепочками сертификатов, политикой HSTS и заголовками security-пакета.

Schema.org улучшает сниппеты. Разметка breadcrumbs, FAQ, Product или Article проходит валидацию Structured Data Testing Tool.

Внутренние ссылки распределяют краулинговый бюджет. Анкор-план исключает переспам, глубина до важного контента укладывается в три клика.

Финальный отчёт

собираются в таблицу формата issue-приоритет-срок-ответственный. Пункты сортируются по влиянию на трафик и трудозатратам. Чёткий список задач упрощает работу команды, убирает лишние созвоны.

Повторный аудит после релиза проверяет выполненные пункты и фиксирует позитивную динамику метрик.

Технический аудит отвечает за то, чтобы поисковый робот беспрепятственно обходил, индексировал и понимал страницы. Когда код, сервер и разметка ведут себя корректно, ссылки ранжируются быстрее, задержек меньше, а трафик растет.

Системный подход избавляет от ручных правок задним числом и снижает риск просадок после релизов.

Подготовка среды

Соберите набор утилит заранее, чтобы анализ занял часы, а не дни. Для краулинга подойдут Screaming Frog, Sitebulb, JetOctopus. Google Search Console и Яндекс Вебмастер показывают реальный статус индексации. Логи сервера разбираются Go Access или обработкой в Kibana. PageSpeed Insights и Lighthouse измеряют скорость, Mobile-Friendly Test оценивает адаптивность, schema-validator проверяет микроразметку. Снимок Core Web Vitals пригодится для приоритизации задач.

Перед стартом сохранить точку восстановления кода и базы, выгрузить текущие файлы robots.txt и sitemap.xml, отключить кэш в CDN для исключения ложных 304.

Чек-лист аудита

1. Проверьте статус кодов: 200 для доступных страниц, 301 для перенаправления, 4xx и 5xx выводите из индекса.

2. Убедитесь, что HTTPS работает корректно: единый канонический протокол, валидный сертификат, актуальный шифр.

3. Примените HSTS, чтобы браузер сразу запрашивал защищённую версию.

4. Сравните версии с www и без: оставьте одну, вторую перенаправьте 301.

5. Проверьте каноникалы rel=»canonical»: только абсолютный адрес, соответствие контенту.

6. Сформируйте динамический sitemap.xml, обновлять при выходе новых URL, не держите больше 50 000 элементов в одном файле.

7. Очистите robots.txtxt от устаревших директив, оставьте Allow/Disallow, Host, Sitemap и нужные Crawl-delay.

8. Исправьте петли и цепочки редиректов, чтобы глубина перенаправлений не превышала один переход.

9. Проверьте заголовок X-Robots-Txt и meta robots, удалите noindex там, где контент нужен по иску.

10. Настройте пагинацию через rel=»next» и rel=»prev», проверьте точность серверного Link-заголовка.

11. Удалите дубли контента: одинаковые title, h1, meta description, идентичные сегменты текста, фильтры каталога без уникальных параметров.

12. Пересчитайте внутренние ссылки: уберите переходы на 4xx, сократите глубину вложенности до четырёх кликов.

13. Обновите анкоры: ключевое слово в пределах 2–4 слов, без переспама.

14. Проверьте скорость отдачи HTML: TAB до 200 мс для аудитории Европы и США, до 400 мс для остальных регионов.

15. Оптимизируйте загрузку CSS и JavaScript: критический CSS в head, defer или async для скриптов, минимизация и сжатие Gzip либо Brotli.

16. Включите HTTP/2 либо HTTP/3 для параллельной загрузки ресурсов.

17. Добавьте lazy-loading изображений и iframe, width и height, чтобы избежать сдвига контента CLS.

18. Сожмите изображения WebP, AVIF, используйте srcset для разных плотностей экранов.

19. Проверьте Mobile-friendly: адаптивная верстка, viewport, кликабельные элементы не меньше 48 × 48 px.

20. Контроль Core Web Vitals: LCP до 2,5 с, FID ниже 100 мс, CLS не выше 0,1.

21. Настройте кэширование: Cache-Control: public, max-age неделя для статичных файлов, корректный ETag.

22. Проанализируйте 5–7 дней логов: частота обхода, доля 404, 3xx, ошибки 5xx, сравните с числом страниц в индексе.

23. Добавьте структуру данных: Schema.org, Open Graph, Twitter Cards, JSON-LD предпочтителен.

24. Проверьте hreflang для мультирегиональных проектов и x-default.

25. Настройте breadcrumbs разметкой ItemList.

26. Валидируйте HTML5 через W3C, исправьте закрытые теги и дубли id.

27. Сверьте title: до 60 символов, ключ ближе к началу, уникальность 100 %.

28. Сверьте meta description: до 155 символов, пусть текст отражает выгоду и призыв.

29. Проставьте alt для изображений, добавьте описание вместо набора ключей.

30. Удалите лишний inline-CSS в HTML, перенесите в файл, загрузите через preload, если размер превышает 20 КБ.

31. Проверьте .htaccess или nginx-конфиг: лишние rewrite, expires, gzip.

32. Проанализируйте UTM и session id, очистите канонические ссылки от динамических хвостов.

33. Включите brotli-static для CSS, JS, SVG.

34. Добавьте security-заголовки Content-Security-Policy, X-Frame-Options, XContentTypeOptions, Referrer-Policy.

35. Держите XML-фиды отдельно для видео, изображений и новостей.

36. Тестируйте релизы на песочнице с HTTP-авторизацией и меткой noindex.

37. Сравните Google Analytics и Search Console: CTRL, позицию, клики, фиксируйте страницы с просадкой.

38. Укажите приоритет в sitemap: значение 0,8 — уровень 1, ниже — глубже.

39. Понизьте TTL DNS до 3600 перед миграцией сервера, затем верните прежнее.

40. Автоматизируйте проверку через Git hooks и CI/CD: блокируйте pull-request при росте веса бандла, появлении новых 4xx, 5xx.

Типичные ошибки

Неправильная работа редиректв приводит к утечке ссылочного веса и создаёт лишние задержки. Зачастую встречается robots.txt, который блокирует разделы с фильтрами, однако ссылки на фильтры остаются в навигации, вызывая crawl-budget без пользы. Ещё один сценарий — доступ к сайту через HTTP, https, с www и без одновременно, робот видит четыре копии контента, каждая конкурирует между собой. Часто забывают обновлять карту сайта после удаления разделов, и поисковики продолжают посещать несуществующие URL.

Следующая проблема — тяжёлый JavaScript, который отрисовывает первый контент спустя несколько секунд. Даже компактная страница вёрстки теряет позиции, если браузер ждёт рендер. SSR или пререндер решает задачу, но без грамотной кэш-стратегии выгода пропадает.

Последняя группа ошибок связана с разметкой Schema.org. Автоматические генераторы вставляют параметры, которых нет на странице, что ведёт к предупреждениям в Search Console. Из-за них сниппет не получает расширенные элементы, а конверсия проседает.