SEO-аудит своими руками

SEO-аудит сайта позволяет быстро выявить проблемы и устранить их, чтобы не потерять позиции в поисковой выдаче. В этой статье вы узнаете о техническом аудите, постраничной оптимизации, анализе конкурентов, оценке поведенческих факторов и семантического ядра, других особенностях.

Видео по теме:

Фото доски:

SEO-аудит - доска по основным разделам

Анализ спроса и конкурентов

На этом этапе нам нужно познакомиться с нашей аудиторией, проанализировать поисковый спрос (сбор семантического ядра) и оценить конкурентов. Портрет пользователя мы составляем на основании систем аналитики (Метрика, Google Analytics и другие). Важно оценить географию, чтобы понять, удовлетворяет ли сайт их потребностям. Собираем и другие данные для анализа:

  • Пол
  • Возраст
  • Устройства входа

Оценка аудитории сайта с помощью Метрики

Последний пункт полезен для адаптации сайта под конкретные платформы. Например, вы узнали, что из поиска к вам часто переходят с мобильных устройств разрешением 360*640. Проверяем, как сайт выглядит на них, и исправляем, если что-то отображается некорректно.

Всегда ставьте себя на место пользователя, пытаясь понять, соответствует ли ваш сайт его ожиданиям. Для этого оцениваем запросы, по которым есть переходы, а особое внимание уделяем тем из них, где наблюдается высокий процент отказов.

Далее переходим к семантическому ядру сайта. Используем максимальное количество источников, чтобы собрать полное СЯ:

  • Вордстат
  • Поисковые подсказки
  • Текущая семантика сайта
  • Google Search Console
  • Яндекс Вебмастер
  • Метрика
  • Google Analytics
  • Другие сервисы

Собираем частотность по запросам (например, Кей Коллектором), производим чистку от ненужных фраз, определяем релевантные страницы. Полученную информацию переносим в таблицу и выстраиваем ментальную карту (например, в XMind). Эти данные помогут вам увидеть точки роста органического трафика.

Переходим к анализу конкурентов. Такую проверку можно сделать вручную, а можно использовать сервисы (например, Serpstat).

Анализ конкурентов с помощью Серпстат

Составляем отдельную таблицу, куда заносим URL сайта и добавляем такие столбцы:

  • Возраст сайта
  • Страницы в индексе
  • Обратные ссылки

Рекомендуем соотнести эти параметры с органическим трафиком, который получает конкурент, чтобы выявить лидеров и аутсайдеров. Чем хуже соотношение трафика на количество посадочных страниц, тем слабее исследуемый сайт.

Выявив лидеров, изучаем их сайты, чтобы понять, как они развиваются. Не забываем обращать внимание на интересные функции, которые можно использовать для улучшения собственного интернет-ресурса.

Видео о том, как работать с Серпстатом:

Технический аудит

Чаще всего именно эта часть называется SEO-аудитом. Для качественного анализа нам понадобятся:

  • Доступ к панелям вебмастеров (Яндекс, Гугл и другие)
  • Сканер сайта (например, Screaming Frog SEO Spider или Xenu)
  • Сервис проверки индексации (например, Rush Analytics)

При анализе данных из Яндекс Вебмастера и Google Search Console (GSC) обращаем внимание на ошибки и исправляем их.

Технический аудит с помощью панелей вебмастеров Google и Яндекс

Большую часть данных для технического аудита можно взять из результатов сканирования сайта программой Скриминг Фрог.

Технический аудит с помощью Screaming Frog

Изучая отчеты, обращаем внимание на:

  • Коды ответа сервера
  • Редиректы
  • Внешние ссылки

Важно выявить и устранить битые ссылки (код ответа 4xx), решить технические проблемы (код ответа 5xx). Не забываем работать с редиректами. Если страница вашего сайта, с которой стоит редирект, больше не индексируется поисковой системой, а новая уже в индексе – его можно убрать.

После этого меняем все старые ссылки (например, в статьях) на новые, чтобы не допустить битых. В Screaming Frog выбираем URL с кодом ответа 3xx, выбираем вкладку Inlinks и вносим правки на каждую страницу.

Поиск всех входящих ссылок в Скриминг Фрог

Получив список всех URL нашего сайта, отправляем их на проверку индексации. Рассмотрим на примере сервиса Раш Аналитикс, как это сделать.

Авторизуемся на сайте, переходим на вкладку проверка индексации и создаем новый проект.

Проверка индексации в Раш Аналитикс: создание проекта

Далее вводим название проекта, выбираем поисковые системы, в которых хотим проверить индексацию и выгружаем список URL (вручную, экспортом или из карты сайта). После чего нажимаем кнопку “Создать новый проект”.

Проверка индексации в Rush Analytics: пошаговая инструкция

Получив результаты, анализируем, почему наша страница не индексируется поисковой системой:

  • Была создана недавно и еще не успела попасть в индекс
  • Выпала из поиска, потому что не отвечала на запрос пользователя
  • Закрыта от индексации
  • На сайт или страницу наложен фильтр Яндекса или Гугла

Далее нужно проверить дубли и зеркала. Для проверки зеркал пробуем вводить наш сайт с www в начале, с index.php в конце, с косой чертой (/) и без нее. Нужно, чтобы всегда открывалась страница по одному и тому же адресу:

  • www.site.ru --> site.ru
  • site.ru/index.php --> site.ru
  • site.ru/ --> site.ru

Поиск дублей упрощается все тем же Скриминг Фрогом, так как эти страницы часто имеют одинаковый Тайтл. Заходим на соответствующую вкладку и выбираем нужный пункт.

Поиск дублей в Screaming Frog

В GSC также можно найти информацию о дублях в пункте Оптимизация HTML из раздела Вид в поиске.

Поиск дублей в Google Search Console

Теперь следует приступить к проверки файла robots.txt. Обращаем внимание на следующее:

  • Нужные разделы не закрыты от индексации
  • Ненужные страница заблокированы в роботс
  • Наличие ссылки на карту сайта

Удобно проверять этот файл с помощью валидаторов Яндекса и Гугла. Для этого заходим в нужную панель вебмастера. Здесь можно проверить доступность конкретных страниц для индексации или их блокировку, если ввести URL в соответствующие поля и нажать кнопку проверить.

Валидаторы robots.txt Яндекса и Гугла

Также не забываем, что директива host упразднена Яндексом и теперь использовать ее в robots.txt не нужно.

Еще одним этапом проведения технического аудита является анализ файла sitemap. Для этого также можно использовать валидаторы, но не забываем о ручной проверке. Обращаем внимание на:

  • Отсутствие лишних URL в карте сайта
  • Присутствие всех нужных страниц

Важный фактор ранжирования в поисковых системах – скорость загрузки страниц. Поэтому оцениваем этот параметр для всех типовых страниц с помощью:

  • PageSpeed Insights
  • Webpagetest.org
  • Метрики

Оценка технического состояния страниц вашего сайта должна проводиться и вручную. Оцениваем верстку в различных браузерах при разных разрешениях экрана, убеждаемся, что все элементы работают корректно.

Количество мобильного трафика из поисковиков растет с каждым годом, поэтому важно, чтобы ваш сайт был адаптирован для всех типов устройств. Проводим анализ типовых страниц сайта с помощью валидаторов Yandex и Google, используем сервис Quirktools, смотрим вручную с мобильных устройств.

Обращаем внимание на все ошибки. Как видно на скриншоте, Гугл показал, что хоть страница и оптимизирована, но у нее есть проблемы. Жмем подробнее и изучаем их.

Благодаря таким проверкам вы найдете массу возможностей для улучшения вашего сайта.

Далее используем валидаторы в панелях вебмастеров для проверки микроразметки. Анализируем страницы, на которых используется определенный ее вид. В случае обнаружения ошибок – исправляем.

Последний этап технического аудита связан с проверкой безопасности сайта. Нужно оценить:

  • Отзывы о компании (вбиваем в поиск название компании и слово отзывы)
  • Соседей по IP и отсутствие в базах спама (например, с помощью сервиса 2IP)
  • Афиллированность (используем в поиске контактные данные)

Видео о том, как работать с программой Screaming Frog:

Постраничная (On-page) оптимизация

Главное правило при проведении постраничной оптимизации – не сломать то, что работает. Поэтому все рекомендации, приведенные в статье, лучше использовать на страницах, которые получают мало трафика и плохо ранжируются.

На этом этапе аудита мы должны проанализировать:

  • URL
  • Title
  • Description
  • Заголовки H1-H6
  • Тексты
  • Изображения
  • Перелинковку
  • Сниппеты
  • Каннибализацию
  • Ключевые слова

Рекомендации по оптимизации URL

  • Используем транслит и делаем их человекопонытнями (ЧПУ)
  • В качестве разделителей применяем дефис
  • Используем интенты, но не спамим (если в УРЛ уже встречается ключ, не используем его второй раз)
  • Делаем адреса страниц короткими

Рекомендации по оптимизации Title

  • Длина до 140 символов и не более 12 слов
  • Вхождение ключей по принципу треугольника (ВЧ запрос в начале, менее частотные интенты дальше)
  • Делаем привлекательным для клика (например, используем цифры, слова ТОП, Лучшие и т.п.)

Рекомендации по оптимизации Description

  • Длина до 300 символов
  • Короткие информативные предложения
  • Используем интенты для того, чтобы они подсвечивались в сниппете
  • Применяем лид-абзац (дублируем текст метатега в начале страницы)
  • Делаем привлекательным для клика

Рекомендации по оптимизации заголовков H1-H6

  • H1 используем только один раз
  • Он должен содержать ключ и быть похожим на Title
  • Соблюдаем иерархию заголовков
  • Не комбинируем с другими тегами
  • Не спамим ключами в заголовках, используем разбавленное вхождение

Анализ текста

Делаем выборочную проверку текстов на уникальность. Для этого можно воспользоваться программой AntiPlagiarism от ETXT.

Проверка уникальности текста ETXT

Особое внимание уделяем страницам, которые приносят больше всего трафика. Тексты на страницах, которые плохо ранжируются в поисковиках, также стоит проверить на уникальность. В текстах не должны использоваться вхождения ключей в неестественной форме, также избегаем выделение полужирным.

Всегда изучайте конкурентов по ключевому запросу для конкретной страницы. Вы должны сделать текст максимально полным, понятным и отвечающим на все запросы пользователя.

Рекомендации по изображениям

  • Храним на нашем хостинге
  • Заполняем атрибут alt
  • Название картинки делаем на транслите с использованием тех же принципов, что и для URL

Перелинковка

Перелинковка может выполняться несколькими способами:

  • Ссылки внутри текста (анкорные) – как на Wikipedia
  • Блок похожие товары – как у большинства интернет-магазинов
  • Блок похожие статьи – как на многих информационных ресурсах

Кроме правильного перераспределения веса по страницам сайта, перелинковка должна решать задачи посетителя: быть удобной в использовании и действительно полезной.

Сниппет

Сниппет Яндекса

Кроме базовых элементов сниппета (Заголовок, Описание, URL) существуют и другие. Проверяем, чтобы у сайта был favicon в хорошем разрешении, изучаем возможности расширенных сниппетов для вашего типа сайта. Например, у Гугла есть звездный рейтинг, который делает сниппет привлекательнее для клика.

Сниппет Гугла

Рекомендуем использовать данную функцию на страницах с товарами, рейтингами, обзорами и отзывами.

При проведении аудита опираемся на данные панелей вебмастеров. Важным показателем является CTR, который (в том числе) зависит от сниппета по конкретному запросу. Порядок анализа такой:

  1. Сортируем запросы по CTR от меньшего к большему
  2. Отсекаем запросы с минимальным количеством показов
  3. Вбиваем запрос с низким показателем кликабельности в поисковик и оцениваем сниппет
  4. Сравниваем с конкурентами и используем интересные решения для своих страниц

Важно делать скриншоты сниппетов, чтобы правильно оценить результаты вашей оптимизации. Если у вас нет возможности проанализировать все запросы – обращайте внимание на высокочастотные. Уделите время запросам, которые показываются на позициях с 11 по 50 – это потенциальная точка роста органического трафика.

Каннибализация

Если по одному и тому же запросу показываются разные страницы вашего сайта и это сделано не специально, то нужно избавиться от каннибализации. Для того, чтобы отследить подобные запросы, нужно войти в Google Search Console и из раздела поисковый трафик выбрать пункт Анализ поисковых запросов.

Каннибализация в Google Search Console

Далее сортируем запросы по убыванию количества кликов, нажимаем на сам запрос, переключаемся на Страницы и анализируем список УРЛ, представленный ниже.

Поиск каннибализации в GSC

Если страница получают примерно одинаковое число показов – это сигнал. Нужно придать целевой странице больше релевантности. Это можно сделать несколькими способами:

  • Проставить анкорные ссылки
  • Собрать семантику, разбить ее под целевые страницы и переписать тексты

Ключевые слова

Используя системы аналитики (Метрика, Google Analytics) оцениваем запросы:

  • С высокой и низкой конверсией
  • С большим и малым процентом отказов
  • Приносящие наибольшую и наименьшую конверсию
  • Просевшие

Особое внимание обращаем на страницы, которые потеряли трафик в связке с запросом. Нам необходимо проанализировать эти случаи и понять причины таких изменений. Это может быть связано с:

  • Появлением серьезного конкурента в выдаче
  • Ухудшением ранжирования сайта в целом или страницы (фильтры поисковиков)
  • Некачественным ответом на запрос пользователя
  • Малым количеством контента

Поведенческие факторы

Поведенческие факторы (ПФ) – важнейший параметр для продвижения сайта. На основании их поисковик понимает, ответил ли ваш сайт на запрос пользователя и удовлетворен ли посетитель полученной информацией.

Стоит обратить внимание на страницы, с которых пользователи покидают ваш сайт. Для коммерческого направления это должны быть страницы завершения сделки. Если пользователь начал оформление заказа и не закончил его, закрыв сайт, и таких посетителей много – это сигнал.

Анализ поведенческих факторов в Метрике

Возвращаемся к Метрике и изучаем такие поведенческие факторы:

  • Среднее количество просмотренных страниц
  • Среднее проведенное время
  • Отказы

Используем карты скроллинга, кликов и ссылок, чтобы найти слабые места на сайте.

Анализ карт в Яндекс Метрике

Вы, как владелец сайта, знаете, какие блоки кликабельны, а какие нет. Для пользователей это не всегда очевидно. Если удалось обнаружить проблему, устраняем ее. Иногда клики наоборот совершаются на некликабельных элементах. Может стоит подумать, как сделать их таковыми, чтобы улучшить опыт взаимодействия пользователей с вашим сайтом?

Отличный инструмент для анализа поведения посетителей вашего сайта – Вебвизор. Да, вам придется потратить много времени на изучение, но это окупит себя сполна. Особое внимание обращаем на запросы с высоким процентом отказов.

Источники трафика

В этом разделе аудита обращаем внимание на динамику, оцениваем источники переходов на наш сайт, достижения целей и другое. Если трафик растет по всем показателям – это хороший сигнал. Если нет – оцениваем, что мы можем для улучшения. Например, можно больше времени уделять группе в социальных сетях, размещая там привлекательную информацию со ссылками на ваш ресурс.

Анализ трафика в Метрике

Коммерческие факторы

Обычно о коммерческих факторах говорят только применительно к сайтам услуг или интернет-магазинам. Но мы советуем учитывать их владельцам всех веб-ресурсов, поскольку размещение той же контактной информации или страницы «О нас» дает больше доверия в глазах пользователей и поисковиков. Вот, что рекомендуется размещать на сайте:

  • Контактная информация (все средства связи с вами: телефон, почта, социальные сети)
  • Время работы
  • Карта проезда
  • Страница «О нас» с описанием деятельности и фото сотрудников
  • Страницы доставки, оплаты, гарантии, службы поддержки, сервиса и возврата (для интернет-магазина)

Также нужно обратить внимание, чтобы на карточке товара цена, слово «купить» или «в корзину» были выполнены текстом, а не картинками. Используйте только качественные изображения, добавьте блок с отзывами и рейтингом.

Анализ внешних ссылок

Внешние ссылки часто являются причиной наложения санкций на сайт, поэтому необходимо контролировать ссылочный профиль и постоянно работать над его улучшением. Для его анализа можно использовать такие сервисы:

  • Ahrefs
  • SemRush
  • Serpstat
  • Megaindex

Обращаем внимание на динамику роста: она должна быть положительной, а количество доноров увеличиваться, также ссылки должны быть с разных источников (форумы, блоги, страницы сайтов и другое, а не только один тип).

Анализ внешних ссылок в Серпстат

Анализируем анкор-лист: наличие брендовых запросов, соотношение анкорных и безанкорных ссылок (рекомендуется чаще использовать безанкоры).

Анализ анкор-листа в Serpstat

Нужно также оценить спамность доноров. Для этого можно использовать сервис CheckTrust. Стараемся избавиться от ссылок со спамных ресурсов, так как они негативно отражаются на позициях в выдаче.

Далее анализируем акцепторов, то есть те страницы сайта, на которые мы получаем ссылки. Стремимся к равному распределению ссылочной массы по страницам с некоторым преобладанием ссылок на главную.

Заключительным этапом является анализ конкурентов. Это поможет найти новые источники для размещения ссылок и расширения ссылочного профиля. Перед тем, как оставить ссылку на ресурсе, проверьте его заспамленность.

Резюме

Аудит сайта – возможность выявить слабые места и определить точки для роста органического трафика. Основные составляющие качественного SEO-аудита:

  • Анализ спроса и конкурентов
  • Технический аудит
  • Постраничная оптимизация
  • Анализ поведенческих факторов
  • Оценка трафика
  • Анализ ссылочного профиля
  • Оценка коммерческих факторов

Если говорить о порядке внедрения рекомендаций по результатам проверки, рекомендуется действовать в следующей последовательности:

  1. Начинаем работы с рекомендациями, которые позволят выйти из-под санкций поисковиков
  2. Устраняем проблемы технического характера
  3. Проводим постраничную оптимизацию с учетом поведенческих и коммерческих факторов
  4. Работаем со ссылочной массой
  5. Внедряем новую семантику и функционал

Такой аудит рекомендуется проводить хотя бы 1 раз в месяц, чтобы решать проблемы сразу, а не накапливать их.

УжасноПлохоНормальноХорошоОтлично (25 оценок, среднее: 4,92 из 5)

Пройдите тест и проверьте ваши знания

Какой этап отсутствует в SEO-аудите?

Что проверяется в процессе постраничного анализа сайта?

На какие страницы нужно обращать внимание при проверке поведенческих факторов в первую очередь?