Базовая внутренняя оптимизация сайта

В этой статье мы поговорим о внутренней оптимизации сайта для продвижения в поисковых системах. Зачем это нужно и на что стоит обратить внимание. Также прилагается видео с наглядным объяснением всех моментов.


Внутренняя оптимизация — комплекс необходимых мер по устранению ошибок, которые мешают пользователям и поисковикам правильно взаимодействовать с сайтом.

Зачем?

Внутренняя оптимизация доказала свою эффективность, поэтому её проводят все SEO-компании при продвижении сайтов. Оптимизация — это множество небольших действий с сайтом, которые дают серьезный эффект. Если вы думаете, что нужно сделать в первую очередь — проведите оптимизацию.

Руководствуемся принципом Парето: 20% действий дают 80% результата.

Структура в адресах

Структуру сайта необходимо отображать в URL-адресах, чтобы пользователю и поисковику было понятно по URL, какой контент расположен на странице.

  • /2015.html — плохо
  • /remont.html — хорошо

Не глубже 3-х уровней

Структура сайта не должна быть слишком глубокой. Для большинства сайтов достаточно использовать 3 уровня. Поисковики считают, что чем выше расположена страница в иерархии сайта, тем более она значима.

  • /one/two/three/2015.html — плохо
  • /remont/okna.html — хорошо

Использование ЧПУ

При использовании ЧПУ-адресов (человеко-понятные URL), пользователи и поисковики могут легче понять, что содержится на странице. Лучше использовать или транслит (написание русских слов латинскими буквами), или перевод русских слов на английский язык. Комбинировать эти способы не рекомендуется.

  • /primer.html — хорошо
  • /example.html — хорошо
  • /example-stranici.html — плохо

Короткие адреса

Короткие URL-адреса страниц легко понять, скопировать и запомнить. Рекомендации:

  • До 3-5 слов в URL-страницы или каталога
  • Предлоги и дефисы отбрасываем
  • Разделитель между словами — дефис «-»

Кроссбраузерность

Сайт должен корректно отображаться на различных устройствах и операционных системах.

Сервис для проверки сайта на кроссбраузерность — http://browsershots.org/.

Также рекомендую посмотреть как выглядит сайт на всех доступных вам устройствах (ноутбуки, планшеты, мобильные телефоны и так далее). Если в какой-то версии браузера или операционной системы сайт некорректно выглядит или работает, обязательно это устраните. Иначе пользователи будут уходить с сайта, что негативно скажется на поведенческих факторах.

Чтобы дополнительно проверить, как выглядит сайт на различных устройствах, используйте «Просмотреть код» в Google Chrome.

Функция Посмотреть код в Google Chrome

Просмотреть код в браузере Google Chrome

Скорость сайта

Оптимальная скорость загрузки сайта — до 3 секунд. Для проверки своего сайта воспользуйтесь следующими сервисами:

Надежный хостинг

У хостинга, на котором расположен сайт, не должно быть проблем с доступностью. Если поисковый робот обратится на ваш и не получит ответ из-за временной недоступности хостинга, сайт будет исключен из индекса. Выбирайте надежный хостинг, который работает без перебоев, исходя из обзоров и отзывов на сайте ХостОбзор.

Чтобы вовремя устранять проблемы с сайтом, подключите уведомления на e-mail в Яндекс.Метрике:

Проверка соседей

Проверка соседей на IP-адресе сайта Касуро

Если вы используете виртуальный хостинг, проверьте веб-адреса, которые расположены на IP-адресе вашего сайта. Если соседи — сайты для взрослых или торренты, лучше купить выделенный IP-адрес (примерно 100 Р в месяц).

Сервис для проверки: https://2ip.ru/domain-list-by-ip/.

Редиректы и битые ссылки

Проверяем, чтобы не было внутренних ссылок на редиректы (перенаправлений на другую страницу) и битых ссылок на несуществующие страницы.

Программа для проверки: Xenu's Link Sleuth.

Страница 404

При запросе несуществующей страницы, на сайт должен отдаваться 404-код («страница не найдена» или «Ошибка 404»). Если происходит редирект на главную или открывается пустая страница, поисковик может создать много дублей, что негативно скажется на индексации.

Гугл делает запросы к несуществующим страницам сайта

Файл robots.txt

Обязательно используем служебный файл robots.txt. Данный файл сообщает поисковикам инструкции о запрете индексации определенных страниц. Например тех, которые содержат личные данные пользователей.

Статья Яндекса о настройке robots.txt: https://yandex.ru/support/webmaster/controlling-robot/robots-txt.xml

УжасноПлохоНормальноХорошоОтлично (25 оценок, среднее: 5,00 из 5)

Пройдите тест и проверьте ваши знания

По какому принципу должны быть построены адреса страниц?

Для чего нужно проверять другие сайты, которые размещены на том же IP, что и ваш?

Для чего нужен файл robots.txt?