Всё правильно настроили, но сайт всё равно падает в выдаче? Мы описали 8 проблем с SEO и их возможные решения.
Оглавление
Причины падения сайта в выдаче
Неоригинальный контент
Неоригинальный, скопированный текст с маленькой уникальностью (новости, описание товаров, статьи, описание категорий услуг). В идеале уникальность должна быть 100%.
Что можно сделать?
Проверить текст на странице в text.ru или Advego Plagiatus. Если текст неуникальный, переписать или найти копирайтера, который перепишет его за вас.
Некачественные ссылки
Избыток внешних ссылок сомнительного качества и неестественный прирост ссылочной массы (если ссылки не качественные или не тематические).
Что можно сделать?
Проанализировать ссылочный профиль в Яндекс.Вебмастере, более подробный анализ в Serpstat или ahrefs. Примерно посчитать процентное соотношение ссылок dofollow и nofollow. Поисковики любят, когда на сайт ведёт много разных ссылок с авторитетных источников, и когда эти ссылки окружает релевантный текст.
Проверить ссылочный профиль конкурентов по вашим целевым запросам в выдаче, посмотреть процентное соотношение в их ссылочном профиле. Попытаться убрать уже существующие ссылки, или разместить новые ссылки более высокого качества, чтобы разбавить свой ссылочный профиль.
Много исходящих ссылок
Большое количество исходящих ссылок на другие ресурсы с вашего сайта без ответных ссылок с других ресурсов. Не ссылайтесь в текстах на что попало без причины.
Что можно сделать?
Убрать лишние ссылки из текстов на страницах.
Долгая загрузка сайта
Причина долгой загрузки это большой вес страниц вашего сайта — никто не любит то, что долго грузится. Люди уходят с сайта, не дождавшись полной загрузки, показатели SEO падают.
Что можно сделать?
Проверить скорость загрузки в Google Search Console, следовать рекомендациям по ускорению сайта, которые даст система. Если на страницах есть тяжелые графические элементы, картинки, убираем лишнее, упрощаем, загружаем картинки меньшего размера.
Отсутствие адаптивности и кроссплатформенности
Нет мобильной версии? Плохо. В прошлом году количество пользователей, посещающих сайты со смартфонов, выросло ещё вдвое, и судя по всему, эта тенденция сохранится. Если сайт не открывается в предыдущих версиях браузеров или плохо отображается в десктопном браузере, вы теряете посетителей.
Что можно сделать?
Проверить, открывается ли сайт на разных устройствах и с разных браузеров, сохраняется ли целостность вёрстки, все ли элементы сайта на месте. Если нет, лучше обратиться к тем, кто разрабатывал сайт.
Нет SSL-сертификата
Если у сайта есть SSL-сертификат, вы видите закрытый замочек в начале адресной строки. Сайтам, у которых сертификата нет, не доверяют ни пользователи, ни поисковые системы. У них в начале адресной строки отображается красный разбитый замочек.
Что можно сделать, если SSL-сертификата нет?
Получить бесплатно, а после установить его на сервер. Многие хостинги предлагают недорогие услуги по внедрению сертификата, можно обратиться к ним.
Отсутствие страницы 404
Стандартная браузерная страница ошибки не даёт пользователю никакой полезной информации. Человек подумает, что сайт не работает, и либо попробует вернуться на предыдущую страницу, либо уйдёт. Это негативно скажется на показателях сайта.
Что можно сделать?
Создать страницу 404 в общей стилистике сайта, с объяснением причины, почему она появилась. Это сгладит впечатление от ошибки. Разместить на этой странице ссылки на главную и другие важные страницы, и тогда человек перейдёт по ним и точно останется на сайте.
Отсутствие Sitemap и robots.txt
Sitemap (карта сайта) содержит структуру вашего сайта, а также указания для поисковых роботов, можно ли заходить на страницу и выдавать её в поиске. Robots это файл в корневом каталоге сайта, который содержит такие же указания в понятном для роботов формате. В robots запрещают индексировать страницы в процессе разработки, страницы личного кабинета и страницы пагинации.
Что сделать, чтобы проверить, есть ли карта сайта и robots?
В поисковой строке напишите название сайта + /sitemap.xml («yoursite.com/sitemap.xml»). Если страницы нет, то и карты сайта тоже. Тогда сгенерируйте карту сайта в специальном сервисе.
Чтобы проверить, есть ли robots, допишите к названию сайта /robots.txt. Страницы после тега Disallow в результатах поиска не выдаются. Если файла нет, сгенерируйте его с помощью сервиса, сохраните в файл, назовите его Robots.txt и загрузите в корневой каталог сайта или найдите того, кто поможет это сделать.