Статьи
August 10, 2023

Популярные ошибки в SEO: усиливаем и оптимизируем сайт

Продвижение сайта, кажется, не таким сложным занятием. Не ракету в космос запустить. Тем не менее даже при выборе правильной стратегии раскрутка ресурса будет не столь эффективной, если допускать некоторые ошибки в SEO. Причем они могут быть связаны не только с контентом, но и с технической стороной сайта.

С трудностями при оптимизации сайта могут столкнуться не только новички, но и опытные SEO-специалисты. В этой статье разбираемся с типичными SEO-ошибками, которые мешают эффективно продвигать сайты.

Какие встречаются ошибки в SEO?

При SEO-оптимизации можно столкнуться с разными ошибками, которые будут мешать продвижению вашего ресурса. Мы рассмотрим самые популярные и заковыристые.

404 тип ошибок

Если при переходе на страницу вашего сайта появляется незапланированная ошибка 404, а вы сами не удаляли страницу, то тогда нужно проверить код страницы и подкорректировать его.

Но если вы сами удалили страницу, то какое-то время она еще будет индексироваться роботами, хоть на ее месте возникнет ошибка 404. Поэтому стоит креативно оформить страницу с ошибкой 404 и предложить пользователю перейти на главную, чтобы сделать из ошибки нечто функциональное и не терять трафик.

Некорректные редиректы или их отсутствие

Часто встречается, что на сайте неверно используются редиректы: 302 вместо 301. Это путает поисковики.

Редирект 301 используется для постоянной переадресации с неактуального домена или url неоткрывающейся страницы на рабочий вариант. Он нужен, например, при «склейке» зеркал с www и без, при переводе сайта с HTTP на HTTPS, при переезде на новый домен, в случае изменения url страницы и переносе её в другой раздел сайта. Этот вид переадресации передает ссылочную массу, что помогает в продвижении сайта.

Редирект 302 же применяют для временной переадресации с одного url на другой. И в такой ситуации поисковик индексирует обе версии сайта или страницы. Эту переадресацию можно использовать в продвижении своего сайта. Покупаете старый домен, на котором есть трафик, и делаете 302 редирект. Люди будут заходить на этот сайт по привычке, а потом их будут перенаправлять на вашу вторую страницу.

Каннибализация и переоптимизация ключами

Каннибализация — использование одинаковых ключей на каждой странице сайта, ожидая, что это поможет с повышением позиций в выдаче. Но, увы, это только станет причиной для пессимизации. Составление семантического ядра предполагает другие методы. Например, поиск актуальных запросов вашей ЦА, где используются разные слова, но их смысл одинаковый, и смешивание высоко- и низкочастотных запросов. А потом распределение их по страницам сайта.

Переоптимизация контента — обратная сторона слишком большого желания вывести свой сайт в топ выдачи. Передоз текста ключевыми словами не поможет вам стать лучше, а наоборот станет причиной для санкций от поисковиков.

Мониторить эти показатели можно с помощью специальных сервисов, например, Топвизора.

Разные страницы для близких по смыслу ключей

Люди, которые вбивают в Гугл или Яндекс запрос «купить ноутбук» и «заказать ноутбук», хотят удовлетворить одинаковую потребность. Изменение одного слова — не повод создавать отдельную посадочную страницу. Ведь ключевые слова остаются близкими по смыслу все равно.

Служебные страницы как посадочные

Алгоритмы не любят, когда под оптимизацию попадают служебные страницы, например, страницы категорий. Ведь в большинстве случаев они не интересны пользователям. Поэтому раскрутка подобных страниц воспринимается поисковиками как манипуляция.

В этом правиле есть исключения. Речь о сайтах интернет-магазинов и масштабных проектов. В таком случае человек, просто чтобы не потеряться, а сразу перейти в интересующий раздел, может искать страницы категорий.

Отсутствие метаданных title, description

Эти метаданные важны для технической стороны сайта. Если забыть их указать, то поисковые роботы не смогут вычислить и забрать в выдачу ваш сайт/страницу. Title — название страницы/сайта, description — краткое описание, раскрывающее суть сайта/страницы.

Неудобная мобильная версия сайта

Сейчас активно растет доля мобильного трафика в интернете. Это связано с тем, что темп жизни вынуждает нас чаще искать информацию по пути на работу/учебу и другим делам. Поэтому важно, чтобы у сайта была удобная мобильная версия, позволяющая без проблем ориентироваться и находить нужную информацию.

Это поможет не только снизить показатель отказов, но и в целом с SEO-оптимизацией. Ведь поисковые системы не жалуют не адаптированные под гаджеты ресурсы. Узнать, насколько удобен ваш сайт для просмотра со смартфона, можно на сервисе Google или на аналогичных платформах.

Сплэш-страницы в оптимизации

Сплэш-страница — та страница, которая открывается при старте, пока загружается основная посадочная. Поэтому по сути она не несет никакой пользы для пользователей, а просто отвлекает внимание и не дает заскучать пользователю.

Поисковики не любят сплэш-страницы. И по этой причине их не стоит оптимизировать.

Битые ссылки

Наличие на сайте битых ссылок — бич всех, от этого нельзя быть застрахованным на 100%. Поэтому нужно периодически проверять свои ресурсы.

Это можно сделать в Google Search Console: «Индекс» — «Покрытие» — «Ошибка 404». Либо в Яндекс.Вебмастере: «Индексирование» — «Статистика обхода» — «Ссылки» — «Внутренние ссылки». Также есть сторонние аналоги для вычисления битых ссылок, например, Screaming Frog SEO Spider.

(не)Человекопонятный url

Людям нравится переходить по ссылкам, которые можно распознать, а не когда они видят нагромождение цифр и букв в строке браузера. Url не обязательно должен повторять заголовок страницы, но в идеале он должен отражать суть страницы, чтобы человек понимал, какой контент его ждет.

Поисковики относятся к таким ссылкам с большей любовью. Так что важно делать человекопонятный url (ЧПУ). Если не всегда понятно, как сделать ЧПУ ссылку, в этом помогут специальные сервисы генерации, например, SEO links.

Отсутствие карты сайта

Карта сайта (sitemap) — это файл или страница с кликабельным перечнем всех важных разделов сайта. Если у сайта нет этого, то поисковые алгоритмы могут неправильно изучить ресурс и не так проиндексировать его. Если были созданы новые страницы, но не обновлен файл sitemap — роботы их не увидят и не заберут в выдачу. Кроме того, в документе должны быть указаны только актуальные ссылки, скрывать в нем какой-то контент нежелательно.

Поэтому важно, чтобы карта сайта не только была, но и была корректно составлена. И к ней был доступ: иногда документ может блокироваться через директивы в robots.txt или плагины CMS.

Путаница с тегами noindex и nofollow в документе robots.txt

Если вам нужно, чтобы робот видел вашу страницу и забирал ее в выдачу, нужно ставить index. Если вы передумали индексировать страницу (например, хотите сменить дизайн или заменить контент), то лучше на время скрыть ее от глаз поисковиков. Для этого в документе robots нужно поставить noindex, а не просто удалить index.

Есть еще два метатега, которые влияют на вес сайта и их нужно использовать правильно: follow и nofollow. Первый — для того, чтобы поисковики переходили по ссылкам на сайте и учитывали их, а второй — чтобы боты не переходили по ссылкам.

Обилие заголовков уровня H1 на странице

Если на одной странице есть сразу несколько заголовков уровня H1, то из-за этого поисковики могут не понять, какой именно является самым главным заголовком. Это может привести к неправильной индексации и нецелевому трафику на сайт.

Важно добавлять в текст заголовки разных уровней (H2-H6), чтобы не только читатели, но и поисковые алгоритмы понимали структуру текста. Но злоупотреблять не стоит, подзаголовки должны быть уместными.

Невидимый для пользователя контент

Публикация невидимого для пользователя контента — махинация, рассчитанная на алгоритмы, которые смогут считать эти данные, а пользователи нет. Например, текст, написанный очень мелким шрифтом, белым цветом, или использование похожих визуально букв из разных алфавитов. Поисковики такое вычисляют и могут накинуть санкции.

Маскировка рекламы под контент сайта

Если вы станете маскировать рекламные тексты под информационный контент сайта, то вас ждут штрафные санкции от разных систем. Прежде всего, поисковые алгоритмы будут недовольны и понизят вашу страницу/сайт в выдаче. Кроме того, система контекстной рекламы тоже не будет счастлива от такой хитрости и может не засчитать вам выплаты.

Неверно установленный код

Код для страниц и сайта должен прописываться между тегами head и /head. Важно, чтобы он был корректный и актуальный, поэтому в целях профилактики его нужно периодически проверять.

Нерелевантные исходящие ссылки

Если в тексте указаны релевантные ссылки, то читатели смогут без проблем узнать больше по интересующей их теме. Это повышает степень доверия не только пользователей, но и поисковых роботов, которые оценивают такую перелинковку с точки зрения удобства и пользы для юзеров. Если у вас сделаны гиперссылки на авторитетные сайты, то это повышает шансы улучшить ранжирование ресурса.

С другой стороны, если в тексте нет релевантных исходящих ссылок (и тем более сделана нерелевантная перелинковка на сомнительные ресурсы), то поисковики могут пессимизировать ваш сайт или страницу. То есть если вы пишете про коттеджи, то не надо делать перелинковку с кулинарными сайтами или ресурсами, где инфоцыгане обещают горы денег на коттеджном бизнесе.

Проблемы с sitemap

В файле sitemap находятся ссылки на несколько карт сайта, и поисковики будут обрабатывать их все, чтобы получить в итоге доступ к url-адресам вашего ресурса. Важно, чтобы эти ссылки на карты были действующие. Если все сделано правильно, то в Google Search Console появится пометка «Вложенные файлы индекса Sitemap».

Иногда возникает ошибка — слишком много файлов sitemap в общем файле индекса карты сайта. Такое бывает с масштабными проектами, которые содержат свыше 50 000 карт сайта в одном документе.

Кроме того, размер несжатого файла sitemap должен не превышать 50 мб. Если допустимый объем превышен, то документ нужно будет поделить на несколько файлов.

Неполезный контент

К этому типу ошибки может относиться публикация чужих материалов и неактуальной информации, которая не несет никакой пользы читателям. За воровство контента поисковики могут пессимизировать, они не любят некачественные тексты.

Также это касается материалов, состоящих полностью из «воды» и рекламы, среди которых человек не найдет каких-то уникальных сведений.

Вывод

Мало просто провести разовую акцию по SEO-оптимизации сайта. Чтобы все эффективно работало, нужно регулярно проверять показатели и мониторить метрики. Если у вас нет видимых результатов, то, возможно, где-то скрывается ошибка в файлах robots.txt, sitemap, либо вы переборщили с ключами, а может быть увлеклись невидимым для пользователей контентом. Причины могут быть разные, поэтому стоит всегда держать ухо востро.

https://ru.zorbasmedia.com/

Полезные ссылки на наши обзоры и статьи: