Почему ваш сайт не в ТОП-10: 7 технических ошибок, которые вы могли пропустить

Привет, коллега. ☕
Сядь поудобнее. Расскажу историю, после которой у меня поседела половина волос. Ко мне пришёл клиент — интернет-магазин с падением трафика на 70% за месяц. Бюджет на продвижение — 150к в месяц, позиции были в топ-5, а потом — пустота. Всё, на чём держался бизнес, рухнуло. И знаешь, что оказалось? Проблема была не в конкуренции, а в одной галочке в настройках хостинга, которую поставили «на всякий случай». После этого я твёрдо усвоил: красивые отчёты не ранжируются, ранжируется только то, что видит робот.

А теперь — давай по порядку. Вот те 7 технических ловушек, которые я чаще всего вылавливаю на взрослых, казалось бы, сайтах. Проверь по чек-листу, возможно, твой сайт тоже где-то спотыкается.

Ошибка 1: Кривой редирект-менеджмент (История с «зомби-страницами»)

Что это: Хаос в перенаправлениях после редизайнов, смены структуры или простого удаления товаров.

Пример из практики: Клиент-производитель. За 2 года накопилось 1200 редиректов, из них 400 — цепочки по 3-5 переходов. 🤯 Время загрузки страниц из-за этого выросло на 800 мс. Но главное — Google потратил бюджет сканирования на блуждание по этим лабиринтам, а свежие страницы не индексировались месяцами.

Как проверить:

  1. Выгрузи все редиректы из .htaccess или панели управления.
  2. Используй Screaming Frog в режиме «List Mode», загрузи туда старые URL. Найдешь цепочки.
  3. Лайфхак: Посмотри в Google Search Console в отчет «Индексирование» -> «Статус сканирования». Высокое значение «Исключено по запросу» может быть из-за этого.

Что делать:
→ Создай единую таблицу редиректов (старый URL -> новый URL, статус 301).
→ Разорви все цепочки. Каждый старый URL должен вести на конечный новый за 1 прыжок.
→ Удали редиректы с потерявших релевантность страниц (например, со старых фильтров) на главную. Лучше верни 410-й статус или сделай качественный релевантный редирект.

Ошибка 2: Кошмар с дублями (не только из-за www/https)

Что это: Классику про www знают все. Но сейчас адский дублинг творится из-за параметров фильтрации, сессий, UTM-меток и мобильных версий.

Реальная ситуация: Сайт крупного медцентра. Из-за настроек CRM каждая кнопка «Записаться» добавляла ?sessionid=… в URL. Робот проиндексировал 12 тысяч (!) дублей записей. Трафик упал, потому что вес распылился на мусор.

Мой косяк: Раньше я бездумно прописывал rel=»canonical» во все скрипты сайта. А потом оказалось, что на страницах категорий сам же и задал каноникал на главную. Результат — вылет из топа по всем коммерческим запросам. «В тот момент я понял, что автоматизация без контроля — билет в бан».

Чек-лист для проверки:

  • Просканируй сайт с включёнными JS и CSS (современный робот — почти браузер).
  • Проверь GSC на наличие «альтернативных страниц» в отчете.
  • Используй параметры site:example.com/page и site:example.com/page?* в Google.
  • Убедись, что в robots.txt НЕ закрыты CSS и JS файлы (Google их должен читать).

Ошибка 3: «Умный» JavaScript, который делает сайт слепым для Google

Почему это работает/не работает: Если твой интерфейс построен на JS-фреймворках (React, Vue.js), и контент подгружается динамически — для поисковика он может быть просто белым листом.

Цифры: После исправления рендеринга для одного SPA-сайта (одностраничного приложения) индексация выросла с 15% до 92% за 3 недели. Органика пошла в рост через 2 месяца.

Что делать сразу:

  1. Открой «Проверку URL» в GSC. Запроси индексацию и посмотри на скриншот «Как видит Google».
  2. Используй инструменты типа «Fetch and Render».
  3. Если контент не виден — тебе нужен либо серверный рендеринг (SSR), либо динамический рендеринг, либо переход на гибридную статику.

Ошибка 4: Древний или «оптимизированный» хостинг

Вывод из боли: Клиент платил за «SEO-оптимизированный» тариф у регионального хостинг-провайдера. На деле — перегруженный общий сервер, время ответа сервера (TTFB) — 1.8 секунды. После переезда на нормальный VPS TTFB упал до 190 мс. Результат? Через 4 месяца видимость в ТОП-100 по всем запросам выросла на 40%.

Практический совет:
→ Если у вас средний коммерческий сайт (до 10к посетителей/день): переезжайте на хороший VPS или облачный хостинг. Забудьте про «неограниченные» тарифы за 300 руб/мес.
→ Проверь сейчас: Используй PageSpeed Insights, WebPageTest. Смотри не только на общую оценку, а на метрику «Время до первого байта» (TTFB). Норма — до 400 мс.

Ошибка 5: Структура сайта, которая росла как сорняк

Аналогия: Ты строишь не дом, а лабиринт. Добавлял разделы, блог, акции, новости. В итоге, чтобы дойти до карточки товара, нужно сделать 5 кликов от главной. Глубина — это смерть.

Мой факап: Для информационного сайта я сделал структуру /год/месяц/день/статья. Через 3 года это превратилось в ад. Страницы 4-го уровня не получали никакого веса. Пришлось перешивать всю архитектуру, потеряли 30% трафика на 2 месяца, но потом выросли в 2 раза.

Совет: Построй карту сайта вручную на листе бумаги. От главной до любой важной страницы должно быть не более 3 кликов. Используй перелинковку, хлебные крошки и мега-меню (если уместно).

Ошибка 6: XML-карта сайта, которая всё ломает

Казалось бы: Есть карта — молодец. Ан нет.

Что идёт не так:

  • В карте указаны страницы с noindex.
  • В карте — битые URL или страницы с 403/500 ошибкой.
  • Карта весит 200 Мб и содержит миллионы URL, но lastmod проставлен одной датой.
  • Карта не в robots.txt или путь к ней неверный.

Решение:
Используй генератор, который интегрирован с твоей CMS. Обновляй lastmod только при реальных изменениях контента. Разбей карту на несколько, если URL > 50k. И обязательно добавь путь в robots.txt: Sitemap: https://site.com/sitemap.xml.

Ошибка 7: Забытый мобильный пользователь

Не про адаптивность. Речь о Core Web Vitals и удобстве. Google уже год как ранжирует отдельно мобильную версию. Если у тебя на мобиле:

  • Кнопки «в палец» (минимум 48×48 px).
  • Межстрочный интервал текста меньше 8px.
  • Всплывающие формы, перекрывающие половину экрана.
  • LCP (самая большая содержательная отрисовка) дольше 2.5 секунд.

Пример: После «мобильного тюнинга» (убрал тяжёлые слайдеры, оптимизировал шрифты, увеличил кнопки) один локальный сайт вышел в топ-3 по запросу «купить цветы [город]» с 12 позиции. Без покупки ссылок. Только UX.

Что делать сегодня:

  1. Открой свой сайт на телефоне и попробуй купить что-нибудь. Засеки время и посчитай усилия.
  2. Прогони через PageSpeed Insights, смотри раздел «Диагностика» для мобильной версии.
  3. Исправь всё, что помечено красным и жёлтым. Начни с изображений и сторонних скриптов.

Выводы и план действий на 2 часа

Не нужно хвататься за всё сразу. Выдели два часа завтра утром и сделай по порядку:

  1. Час 1: Проверь редиректы и дубли. (Ошибки 1 и 2). Это даст самый быстрый эффект.
  2. Час 2: Проверь хостинг (TTFB) и мобильную версию через PageSpeed Insights. (Ошибки 4 и 7).

Этих двух шагов часто достаточно, чтобы вытащить сайт из стагнации.

Личный итог

Раньше я думал, что SEO — это про тексты и ссылки. Сейчас я уверен, что это на 70% — инженерия. Можно написать гениальный текст, но если робот не может его прочитать, а пользователь не может загрузить — это ничего не стоит.

А у тебя на сайте какая из этих ошибок была самой коварной? Поделись в комментах — обсудим, как именно ты с ней боролся.

Если после проверки у тебя остались вопросы или нужен взгляд со стороны на твой проект — напиши мне.
Вместе разберём твой кейс, найдём слабые места и построим стратегию, которая выведет сайт в топ, а не просто создаст видимость работы. Мои контакты — в профиле. Давай работать на результат. 💪