Привет, коллега. ☕
Сядь поудобнее. Расскажу историю, после которой у меня поседела половина волос. Ко мне пришёл клиент — интернет-магазин с падением трафика на 70% за месяц. Бюджет на продвижение — 150к в месяц, позиции были в топ-5, а потом — пустота. Всё, на чём держался бизнес, рухнуло. И знаешь, что оказалось? Проблема была не в конкуренции, а в одной галочке в настройках хостинга, которую поставили «на всякий случай». После этого я твёрдо усвоил: красивые отчёты не ранжируются, ранжируется только то, что видит робот.
А теперь — давай по порядку. Вот те 7 технических ловушек, которые я чаще всего вылавливаю на взрослых, казалось бы, сайтах. Проверь по чек-листу, возможно, твой сайт тоже где-то спотыкается.
Ошибка 1: Кривой редирект-менеджмент (История с «зомби-страницами»)
Что это: Хаос в перенаправлениях после редизайнов, смены структуры или простого удаления товаров.
Пример из практики: Клиент-производитель. За 2 года накопилось 1200 редиректов, из них 400 — цепочки по 3-5 переходов. 🤯 Время загрузки страниц из-за этого выросло на 800 мс. Но главное — Google потратил бюджет сканирования на блуждание по этим лабиринтам, а свежие страницы не индексировались месяцами.
Как проверить:
- Выгрузи все редиректы из .htaccess или панели управления.
- Используй Screaming Frog в режиме «List Mode», загрузи туда старые URL. Найдешь цепочки.
- Лайфхак: Посмотри в Google Search Console в отчет «Индексирование» -> «Статус сканирования». Высокое значение «Исключено по запросу» может быть из-за этого.
Что делать:
→ Создай единую таблицу редиректов (старый URL -> новый URL, статус 301).
→ Разорви все цепочки. Каждый старый URL должен вести на конечный новый за 1 прыжок.
→ Удали редиректы с потерявших релевантность страниц (например, со старых фильтров) на главную. Лучше верни 410-й статус или сделай качественный релевантный редирект.
Ошибка 2: Кошмар с дублями (не только из-за www/https)
Что это: Классику про www знают все. Но сейчас адский дублинг творится из-за параметров фильтрации, сессий, UTM-меток и мобильных версий.
Реальная ситуация: Сайт крупного медцентра. Из-за настроек CRM каждая кнопка «Записаться» добавляла ?sessionid=… в URL. Робот проиндексировал 12 тысяч (!) дублей записей. Трафик упал, потому что вес распылился на мусор.
Мой косяк: Раньше я бездумно прописывал rel=»canonical» во все скрипты сайта. А потом оказалось, что на страницах категорий сам же и задал каноникал на главную. Результат — вылет из топа по всем коммерческим запросам. «В тот момент я понял, что автоматизация без контроля — билет в бан».
Чек-лист для проверки:
- Просканируй сайт с включёнными JS и CSS (современный робот — почти браузер).
- Проверь GSC на наличие «альтернативных страниц» в отчете.
- Используй параметры site:example.com/page и site:example.com/page?* в Google.
- Убедись, что в robots.txt НЕ закрыты CSS и JS файлы (Google их должен читать).
Ошибка 3: «Умный» JavaScript, который делает сайт слепым для Google
Почему это работает/не работает: Если твой интерфейс построен на JS-фреймворках (React, Vue.js), и контент подгружается динамически — для поисковика он может быть просто белым листом.
Цифры: После исправления рендеринга для одного SPA-сайта (одностраничного приложения) индексация выросла с 15% до 92% за 3 недели. Органика пошла в рост через 2 месяца.
Что делать сразу:
- Открой «Проверку URL» в GSC. Запроси индексацию и посмотри на скриншот «Как видит Google».
- Используй инструменты типа «Fetch and Render».
- Если контент не виден — тебе нужен либо серверный рендеринг (SSR), либо динамический рендеринг, либо переход на гибридную статику.
Ошибка 4: Древний или «оптимизированный» хостинг
Вывод из боли: Клиент платил за «SEO-оптимизированный» тариф у регионального хостинг-провайдера. На деле — перегруженный общий сервер, время ответа сервера (TTFB) — 1.8 секунды. После переезда на нормальный VPS TTFB упал до 190 мс. Результат? Через 4 месяца видимость в ТОП-100 по всем запросам выросла на 40%.
Практический совет:
→ Если у вас средний коммерческий сайт (до 10к посетителей/день): переезжайте на хороший VPS или облачный хостинг. Забудьте про «неограниченные» тарифы за 300 руб/мес.
→ Проверь сейчас: Используй PageSpeed Insights, WebPageTest. Смотри не только на общую оценку, а на метрику «Время до первого байта» (TTFB). Норма — до 400 мс.
Ошибка 5: Структура сайта, которая росла как сорняк
Аналогия: Ты строишь не дом, а лабиринт. Добавлял разделы, блог, акции, новости. В итоге, чтобы дойти до карточки товара, нужно сделать 5 кликов от главной. Глубина — это смерть.
Мой факап: Для информационного сайта я сделал структуру /год/месяц/день/статья. Через 3 года это превратилось в ад. Страницы 4-го уровня не получали никакого веса. Пришлось перешивать всю архитектуру, потеряли 30% трафика на 2 месяца, но потом выросли в 2 раза.
Совет: Построй карту сайта вручную на листе бумаги. От главной до любой важной страницы должно быть не более 3 кликов. Используй перелинковку, хлебные крошки и мега-меню (если уместно).
Ошибка 6: XML-карта сайта, которая всё ломает
Казалось бы: Есть карта — молодец. Ан нет.
Что идёт не так:
- В карте указаны страницы с noindex.
- В карте — битые URL или страницы с 403/500 ошибкой.
- Карта весит 200 Мб и содержит миллионы URL, но lastmod проставлен одной датой.
- Карта не в robots.txt или путь к ней неверный.
Решение:
Используй генератор, который интегрирован с твоей CMS. Обновляй lastmod только при реальных изменениях контента. Разбей карту на несколько, если URL > 50k. И обязательно добавь путь в robots.txt: Sitemap: https://site.com/sitemap.xml.
Ошибка 7: Забытый мобильный пользователь
Не про адаптивность. Речь о Core Web Vitals и удобстве. Google уже год как ранжирует отдельно мобильную версию. Если у тебя на мобиле:
- Кнопки «в палец» (минимум 48×48 px).
- Межстрочный интервал текста меньше 8px.
- Всплывающие формы, перекрывающие половину экрана.
- LCP (самая большая содержательная отрисовка) дольше 2.5 секунд.
Пример: После «мобильного тюнинга» (убрал тяжёлые слайдеры, оптимизировал шрифты, увеличил кнопки) один локальный сайт вышел в топ-3 по запросу «купить цветы [город]» с 12 позиции. Без покупки ссылок. Только UX.
Что делать сегодня:
- Открой свой сайт на телефоне и попробуй купить что-нибудь. Засеки время и посчитай усилия.
- Прогони через PageSpeed Insights, смотри раздел «Диагностика» для мобильной версии.
- Исправь всё, что помечено красным и жёлтым. Начни с изображений и сторонних скриптов.
Выводы и план действий на 2 часа
Не нужно хвататься за всё сразу. Выдели два часа завтра утром и сделай по порядку:
- Час 1: Проверь редиректы и дубли. (Ошибки 1 и 2). Это даст самый быстрый эффект.
- Час 2: Проверь хостинг (TTFB) и мобильную версию через PageSpeed Insights. (Ошибки 4 и 7).
Этих двух шагов часто достаточно, чтобы вытащить сайт из стагнации.
Личный итог
Раньше я думал, что SEO — это про тексты и ссылки. Сейчас я уверен, что это на 70% — инженерия. Можно написать гениальный текст, но если робот не может его прочитать, а пользователь не может загрузить — это ничего не стоит.
А у тебя на сайте какая из этих ошибок была самой коварной? Поделись в комментах — обсудим, как именно ты с ней боролся.
Если после проверки у тебя остались вопросы или нужен взгляд со стороны на твой проект — напиши мне.
Вместе разберём твой кейс, найдём слабые места и построим стратегию, которая выведет сайт в топ, а не просто создаст видимость работы. Мои контакты — в профиле. Давай работать на результат. 💪