Аудит SEO сайта на 1С-Битрикс
Битрикс предоставляет встроенные инструменты для SEO — шаблоны мета-тегов, модуль seo, настройки robots.txt и карты сайта. Но эти инструменты легко настроить неправильно: сгенерировать дублирующиеся мета-теги для страниц пагинации, добавить в индекс служебные URL (/bitrix/components/..., страницы авторизации), упустить канонические ссылки на страницах с фильтром. SEO-аудит на Битрикс — это проверка именно технических настроек, а не только контента.
Технические проблемы, специфичные для Битрикс
Дубли от умного фильтра. Компонент catalog.section.list с умным фильтром (catalog.section.filter) генерирует URL вида /catalog/section/?PROPERTY_123=456. Без настройки канонических ссылок все комбинации фильтров индексируются как отдельные страницы — сотни тысяч дублей.
Решение: в настройках компонента фильтра включить SEF_MODE = Y и прописать CANONICAL_URL — ссылку на исходный раздел без параметров.
Пагинация без rel=canonical или rel=next/prev. Страницы /catalog/?PAGEN_1=2 создают дублирующийся контент. В Битрикс шаблоне нужно добавить:
$APPLICATION->SetPageProperty('canonical', $arResult['SECTION']['SECTION_PAGE_URL']);
Дублирование title и description. Если мета-теги не настроены в модуле seo, они берутся из поля NAME инфоблока или оставляются пустыми. При настройке шаблонов мета-тегов в Настройки → Поисковая оптимизация часто ошибаются в синтаксисе переменных: {=this.Name} вместо {=this.ELEMENT.NAME}.
Карта сайта. Модуль seo генерирует sitemap.xml. Типичные проблемы: включены служебные разделы инфоблоков, не исключены страницы без контента, устаревший lastmod.
Что проверяется при аудите
| Область | Что проверяем |
|---|---|
| Мета-теги | Уникальность title/description на всех типах страниц |
| Канонические ссылки | Наличие rel=canonical на страницах фильтра и пагинации |
| robots.txt | Закрытие служебных путей Битрикс |
| Карта сайта | Корректность URL, исключение 404 и служебных страниц |
| Скорость | Core Web Vitals (LCP, CLS, FID) через Lighthouse |
| Структура URL | ЧПУ включён, нет GET-параметров в индексируемых URL |
| Микроразметка | Schema.org для товаров (Product, Offer, BreadcrumbList) |
| Внутренняя перелинковка | Хлебные крошки, ссылки на похожие товары |
Проверка robots.txt для Битрикс
Минимальный корректный robots.txt для Битрикс:
User-agent: *
Disallow: /bitrix/
Disallow: /local/
Disallow: /upload/
Disallow: /auth/
Disallow: /personal/
Disallow: /search/
Allow: /bitrix/js/
Allow: /bitrix/css/
Без закрытия /bitrix/ поисковик может попытаться обходить административные скрипты.
Настройка ЧПУ и редиректы
Проверяем включён ли модуль ЧПУ для всех нужных сущностей. Типичная проблема: ЧПУ включено для инфоблока, но не настроено правило перезаписи в .htaccess, в результате канонический URL возвращает 404.
Аудит редиректов: список всех 301/302 переадресаций (через Screaming Frog или curl), выявление цепочек редиректов (3+ звена) и петель.
Что входит в SEO-аудит
- Краулинг сайта инструментом (Screaming Frog, Netpeak Spider) с анализом мета-тегов, заголовков, ответов сервера
- Проверка настроек модуля
seo: шаблоны мета-тегов, карта сайта, robots.txt - Аудит канонических ссылок на страницах умного фильтра и пагинации
- Проверка ЧПУ и цепочек редиректов
- Анализ Core Web Vitals и технических факторов скорости
- Итоговый отчёт с приоритизированными рекомендациями







