Настройка robots.txt для сайта

Наша компания занимается разработкой, поддержкой и обслуживанием сайтов любой сложности. От простых одностраничных сайтов до масштабных кластерных систем построенных на микро сервисах. Опыт разработчиков подтвержден сертификатами от вендоров.
Разработка и обслуживание любых видов сайтов:
Информационные сайты или веб-приложения
Сайты визитки, landing page, корпоративные сайты, онлайн каталоги, квиз, промо-сайты, блоги, новостные ресурсы, информационные порталы, форумы, агрегаторы
Сайты или веб-приложения электронной коммерции
Интернет-магазины, B2B-порталы, маркетплейсы, онлайн-обменники, кэшбэк-сайты, биржи, дропшиппинг-платформы, парсеры товаров
Веб-приложения для управления бизнес-процессами
CRM-системы, ERP-системы, корпоративные порталы, системы управления производством, парсеры информации
Сайты или веб-приложения электронных услуг
Доски объявлений, онлайн-школы, онлайн-кинотеатры, конструкторы сайтов, порталы предоставления электронных услуг, видеохостинги, тематические порталы

Это лишь некоторые из технических типов сайтов, с которыми мы работаем, и каждый из них может иметь свои специфические особенности и функциональность, а также быть адаптированным под конкретные потребности и цели клиента

Предлагаемые услуги
Показано 1 из 1 услугВсе 2065 услуг
Настройка robots.txt для сайта
Простая
~2-3 часа
Часто задаваемые вопросы
Наши компетенции:
Этапы разработки
Последние работы
  • image_website-b2b-advance_0.png
    Разработка сайта компании B2B ADVANCE
    1214
  • image_web-applications_feedme_466_0.webp
    Разработка веб-приложения для компании FEEDME
    1161
  • image_websites_belfingroup_462_0.webp
    Разработка веб-сайта для компании БЕЛФИНГРУПП
    852
  • image_ecommerce_furnoro_435_0.webp
    Разработка интернет магазина для компании FURNORO
    1041
  • image_crm_enviok_479_0.webp
    Разработка веб-приложения для компании Enviok
    823
  • image_bitrix-bitrix-24-1c_fixper_448_0.png
    Разработка веб-сайта для компании ФИКСПЕР
    815

Настройка robots.txt для сайта

robots.txt управляет доступом поисковых роботов к страницам сайта. Корректная настройка предотвращает индексацию технических страниц, дублей и закрытых разделов.

Базовая структура

User-agent: *
Disallow: /admin/
Disallow: /area51/
Disallow: /api/
Disallow: /cart/
Disallow: /checkout/
Disallow: /account/
Disallow: /search?
Disallow: /*?sort=
Disallow: /*?page=
Allow: /

Sitemap: https://example.ru/sitemap.xml

Что закрывать

Обязательно:

  • Панели администрирования (/admin/, /wp-admin/)
  • API-эндпоинты (/api/)
  • Корзина, оформление заказа, личный кабинет
  • Страницы результатов поиска по сайту
  • Технические страницы (login, register, password-reset)

Рекомендуется:

  • URL с параметрами фильтрации и сортировки (дубли контента)
  • Страницы пагинации (или разрешить, если нет canonical)
  • /print/, /pdf/ версии страниц

Не закрывать:

  • CSS и JS файлы — Google должен видеть их для рендеринга
  • Изображения (если хотите индексацию в Google Images)

Директивы для Яндекса

Яндекс поддерживает расширенный синтаксис:

User-agent: Yandex
Disallow: /search?
Disallow: /*?utm_
Clean-param: utm_source&utm_medium&utm_campaign&utm_content&utm_term

Clean-param сообщает Яндексу, какие GET-параметры не создают уникальный контент — предотвращает появление дублей.

Динамический robots.txt в Laravel

Route::get('/robots.txt', function () {
    $content = view('robots')->render();
    return response($content, 200, ['Content-Type' => 'text/plain']);
});
User-agent: *
@if (app()->environment('production'))
Disallow: /admin/
Disallow: /api/
Allow: /
Sitemap: {{ url('/sitemap.xml') }}
@else
Disallow: /
@endif

На staging/dev-окружении закрываем всё — чтобы поисковики не проиндексировали тестовый сайт.

Проверка

  • Google Search Console → Инструмент проверки robots.txt
  • curl https://example.ru/robots.txt — убедиться что файл отдаётся правильно
  • Проверить что файл лежит строго в корне домена (не /en/robots.txt)

Срок настройки: несколько часов.