SEO Отчет: Устранение дублирования страниц
Проблема
Обнаружены дубли страниц с GET-параметром “etext” от Яндекс.Директ, создающие технические дубли контента.
Внедренные решения
1. Обновление robots.txt
- Добавлена директива
Clean-param: etext
для Яндекса
- Добавлены другие трекинговые параметры для комплексной защиты
2. Middleware для 301 редиректов
- Автоматическое перенаправление URL с трекинговыми параметрами
- Сохранение важных функциональных параметров
- Добавление canonical заголовков
3. Обновление SEO компонента
- Чистые canonical URL без параметров
- Условные robots meta-теги
- Защита от индексации параметризованных URL
4. Клиентская очистка URL
- JavaScript очистка URL в браузере
- Обновление истории браузера
- Улучшение пользовательского опыта
5. Настройка Sitemap
- Фильтрация URL с трекинговыми параметрами
- Включение только чистых URL в карту сайта
Рекомендации по мониторингу
Google Search Console
- Перейти в раздел “Покрытие”
- Отслеживать уменьшение дублей
- Проверить статус индексации чистых URL
Яндекс.Вебмастер
- Раздел “Индексирование” → “Страницы в поиске”
- Мониторинг исключенных URL
- Проверка корректности robots.txt
Ожидаемые результаты
- Устранение дублей в течение 2-4 недель
- Улучшение краулингового бюджета
- Повышение релевантности страниц
- Улучшение позиций в поиске
Профилактические меры
- Регулярный аудит URL структуры
- Мониторинг новых трекинговых параметров
- Обновление списка исключений при необходимости