Теперь мы учитываем и проверяем канонические ссылки и clean params в robots.txt.
После создания проекта на платном тарифе, сервис проведет аудит сайта и покажет ошибки с указанием конкретных страниц. Сервис оценит коды ответов сервера, мета-теги, контент и технические данные.
Аудит доступен на любом платном тарифе, он проверяет до 5000 страниц на сайте.
Новые тесты, которые мы добавили:
Расширенная проверка canonical
Добавили тесты для определения канонических страниц. Сервис смотрит на страницу, как поисковик: если страница каноническая, то он не будет выдавать ошибки в тестах, которые касаются дублей.
Теперь сервис проверяет:
наличие тега canonical в HTML и в заголовке HTTP;
является ли canonical абсолютной ссылкой;
корректно ли составлен тег: нет ли там другого домена, нескольких адресов и других ошибок.

Также теперь он покажет страницы, где не указаны канонические ссылки.
Как правильно указывать rel canonical
Обработка clean params
Еще одно обновление — обработка директивы clean params. Теперь сервис учитывает директиву, если она указана в robots.txt: когда он обнаружит ссылку, то сначала чистит ее от параметров, а потом добавляет. Таким образом в анализ попадает меньше дублей.
Эти обновления применятся в ваших проверках, если вы установите галочку «Использовать robots.txt» в настройках.
Как вам развитие нашего сервиса для анализа сайта? Пишите отзывы в комментариях!
Источник