Начать беседу

Какие SEO-ошибки определяет Netpeak Spider?


Битые страницы

Показывает недоступные URL (например, из-за разрыва соединения, превышения времени ожидания ответа и др.) или адреса страниц, которые возвращают код ответа сервера 4хх и выше. Чтобы посмотреть специальный отчёт именно по битым ссылкам, нажмите кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

Битые страницы — это URL, недоступные для пользователей и поисковых систем (например, они были удалены, сервер не может обработать запрос и т.д.).

Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Нужно удалить ссылки на битые страницы или заменить ссылками на доступные адреса. Чтобы увидеть ссылки на битые страницы, нужно нажать на кнопку «Отчёт по ошибке» над основной таблицей.

Если во время сканирования появляется много URL с кодом ответа 429, 5xx или тайм-аутом — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно остановить сканирование, в настройках уменьшить количество потоков, установить интервал между запросами или использовать список прокси, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.

Полезные ссылки


4xx ошибки: Client Error

Показывает URL, которые возвращают 4xx код ответа сервера.

Чем грозит

URL с 4xx кодом ответа входят в отчёт «Битые страницы», а также выделены в отдельный отчёт «4xx ошибки: Client Error», так как встречаются часто. Такой код ответа означает, что в запросе к серверу возникла ошибка (например, страницы нет на сайте, она удалена, или у пользователя нет прав для её посещения).

Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Нужно удалить ссылки на URL с 4xx ошибками или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

Если во время сканирования появляется много URL с кодом ответа 429 — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно остановить сканирование, в настройках уменьшить количество потоков, установить интервал между запросами или использовать список прокси, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.

Полезные ссылки


5xx ошибки: Server Error

Показывает URL, которые возвращают 5xx код ответа сервера.

Чем грозит

URL с 5xx кодом ответа входят в отчёт «Битые страницы», а также выделены в отдельный отчёт «5xx ошибки: Server Error», так как встречаются часто. Такой код ответа означает, что сервер не может обработать запрос.

Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. А появление URL с 5xx кодом ответа во время посещения сайта поисковым роботом может резко снизить скорость сканирования сайта, и важные для продвижения страницы могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Нужно определить причины недоступности URL: например, для них может быть неправильно настроен код ответа сервера. В таком случае необходимо изменить настройки URL так, чтобы страницы возвращали код ответа 200 ОК.

Если во время сканирования появляется много URL с 5xx кодами ответа — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно её снизить: остановить сканирование, в настройках уменьшить количество потоков и/или установить интервал между запросами, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.

Полезные ссылки


Ссылки с неправильным форматом URL

Показывает страницы, содержащие ссылки с неправильным форматом URL. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

URL с неправильным форматом не могут открыть ни пользователи, ни поисковые роботы, так как адрес недействителен.

Переходя по неработающим ссылкам, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. В итоге сайт может потерять поисковый трафик.

Как исправить

Чаще всего ошибка возникает из-за опечаток (ошибки в написании протокола, неверное начертание символа «/» и т.д.) или лишних символов в адресах ссылок.

Чтобы определить, в каких ссылках используется неправильный формат URL, достаточно нажать на кнопку «Отчёт по ошибке» над основной таблицей. Эти ссылки нужно исправить (чтобы они вели на доступные адреса) или удалить из кода страниц.

Полезные ссылки


Дубликаты страниц

Показывает полные дубли индексируемых страниц по всему HTML-коду страницы. В этом отчёте все URL сгруппированы по параметру «Хеш страницы».

Чем грозит

Дубликаты страниц появляются, когда одна и та же страница доступна по нескольким адресам. Например адреса c/без www, на разных протоколах (http/https), с/без знака «/» в конце и т.д.

Поисковым системам сложно определить, какой адрес среди дубликатов добавить в свою базу и показывать в поиске. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.

Большие сайты могут особенно пострадать от дубликатов: у поисковых роботов может не хватить ресурсов сканирования на целевые страницы, так как они были потрачены на неприоритетные. В итоге многие важные страницы могут не попасть в поисковую базу, и сайт потеряет трафик. А если дубликатов страниц особенно много, поисковые системы могут понизить позиции всего сайта (например, так работает алгоритм Google Panda).

Как исправить

Нужно определить основной URL среди дубликатов и настроить с них 301 редирект на этот URL. Для бесполезных URL (например, /index.php и /index.html) также можно настроить 404 или 410 код ответа сервера. При этом важно помнить, что на сайте не должно быть ссылок на редиректы и недоступные страницы.

Если не получается исключить дубликаты адресов предыдущими способами, или эти URL нужны на сайте (например, адреса с метками для веб-аналитики), укажите для них основной URL с помощью тега <link rel="canonical"> или HTTP-заголовка «Link: rel="canonical"».

Полезные ссылки


Дубликаты текста

Показывает дубликаты индексируемых страниц по текстовому содержимому блока <body>. В этом отчёте все URL сгруппированы по параметру «Хеш текста».

Чем грозит

Поисковые системы могут посчитать дубликатами страницы, у которых дублируется текст в блоке <body>, даже если содержимое блока <head> (например, <title>, <meta name='description'>) у них отличается.

Поисковым системам сложно определить, какой адрес среди дубликатов добавить в свою базу и показывать в поиске. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.

Большие сайты могут особенно пострадать от дубликатов: у поисковых роботов может не хватить ресурсов сканирования на целевые страницы, так как они были потрачены на неприоритетные. В итоге многие целевые страницы могут не попасть в поисковую базу, и сайт потеряет трафик. А если дубликатов страниц особенно много, поисковые системы могут понизить позиции всего сайта (например, так работает алгоритм Google Panda).

Как исправить

Необходимо сделать контент важных для продвижения страниц уникальным. А для неважных страниц настроить 301 редирект на основной URL (рекомендуется) или удалить их (настроить 404 или 410 код ответа). При этом важно помнить, что на сайте не должно быть ссылок на редиректы и недоступные страницы.

Если не получается исключить дубликаты адресов предыдущими способами, или эти URL нужны на сайте (например, адреса с метками для веб-аналитики), укажите для них основной URL с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"».

Полезные ссылки


Содержит Lorem ipsum

Показывает страницы, текст которых содержит словосочетание «Lorem ipsum».

Чем грозит

«Lorem ipsum» — шаблонный текст, который зачастую используют в макете страницы на этапе разработки. Иногда после публикации нового сайта или отдельных страниц его забывают заменить. Так как этот текст не несёт ценности для пользователей, поисковые системы могут воспринимать страницу с ним как низкокачественную и хуже ранжировать в результатах поиска.

Как исправить

Заменить шаблонный текст на контент, релевантный для страницы.

Полезные ссылки


Дубликаты title

Показывает индексируемые страницы с дублирующимися тегами <title>. В этом отчёте все URL сгруппированы по параметру «Title».

Чем грозит

Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска. Теги title у разных страниц дублируются, если их содержание идентично. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты title генерируются автоматически по некачественным шаблонам.

Если у многих страниц title идентичен, поисковым системам сложно определить, какую страницу среди дубликатов показывать в поиске. Когда такие страницы отображаются рядом в выдаче, пользователям будет сложно различить страницы с идентичными заголовками и решить, на какую перейти. Потому страницы с дублирующимися title могут конкурировать за позиции между собой или вовсе не показываться в результатах поиска по важным ключевым словам.

Если title дублируется и не соответствует странице, поисковая система также может сама составить заголовок результата поиска, и он может оказаться неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.

Как исправить

Нужно составить для каждой страницы уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.

Полезные ссылки


Дубликаты description

Показывает индексируемые страницы с дублирующимися тегами <meta name="description" />. В этом отчёте все URL сгруппированы по параметру «Description».

Чем грозит

Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.

Метатеги description у разных страниц дублируются, если их содержание идентично. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты description генерируются автоматически по некачественным шаблонам.

Когда страницы с дубликатами description отображаются рядом в выдаче, пользователям будет сложно различить страницы с идентичными описаниями и решить, на какую перейти. К тому же если description дублируется и плохо соответствует поисковому запросу для текущей страницы, поисковые системы могут самостоятельно изменить её описание в поиске исходя из текста на странице, и оно может оказаться неуместным и неинтересным для пользователей.

Всё это может отрицательно повлиять на кликабельность страницы в поиске и, соответственно, на трафик.

Как исправить

Нужно составить для каждой страницы уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.

Полезные ссылки

Выберите файлы или перетащите файлы
Была ли эта статья Вам полезна?
Да
Нет

Всё ещё думаете?

Тысячи специалистов по всему миру используют продукты Netpeak Software для ежедневных SEO-задач. Регистрируйтесь, чтобы получить бесплатный доступ прямо сейчас!