Начать беседу

Какие SEO-ошибки определяет Netpeak Spider?


Битые страницы

Показывает недоступные URL (например, из-за разрыва соединения, превышения времени ожидания ответа и др.) или адреса страниц, которые возвращают код ответа сервера 4хх и выше. Чтобы посмотреть специальный отчёт именно по битым ссылкам, нажмите кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

Битые страницы — это URL, недоступные для пользователей и поисковых систем (например, они были удалены, сервер не может обработать запрос и т.д.).

Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Нужно удалить ссылки на битые страницы или заменить ссылками на доступные адреса. Чтобы увидеть ссылки на битые страницы, нужно нажать на кнопку «Отчёт по ошибке» над основной таблицей.

Если во время сканирования появляется много URL с кодом ответа 429, 5xx или тайм-аутом — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно остановить сканирование, в настройках уменьшить количество потоков, установить интервал между запросами или использовать список прокси, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.

Полезные ссылки


4xx ошибки: Client Error

Показывает URL, которые возвращают 4xx код ответа сервера.

Чем грозит

URL с 4xx кодом ответа входят в отчёт «Битые страницы», а также выделены в отдельный отчёт «4xx ошибки: Client Error», так как встречаются часто. Такой код ответа означает, что в запросе к серверу возникла ошибка (например, страницы нет на сайте, она удалена, или у пользователя нет прав для её посещения).

Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Нужно удалить ссылки на URL с 4xx ошибками или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

Если во время сканирования появляется много URL с кодом ответа 429 — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно остановить сканирование, в настройках уменьшить количество потоков, установить интервал между запросами или использовать список прокси, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.

Полезные ссылки


5xx ошибки: Server Error

Показывает URL, которые возвращают 5xx код ответа сервера.

Чем грозит

URL с 5xx кодом ответа входят в отчёт «Битые страницы», а также выделены в отдельный отчёт «5xx ошибки: Server Error», так как встречаются часто. Такой код ответа означает, что сервер не может обработать запрос.

Попадая на такие адреса, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. А появление URL с 5xx кодом ответа во время посещения сайта поисковым роботом может резко снизить скорость сканирования сайта, и важные для продвижения страницы могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Нужно определить причины недоступности URL: например, для них может быть неправильно настроен код ответа сервера. В таком случае необходимо изменить настройки URL так, чтобы страницы возвращали код ответа 200 ОК.

Если во время сканирования появляется много URL с 5xx кодами ответа — возможно, страницы стали недоступны из-за большой нагрузки на сайт. В таком случае нужно её снизить: остановить сканирование, в настройках уменьшить количество потоков и/или установить интервал между запросами, после чего продолжить сканирование. Когда сканирование будет завершено, нужно пересканировать недоступные URL: достаточно выделить URL в таблице и нажать сочетание клавиш Ctrl+R.

Полезные ссылки


Ссылки с неправильным форматом URL

Показывает страницы, содержащие ссылки с неправильным форматом URL. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

URL с неправильным форматом не могут открыть ни пользователи, ни поисковые роботы, так как адрес недействителен.

Переходя по неработающим ссылкам, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. В итоге сайт может потерять поисковый трафик.

Как исправить

Чаще всего ошибка возникает из-за опечаток (ошибки в написании протокола, неверное начертание символа «/» и т.д.) или лишних символов в адресах ссылок.

Чтобы определить, в каких ссылках используется неправильный формат URL, достаточно нажать на кнопку «Отчёт по ошибке» над основной таблицей. Эти ссылки нужно исправить (чтобы они вели на доступные адреса) или удалить из кода страниц.

Полезные ссылки


Дубликаты страниц

Показывает полные дубли индексируемых страниц по всему HTML-коду страницы. В этом отчёте все URL сгруппированы по параметру «Хеш страницы».

Чем грозит

Дубликаты страниц появляются, когда одна и та же страница доступна по нескольким адресам. Например адреса c/без www, на разных протоколах (http/https), с/без знака «/» в конце и т.д.

Поисковым системам сложно определить, какой адрес среди дубликатов добавить в свою базу и показывать в поиске. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.

Большие сайты могут особенно пострадать от дубликатов: у поисковых роботов может не хватить ресурсов сканирования на целевые страницы, так как они были потрачены на неприоритетные. В итоге многие важные страницы могут не попасть в поисковую базу, и сайт потеряет трафик. А если дубликатов страниц особенно много, поисковые системы могут понизить позиции всего сайта (например, так работает алгоритм Google Panda).

Как исправить

Нужно определить основной URL среди дубликатов и настроить с них 301 редирект на этот URL. Для бесполезных URL (например, /index.php и /index.html) также можно настроить 404 или 410 код ответа сервера. При этом важно помнить, что на сайте не должно быть ссылок на редиректы и недоступные страницы.

Если не получается исключить дубликаты адресов предыдущими способами, или эти URL нужны на сайте (например, адреса с метками для веб-аналитики), укажите для них основной URL с помощью тега <link rel="canonical"> или HTTP-заголовка «Link: rel="canonical"».

Полезные ссылки


Дубликаты текста

Показывает дубликаты индексируемых страниц по текстовому содержимому блока <body>. В этом отчёте все URL сгруппированы по параметру «Хеш текста».

Чем грозит

Поисковые системы могут посчитать дубликатами страницы, у которых дублируется текст в блоке <body>, даже если содержимое блока <head> (например, <title>, <meta name='description'>) у них отличается.

Поисковым системам сложно определить, какой адрес среди дубликатов добавить в свою базу и показывать в поиске. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.

Большие сайты могут особенно пострадать от дубликатов: у поисковых роботов может не хватить ресурсов сканирования на целевые страницы, так как они были потрачены на неприоритетные. В итоге многие целевые страницы могут не попасть в поисковую базу, и сайт потеряет трафик. А если дубликатов страниц особенно много, поисковые системы могут понизить позиции всего сайта (например, так работает алгоритм Google Panda).

Как исправить

Необходимо сделать контент важных для продвижения страниц уникальным. А для неважных страниц настроить 301 редирект на основной URL (рекомендуется) или удалить их (настроить 404 или 410 код ответа). При этом важно помнить, что на сайте не должно быть ссылок на редиректы и недоступные страницы.

Если не получается исключить дубликаты адресов предыдущими способами, или эти URL нужны на сайте (например, адреса с метками для веб-аналитики), укажите для них основной URL с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"».

Полезные ссылки


Дубликаты title

Показывает индексируемые страницы с дублирующимися тегами <title>. В этом отчёте все URL сгруппированы по параметру «Title».

Чем грозит

Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска. Теги title у разных страниц дублируются, если их содержание идентично. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты title генерируются автоматически по некачественным шаблонам.

Если у многих страниц title идентичен, поисковым системам сложно определить, какую страницу среди дубликатов показывать в поиске. Когда такие страницы отображаются рядом в выдаче, пользователям будет сложно различить страницы с идентичными заголовками и решить, на какую перейти. Потому страницы с дублирующимися title могут конкурировать за позиции между собой или вовсе не показываться в результатах поиска по важным ключевым словам.

Если title дублируется и не соответствует странице, поисковая система также может сама составить заголовок результата поиска, и он может оказаться неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.

Как исправить

Нужно составить для каждой страницы уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.

Полезные ссылки


Дубликаты description

Показывает индексируемые страницы с дублирующимися тегами <meta name="description" />. В этом отчёте все URL сгруппированы по параметру «Description».

Чем грозит

Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.

Метатеги description у разных страниц дублируются, если их содержание идентично. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты description генерируются автоматически по некачественным шаблонам.

Когда страницы с дубликатами description отображаются рядом в выдаче, пользователям будет сложно различить страницы с идентичными описаниями и решить, на какую перейти. К тому же если description дублируется и плохо соответствует поисковому запросу для текущей страницы, поисковые системы могут самостоятельно изменить её описание в поиске исходя из текста на странице, и оно может оказаться неуместным и неинтересным для пользователей.

Всё это может отрицательно повлиять на кликабельность страницы в поиске и, соответственно, на трафик.

Как исправить

Нужно составить для каждой страницы уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.

Полезные ссылки


Дубликаты H1

Показывает индексируемые страницы с дублирующимися заголовками <h1>. В этом отчёте все URL сгруппированы по параметру «Содержимое H1».

Чем грозит

Заголовок H1 — это важный элемент поисковой оптимизации. Он помогает пользователям понять содержание страницы при посещении сайта.

Теги H1 у разных страниц дублируются, если их содержание идентично. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты H1 генерируются автоматически по некачественным шаблонам.

Если заголовок H1 дублируется, он может неполно раскрывать суть и не соответствовать содержанию своей страницы — в таком случае пользователи и поисковые системы могут посчитать сайт некачественным. В итоге он может потерять поисковый трафик.

Как исправить

Нужно составить для каждой страницы уникальный (в пределах сайта) заголовок H1, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 3 до 7 слов.

Также рекомендуется, чтобы на странице был только один заголовок H1, не дублирующий содержимое тега <title>.

Полезные ссылки


Отсутствующий или пустой title

Показывает индексируемые страницы с отсутствующим или пустым тегом <title>.

Чем грозит

Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.

Если у страницы title пустой или отсутствует, поисковым системам сложнее понять содержание страницы и оценить её релевантность целевым ключевым словам. В таком случае поисковая система сама составит заголовок результата поиска исходя из текста на странице, и он может оказаться неуместным и неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.

Как исправить

Если тег <title> отсутствует в коде страницы, необходимо проверить настройки сайта и включить добавление тега на страницы сайта.

Для каждой страницы нужно составить уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.

Полезные ссылки


Отсутствующий или пустой description

Показывает индексируемые страницы с отсутствующим или пустым тегом <meta name="description" />.

Чем грозит

Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.

Если description страницы отсутствует, поисковые системы могут самостоятельно изменить её описание в поиске исходя из текста на странице, и оно может оказаться неуместным и неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.

Как исправить

Если тег <meta name="description" /> отсутствует в коде страницы, необходимо проверить настройки сайта и включить добавление тега на страницы сайта.

Для каждой страницы нужно составить уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.

Полезные ссылки


Битый редирект

Показывает адреса страниц, возвращающие перенаправление на недоступные URL (например, из-за разрыва соединения, превышения времени ожидания ответа и др.) или URL, которые возвращают код ответа сервера 4хх или выше.

Чем грозит

Битый редирект равносилен битой ссылке — перенаправляет на URL, недоступные для пользователей и поисковых систем (например, они были удалены, сервер не может обработать запрос и т.д.).

Попадая на такие URL, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

После этого нужно перепроверить настройки каждого перенаправления: возможно, были допущены ошибки в конечном URL редиректа, потому он недоступен. Если же редирект настроен правильно, возможно, его конечный URL удалён. В таком случае нужно исправить недоступный адрес или настроить для него код ответа 200 OK.

Полезные ссылки


Редиректы с неправильным форматом URL

Показывает адреса страниц, возвращающие перенаправление с неправильным форматом URL в HTTP-заголовках ответа сервера.

Чем грозит

Редирект с неправильным форматом URL равносилен битой ссылке — перенаправляет на ошибочные адреса, недоступные для пользователей и поисковых систем.

Попадая на такие URL, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

После этого нужно перепроверить настройки каждого перенаправления и исправить ошибки в конечном URL редиректа.

Полезные ссылки


Бесконечный редирект

Показывает адреса страниц, которые перенаправляют в итоге сами на себя, образуя тем самым бесконечный редирект.

Чем грозит

Бесконечный редирект равносилен битой ссылке — перенаправляет на свой же адрес (сразу или по цепочке редиректов), а это ведёт к бесконечному циклу перенаправлений. Браузеры и поисковые системы воспринимают это перенаправление как недоступный адрес.

Попадая на такие URL, пользователь видит страницу ошибки вместо полезного контента, а потому может посчитать сайт некачественным и покинуть его.

Когда на сайте много ссылок на битые страницы, поисковые системы тоже могут посчитать его некачественным и понизить его позиции в результатах поиска. К тому же поисковые роботы тратят много ресурсов на сканирование битых страниц, потому этих ресурсов может не хватить на важные для продвижения страницы, и те могут не попасть в поисковую базу. В итоге сайт может потерять поисковый трафик.

Как исправить

Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

После этого нужно перепроверить настройки каждого перенаправления и убрать редиректы или цепочки редиректов, которые ведут к начальному URL.

Полезные ссылки


Макс. количество редиректов

Показывает адреса страниц с более чем 4 редиректами (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Цепочка редиректов образуется, когда несколько URL поочередно перенаправляют пользователя. Например, цепочка из двух перенаправлений выглядит так: URL 1 → URL 2 → URL 3.

Длинные цепочки переадресации приводят к тому, что страницы загружаются медленнее, из-за чего пользователи могут посчитать сайт некачественным и покинуть его.

Также длинные цепочки редиректов затрудняют сканирование сайта поисковыми роботами, из-за чего могут возникнуть сложности с добавлением страниц в поисковую базу. Если цепочка содержит более 5 перенаправлений, то бот Google вообще не сканирует конечный URL. В итоге сайт может получить низкие позиции в поиске и потерять поисковый трафик.

Как исправить

Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

После этого нужно настроить перенаправление сразу на конечный URL без цепочек: например, вместо цепочки URL 1 → URL 2 → URL 3 сделать перенаправления URL 1 → URL 3 и URL 2 → URL 3. Специальный отчёт «Цепочки редиректов» покажет все такие цепочки: достаточно нажать в меню «Экспорт» → «Отчёты по ошибкам» → «Цепочки редиректов».

Полезные ссылки


Редирект, заблокированный в robots.txt

Показывает адреса страниц, возвращающие перенаправление на URL, который заблокирован в файле robots.txt. Обратите внимание: в отчёте будут отображены все URL из цепочки редиректов, которые ведут на заблокированный адрес. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

Редирект, заблокированный в robots.txt, возникает, когда первый URL доступен для сканирования, а конечный адрес редиректа или любой другой URL в цепочке перенаправления закрыты. В таком случае поисковый робот переходит по ссылке, но не может продолжить сканирование, потому что попадает на заблокированный для него адрес.

Такие перенаправления отрицательно влияют на сканирование сайта поисковыми роботами и расходуют ссылочный вес. Из-за этого важные страницы сайта могут получить меньше ссылочного веса и меньший приоритет для поискового робота → следовательно, реже сканироваться, получать низкие позиции в поиске и приносить меньше трафика, чем могли бы.

Как исправить

Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

После этого нужно перепроверить настройки перенаправления: возможно, были допущены ошибки в конечном URL редиректа. Если ошибки нет, стоит закрыть в robots.txt начальный URL редиректа, чтобы поисковый робот не заходил на него.

Полезные ссылки


Канонический URL, заблокированный в robots.txt

Показывает страницы, содержащие тег <link rel="canonical" /> или строку «Link: rel="canonical"» в HTTP-заголовке, которые указывают на URL, заблокированный в файле robots.txt. Обратите внимание, если целевой URL начинает цепочку канонических URL до заблокированной страницы, то в отчёте будут отображены все URL из этой цепочки. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

Канонический URL, который указывает на недоступную или неиндексируемую страницу, не будет учитываться поисковым роботом. Это может привести к появлению дубликатов на сайте и, как следствие, к потере трафика.

Как исправить

Необходимо заменить канонический URL страницы на индексируемый.

Полезные ссылки


Цепочка канонических URL

Показывает страницы, которые начинают цепочку канонических URL (когда в каноническом URL указан адрес страницы, которая ссылается в <link rel="canonical" /> или HTTP-заголовке «Link: rel="canonical"» на другой URL) или участвуют в ней. Чтобы посмотреть подробную информацию, откройте дополнительную таблицу «Canonical» в меню «База данных».

Чем грозит

Канонический URL, который участвует в цепочке (к примеру, URL 1 → URL 2 → URL 3) и указывает на неканонический URL, может не учитываться поисковым роботом при сканировании сайта. Это может привести к появлению дубликатов на сайте и, как следствие, к потере трафика.

Как исправить

Необходимо установить в теге <link rel="canonical" /> или HTTP-заголовке «Link: rel="canonical"» адреса страниц, которые в свою очередь не ссылаются в этом теге или заголовке на другие URL.

Чтобы определить URL, которые участвуют в цепочке канонических URL, достаточно нажать в меню «Экспорт» → «Отчёты по ошибкам» → «Цепочки канонических URL» и экспортировать этот отчёт.

Полезные ссылки


Битые изображения

Показывает недоступные изображения (например, из-за разрыва соединения, превышения времени ожидания ответа и др.) или изображения, которые возвращают код ответа сервера 4xx или выше. Обратите внимание, что для определения этой ошибки должна быть включена проверка изображений на вкладке «Основные» в настройках сканирования. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

Битые изображения могут появиться, когда файлы изображений удалены или недоступны (URL возвращает 5хх код ответа или другие ошибки сервера).

Эти изображения не отображаются на странице, и пользователь видит вместо них пустые участки, а потому может посчитать сайт некачественным и покинуть его. Также это отрицательный сигнал качества сайта для поисковых систем, что может привести к снижению позиций в поиске и потере трафика.

Как исправить

Необходимо заменить битые изображения на доступные или удалить их из кода страниц. Чтобы определить страницы с битыми изображениями, достаточно нажать на кнопку «Отчёт по ошибке» над основной таблицей.

Изображения также могут быть недоступными из-за большой нагрузки на сайт во время сканирования. В таком случае надо снизить нагрузку (уменьшить количество потоков и установить интервал между запросами в настройках сканирования), завершить сканирование и пересканировать недоступные URL (выделить их в таблице и нажать сочетание клавиш Ctrl+R).

Полезные ссылки


PageRank: висячий узел

Показывает HTML-страницы, которые были определены алгоритмом расчёта внутреннего PageRank как «висячие узлы». Это страницы, на которые ведут ссылки, но на них самих отсутствуют исходящие ссылки, либо они закрыты от роботов инструкциями по сканированию.

Чем грозит

Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес). Если у страницы нет исходящих ссылок, или роботам запрещено их учитывать, то она не сможет передать ссылочный вес другим страницам сайта. В результате из-за таких «висячих узлов» полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.

Как исправить

Ссылки на страницы с кодами ответа не 200 OK необходимо убрать с сайта или заменить.

На внутренних страницах сайта нужно убрать директиву «nofollow» в Meta Robots или X-Robots-Tag или же уменьшить количество ссылок на страницы с этой директивой. Чтобы увидеть входящие ссылки на «висячие узлы», достаточно нажать комбинацию клавиш Shift+F1.

Полезные ссылки


Страницы без внутренних ссылок

Показывает HTML-страницы, на которые ведут ссылки, но на них самих отсутствуют исходящие внутренние ссылки.

Чем грозит

Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес). Если у страницы нет исходящих ссылок, она не сможет передать ссылочный вес другим страницам сайта. Чаще всего это происходит, когда страницы ещё не оптимизированы и генерируются автоматически по некачественным шаблонам.

В результате из-за таких тупиковых страниц полезные могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.

Как исправить

На всех целевых страницах сайта необходимо добавить исходящие внутренние ссылки.

Важно убедиться, что HTML-страницы являются полноценными страницами с контентом. Неполноценные и созданные по ошибке страницы нужно удалить (настроить 404 или 410 код ответа) и убрать с сайта все ссылки на них. Чтобы увидеть входящие ссылки на страницы без ссылок, достаточно нажать комбинацию клавиш Shift+F1.

Полезные ссылки


Неправильный формат AMP HTML

Показывает AMP HTML документы, которые не соответствуют стандартам по документации AMP Project. Обратите внимание, к каждой AMP HTML странице предъявляется минимум 8 требований по оформлению.

Чем грозит

AMP-страницы с неправильным форматом не будут обработаны поисковыми системами, не отобразятся в поисковой выдаче и не принесут трафик.

Как исправить

Необходимо привести AMP-страницы к требуемому формату.

Полезные ссылки


Большое время ответа сервера

Показывает адреса страниц, у которых время получения первого байта от сервера превышает 500 мс (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Скорость загрузки — один из важных факторов ранжирования для поисковых систем: чем быстрее загружается страница, тем более высокую позицию в поиске она может получить.

Быстрая загрузка страницы повышает удобство сайта для пользователя и способствует увеличению конверсии. Если же страница загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его.

Обратите внимание, что Netpeak Spider измеряет скорость ответа сервера — одну из весомых составляющих суммарной скорости загрузки страницы.

Как исправить

Существует масса причин низкой скорости ответа сервера: медленная логика приложений, медленные запросы к базе данных, отсутствие кеширования и т.д.

Необходимо оптимизировать скорость ответа сервера для страницы: она должна составлять максимум 500 миллисекунд. В этом может помочь настройка сервера, переход на более мощный хостинг и использование CDN для ускорения загрузки статических файлов.

Полезные ссылки


Отсутствующий или пустой H1

Показывает индексируемые страницы с отсутствующим или пустым заголовком <h1>.

Чем грозит

Заголовок H1 — это важный элемент поисковой оптимизации. Он помогает пользователям и поисковым системам понять содержание страницы при посещении сайта.

Если у страницы H1 пустой или отсутствует — это упущенная возможность оптимизировать её с помощью целевых ключевых слов. Из-за этого страницы могут получать низкие позиции в поиске.

Как исправить

Нужно составить для каждой страницы уникальный (в пределах сайта) заголовок H1, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 3 до 7 слов.

Также рекомендуется, чтобы на странице был только один заголовок H1, не дублирующий содержимое тега <title>.

Полезные ссылки


Мин. размер контента

Показывает индексируемые страницы с менее чем 500 символов (по умолчанию) в блоке <body> (без HTML-тегов). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Поисковые системы используют в основном текстовый контент для определения соответствия веб-страницы поисковым запросам. Часто страницы с бóльшим количеством текста находятся выше в поиске, так как лучше раскрывают тему.

Обычно на страницах недостаточно текстового контента, когда они ещё не оптимизированы и генерируются автоматически по некачественным шаблонам. Зачастую они очень похожи или вовсе дублируются, а также могут содержать недостаточно релевантных ключевых фраз.

Также поисковые системы могут посчитать некачественными страницы, большую часть текста на которых составляет шаблон вёрстки (меню, хедер, футер), из-за чего их позиции в поиске понизятся.

Как исправить

Необходимо наполнить важные страницы достаточным объёмом полезного текстового контента, который наиболее полно раскрывает тему релевантных ключевых слов.

Полезные ссылки


Изображения без атрибута alt

Показывает индексируемые страницы, содержащие изображения с отсутствующим или пустым атрибутом alt. Чтобы посмотреть специальный отчёт по этой ошибке, нажмите кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

Атрибут alt используется для ранжирования изображений в поиске по картинкам, потому что помогает поисковым роботам определить, что изображено на картинке. Также правильно оптимизированные атрибуты alt у изображений положительно влияют на ранжирование HTML-страниц, где они размещены.

К тому же если изображение не удалось загрузить, или в браузере отключена загрузка изображений, пользователь увидит текст атрибута alt, а не просто пустой участок на странице.

Отсутствие alt в тегах изображений — это упущенная возможность текстовой оптимизации самих изображений и страниц, где те размещены. Для страниц, где основной контент — это изображения, использование атрибута alt критически важно.

Как исправить

Каждому изображению на сайте необходимо добавить атрибут alt, который будет кратко и ёмко описывать, что на нём изображено, и содержать релевантные ключевые слова.

Чтобы увидеть ссылки на изображения без атрибута alt, нужно нажать на кнопку «Отчёт по ошибке» над основной таблицей.

Полезные ссылки


Макс. размер изображения

Показывает адреса изображений, размер которых превышает 100 Кбайт (определяется по HTTP-заголовку Content-Length). Для определения этой ошибки должен быть включён анализ изображений в настройках сканирования на вкладке «Основные». Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Изображения с большим весом загружаются медленнее и тем самым снижают скорость загрузки страницы. Если же страница загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его.

Как исправить

Для фотографий необходимо использовать оптимальный растровый формат (JPEG, PNG, GIF) со сжатием без потери качества; для остальных изображений (например, логотипов, иллюстраций) — векторный формат. Для современных браузеров рекомендуется передавать изображения в форматах WebP или JPEG XR.

Также нужно загружать изображение с таким же размером, как HTML-блок, в котором оно выводится. Так браузер не будет тратить время на загрузку избыточных данных.

Оптимальный размер изображения — до 100 Кбайт.

Полезные ссылки


3xx редиректы: Redirection

Показывает URL, которые возвращают перенаправление с 3xx кодом ответа сервера.

Чем грозит

Ссылки на URL с редиректами плохо влияют на пользовательский опыт, так как увеличивают время загрузки страниц (особенно на мобильных устройствах, где скорость интернета ниже). К тому же, если пользователь часто попадает не на тот URL, на который ожидал перейти, он может посчитать сайт некачественным и покинуть его.

Большие сайты могут особенно пострадать от редиректов: у поисковых роботов может не хватить ресурсов сканирования на целевые страницы, так как они были потрачены на лишние переходы во время посещения сайта. В итоге многие важные страницы могут не попасть в поисковую базу, и сайт потеряет трафик.

Как исправить

Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

Полезные ссылки


Цепочка редиректов

Показывает URL с цепочками перенаправлений (более 1 редиректа).

Чем грозит

Цепочка редиректов образуется, когда несколько URL поочередно перенаправляют пользователя. Например, цепочка из двух перенаправлений выглядит так: URL 1 → URL 2 → URL 3.

Длинные цепочки переадресации приводят к тому, что страницы загружаются медленнее (особенно на мобильных устройствах, где скорость интернета ниже), из-за чего пользователи могут посчитать сайт некачественным и покинуть его.

Также длинные цепочки редиректов затрудняют сканирование сайта поисковыми роботами, из-за чего могут возникнуть сложности с добавлением страниц в поисковую базу. Если цепочка содержит более 5 перенаправлений, то бот Google вообще не сканирует конечный URL. В итоге сайт может получить низкие позиции в поиске и потерять поисковый трафик.

Как исправить

Стоит убрать с сайта внутренние ссылки на редиректы или заменить ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

После этого нужно настроить перенаправление сразу на конечный URL без цепочек: например, вместо цепочки URL 1 → URL 2 → URL 3 сделать перенаправления URL 1 → URL 3 и URL 2 → URL 3. Специальный отчёт «Цепочки редиректов» покажет все такие цепочки: достаточно нажать в меню «Экспорт» → «Отчёты по ошибкам» → «Цепочки редиректов».

Полезные ссылки


Refresh редирект

Показывает адреса страниц, которые содержат директиву refresh в HTTP-заголовках ответа сервера или тег <meta http-equiv="refresh" /> в блоке <head>, указывающие на другой URL.

Чем грозит

Refresh направляет пользователя на новый (или тот же) URL через определённый период времени.

Не рекомендуется использовать этот метатег (или директиву) как способ переадресации (вместо 3хх серверных редиректов): он поддерживается не всеми браузерами, сильно замедляет скорость загрузки страницы и может вводить пользователей в заблуждение, из-за чего они могут посчитать сайт некачественным и покинуть его.

Как исправить

Если meta refresh используется на важных URL, необходимо убрать его или настроить 301 серверный редирект.

Однако meta refresh допустимо использовать на неважных страницах для определённых задач (например, на страницах авторизации или подтверждения оплаты).

Полезные ссылки


Редирект на внешний сайт

Показывает внутренние URL, возвращающие 3хх редирект на внешний ресурс, который не является частью анализируемого сайта.

Чем грозит

Такие редиректы могут использоваться для скрытия ссылок на внешние сайты от поисковых роботов. Эту настройку стоит использовать очень осторожно: она может быть расценена как способ манипуляции поисковыми алгоритмами.

Также редиректы на внешние ресурсы могут появиться после взлома сайта: таким образом недоброжелатели перенаправляют пользователей на свой веб-ресурс.

Как исправить

Важно убедиться, что редиректы с внутренних URL на внешние сайты были настроены умышленно и не являются последствием действий недоброжелателей.

В противном случае необходимо удалить ссылки на URL с редиректом на внешние сайты или заменить ссылками на доступные внутренние страницы. Чтобы увидеть входящие ссылки таких URL, достаточно нажать комбинацию клавиш Shift+F1.


PageRank: перенаправление

Показывает URL, которые были определены алгоритмом расчёта внутреннего PageRank как перенаправляющие ссылочный вес. Это могут быть адреса страниц, возвращающих 3хх редирект или содержащих инструкции canonical / refresh, которые указывают на другой URL.

Чем грозит

Чаще всего адреса страниц, которые выполняют перенаправление или являются неканоническими, не будут участвовать в поиске и не принесут трафик.

Как исправить

Необходимо убедиться, что адресов важных страниц нет среди URL, перенаправляющих ссылочный вес. В противном случае стоит убрать перенаправление с адресов важных страниц, чтобы они участвовали в поиске.

Также стоит убрать с сайта внутренние ссылки на редиректы или страницы с директивой refresh или же заменить их ссылками на доступные страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

Полезные ссылки


Несколько тегов title

Показывает индексируемые страницы, которые содержат более одного тега <title> в HTML-блоке <head>.

Чем грозит

Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.

Несколько тегов title обычно возникают на странице при ошибках в настройках сайта. Так как поисковые роботы учитывают только один title, то выбранный ими тег может быть плохо оптимизированным или не соответствовать странице. В итоге сайт может потерять поисковый трафик.

Как исправить

Необходимо изменить настройки сайта, чтобы в блоке <head> на страницах выводился только один тег <title>.

Также важно сделать текст <title> уникальным в пределах сайта. Он должен ёмко описывать контент страницы, содержать целевые ключевые слова, а также быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.

Полезные ссылки


Несколько тегов description

Показывает индексируемые страницы, которые содержат более одного тега <meta name="description" /> в HTML-блоке <head>.

Чем грозит

Тег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.

Несколько тегов description обычно возникают на странице при ошибках в настройках сайта. Так как поисковые роботы учитывают только один description, то выбранный ими метатег может быть плохо оптимизированным или не соответствовать странице. В итоге сайт может потерять поисковый трафик.

Как исправить

Необходимо изменить настройки сайта, чтобы в блоке <head> на страницах выводился только один тег <meta name="description" />.

Также важно сделать текст description уникальным в пределах сайта. Он должен ёмко описывать контент страницы, содержать целевые ключевые слова, побуждать пользователя перейти на сайт, быть кратким и информативным: оптимальная длина — от 100 до 160 символов.

Полезные ссылки


Заблокировано в robots.txt

Показывает URL, запрещённые к сканированию с помощью инструкции Disallow в файле robots.txt.

Чем грозит

Файл robots.txt позволяет запретить поисковым роботам сканировать определённые страницы сайта — следовательно, они не будут участвовать в поиске.

Зачастую с помощью файла robots.txt закрывают неважные для поиска страницы (например, страницы внутреннего поиска, корзины, регистрации и т.д.) для экономии ресурсов робота на их сканирование.

Если на сайте много ссылок на закрытые от сканирования URL, полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.

Как исправить

Необходимо, чтобы важные страницы сайта были открыты для сканирования поисковыми роботами.

Также рекомендуется уменьшить количество ссылок на закрытые от сканирования страницы. Чтобы увидеть входящие ссылки на такие URL, достаточно нажать комбинацию клавиш Shift+F1.

Однако если ссылки полезны для навигации пользователя по сайту (например, на страницу корзины или регистрации), не стоит их убирать.

Полезные ссылки


Заблокировано в Meta Robots

Показывает страницы, запрещённые к индексации с помощью директив «noindex» или «none» в тегах <meta name="robots" /> или <meta name="[bot name]" /> в блоке <head>, где [bot name] — имя конкретного поискового бота.

Чем грозит

Инструкции Meta Robots позволяют запретить поисковым системам показывать страницы сайта в результатах поиска. Зачастую с помощью Meta Robots закрывают не важные для поиска страницы (например, страницы корзины, входа, регистрации и т.д.). Чтобы обеспечить обязательное выполнение директив поисковыми роботами, не следует запрещать в robots.txt сканирование URL, для которых они заданы.

Как исправить

Необходимо убедиться, что поисковым роботам разрешено показывать важные страницы в поиске, а запрет используется только на неважных.

Полезные ссылки


Заблокировано в X-Robots-Tag

Показывает URL, запрещённые к индексации с помощью директивы «noindex» или «none» поля X-Robots-Tag в HTTP-заголовках ответа сервера.

Чем грозит

Инструкции в заголовке X-Robots-Tag позволяют запретить поисковым системам показывать страницы сайта в результатах поиска, однако поддерживаются не всеми поисковыми системами.

X-Robots-Tag полезен в первую очередь для запрета индексации не HTML-документов, потому что находится в заголовке ответа сервера. Тем не менее, он также может использоваться для HTML-страниц.

Для HTML-страниц не рекомендуется одновременно использовать инструкции Meta Robots и X-Robots-Tag. Если по ошибке в этих настройках появятся разные директивы, важные страницы могут быть удалены из поиска.

Чтобы обеспечить обязательное выполнение директив поисковыми роботами, не следует запрещать в robots.txt сканирование URL, для которых они заданы.

Как исправить

Необходимо убедиться, что поисковым роботам разрешено показывать важные документы в поиске, а запрет используется только на неважных.

Если для HTML-страниц одновременно используются директивы в Meta Robots и X-Robots-Tag, важно убедиться, что они совпадают, а ещё лучше — оставить только один из вариантов: метатег или HTTP-заголовок.

Полезные ссылки


Не HTTPS-протокол

Показывает URL, которые не используют защищённый протокол HTTPS.

Чем грозит

Если на сайтах с защищённым HTTPS-протоколом есть HTML-страницы, изображения или другие документы с HTTP-протоколом, это может привести к ошибке «Смешанное содержимое».

В этом случае пользователи могут увидеть в браузере соответствующее предупреждение, посчитать сайт некачественным и покинуть его. Поисковые системы тоже могут посчитать сайт небезопасным и понизить его позиции в результатах поиска. В итоге сайт может потерять поисковый трафик.

Как исправить

Если сайт использует незащищённый HTTP-протокол, можно игнорировать эту ошибку.

Если же основной протокол сайта — HTTPS, необходимо проверить, почему определённые страницы используют HTTP-протокол. Возможно, перестали работать редиректы с HTTP версии URL на HTTPS.

После проверки стоит убрать все ссылки на страницы с HTTP-протоколом. Чтобы увидеть входящие ссылки на такие страницы, достаточно нажать комбинацию клавиш Shift+F1.

Полезные ссылки


Кодированные URL

Показывает URL, которые содержат кодированные (не ASCII) символы и пробелы. Например, URL вида https://example.com/пример кодируется как https://example.com/%D0%BF%D1%80%D0%B8%D0%BC%D0%B5%D1%80.

Чем грозит

Кодированные URL допускаются к использованию браузерами и поисковыми системами.

Тем не менее вне адресной строки браузера такие URL могут выглядеть непривлекательно для пользователей. А адреса, где используется сразу несколько способов формирования URL (к примеру, транслитерация, слова на другом языке и другие кодированные алфавиты) могут и вовсе плохо восприниматься пользователями. Пример плохого URL: http://site.com/electronics/mobilnie-telefony/самсунг/.

К тому же при неправильной настройке сервер может не обработать закодированные адреса, из-за чего могут возникнуть битые страницы и другие ошибки.

Как исправить

Если в URL на сайте было решено использовать не ASCII-символы, то нужно проверить правильность экранирования символов и корректность их обработки сервером.

Если URL сайта должны содержать только ASCII-символы, то необходимо установить, как появляются закодированные адреса, и устранить причины их появления. Возможно, в URL случайно попали спецсимволы, или вместо латинских символов по ошибке используются символы других алфавитов (например, вместо латинских с, о, р, е, у — кириллические c, o, p, e, y). Чтобы увидеть входящие ссылки на кодированные адреса, достаточно нажать комбинацию клавиш Shift+F1.

Также стоит избегать пробелов в URL в качестве разделителя, потому что они будут закодированы с помощью символов «%20» и выглядеть непривлекательно.

Полезные ссылки


Одинаковые title и H1

Показывает индексируемые страницы, у которых заголовок <h1> совпадает с содержимым тега <title>.

Чем грозит

Дублирование title и H1 — это упущенная возможность использовать бóльшее количество релевантных для страницы ключевых слов. Чаще всего это происходит, когда страницы ещё не оптимизированы, и тексты title и H1 генерируются автоматически по некачественным шаблонам.

Как исправить

Необходимо оптимизировать title и H1, чтобы они были уникальными (в пределах сайта), ёмко описывали контент страниц и содержали целевые ключевые слова.

Оптимальная длина title — от 40 до 70 символов, максимальная — до 140 символов. Оптимальная длина H1 — от 3 до 7 слов.

Полезные ссылки


Короткий title

Показывает индексируемые страницы, у которых длина тега <title> менее 10 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.

Если у страницы title короткий, поисковым системам сложнее понять содержание страницы и оценить её релевантность целевым ключевым словам. В таком случае поисковая система может сама составить заголовок результата поиска исходя из текста на странице, и он может оказаться неуместным и неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.

Чаще всего на страницах выводятся короткие title, когда страницы ещё не оптимизированы, и тексты для этого тега генерируются автоматически по некачественным шаблонам.

Как исправить

Нужно составить для каждой страницы уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 140 символов.

Полезные ссылки


Макс. длина title

Показывает индексируемые страницы, у которых длина тега <title> более 70 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Тег title — это важный элемент поисковой оптимизации, и его содержание часто указывается в первой строке результата поиска.

Поисковые системы отображают в результатах около 70 символов тега <title>, а остальной текст обрезают. В итоге сокращённый title может быть неинтересным для пользователей, и сайт может потерять поисковый трафик.

При этом поисковые системы учитывают до 12 слов из title, потому он может быть и дольше 70 символов, чтобы охватить больше релевантных для страницы ключевых слов.

Как исправить

Нужно составить для каждой страницы уникальный (в пределах сайта) title, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 40 до 70 символов, максимальная — до 12 слов или 140 символов.

Полезные ссылки


Короткий description

Показывает индексируемые страницы, у которых длина тега <meta name="description" /> менее 50 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.

Если description страницы короткий, поисковые системы могут самостоятельно изменить её описание в поиске исходя из текста на странице, и оно может оказаться неуместным и неинтересным для пользователей. В итоге сайт может потерять поисковый трафик.

Чаще всего на страницах выводятся короткие description, когда страницы ещё не оптимизированы, и тексты <meta name="description" /> генерируются автоматически по некачественным шаблонам.

Как исправить

Для каждой страницы нужно составить уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.

Полезные ссылки


Макс. длина description

Показывает индексируемые страницы, у которых длина тега <meta name="description" /> более 320 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Метатег description — это важный элемент поисковой оптимизации, так как его содержимое часто используется в качестве описания результата поиска, чтобы пользователи лучше поняли суть страницы.

Поисковые системы не указывают минимальное и максимальное количество символов для описаний. Но для их эффективного использования стоит ориентироваться на максимальную длину, которая отображается в поисковой выдаче, — около 160 символов.

Как исправить

Для каждой страницы нужно составить уникальный (в пределах сайта) description, который будет ёмко описывать её контент, содержать целевые ключевые слова, а также побуждать пользователя перейти на сайт. Он должен быть кратким и информативным: оптимальная длина — от 100 до 160 символов.

Полезные ссылки


Несколько заголовков H1

Показывает индексируемые страницы, которые содержат более одного заголовка <h1>.

Чем грозит

Заголовок H1 — это важный элемент поисковой оптимизации. Он помогает пользователям понять суть и структуру контента страницы при посещении сайта.

В HTML5 допускается использование нескольких заголовков H1 на странице. Однако для поисковых систем это может быть сигналом о некачественной структуре контента. В итоге сайт может потерять поисковый трафик.

Как исправить

Рекомендуется, чтобы на странице был только один заголовок H1, не дублирующий содержимое тега <title>. Также если теги H1 используются исключительно для форматирования текста, их стоит удалить и выполнить соответствующую стилизацию с помощью CSS.

Важно, чтобы на каждой странице был уникальный (в пределах сайта) заголовок H1, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 3 до 7 слов.

Полезные ссылки


Макс. длина H1

Показывает индексируемые страницы, у которых длина заголовка h1 более 65 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Заголовок H1 — это важный элемент поисковой оптимизации. Он помогает пользователям понять содержание страницы при посещении сайта.

Так как пользователям сложно читать и воспринимать длинные заголовки, H1 (как и тег title) должен содержать короткое и ёмкое описание страницы.

Как исправить

Рекомендуется сократить длинные заголовки и оставить в них только главную суть страницы.

Нужно составить для каждой страницы уникальный (в пределах сайта) заголовок H1, который будет ёмко описывать её контент и содержать целевые ключевые слова. Он должен быть кратким и информативным: оптимальная длина — от 3 до 7 слов.

Также рекомендуется, чтобы на странице был только один заголовок H1, не дублирующий содержимое тега <title>.

Полезные ссылки


Макс. размер HTML

Показывает индексируемые страницы с более чем 200 тыс. символов (по умолчанию) в блоке <html> (включая HTML-теги). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Зачастую большие страницы содержат избыточный код, который можно сократить.

Размер кода влияет на скорость загрузки страницы. Если страница слишком большая и загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его. Такие медленные страницы обычно занимают низкие позиции в поиске, и в итоге сайт может потерять поисковый трафик.

Как исправить

Необходимо сократить избыточный HTML-код: например, убрать лишние HTML-теги, вынести скрипты и стили в отдельные файлы. Также рекомендуется разбить слишком большую страницу на несколько меньших.


Макс. размер контента

Показывает индексируемые страницы с более чем 50 тыс. символов (по умолчанию) в блоке <body> (без HTML-тегов). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Пользователям может быть неудобно читать слишком длинный текст, из-за чего они с большей вероятностью могут уйти со страницы.

Также страницы с очень длинным текстом обычно загружаются дольше (особенно на мобильных устройствах, где скорость интернета ниже), из-за чего пользователь может посчитать сайт некачественным и покинуть его. Такие медленные страницы обычно занимают низкие позиции в поиске, и в итоге сайт может потерять поисковый трафик.

Как исправить

Рекомендуется проверить, корректно ли составлены страницы со слишком большим количеством текста. Если это результат ошибки, необходимо её исправить. Если же нет — разбить слишком большую страницу на несколько меньших.

Полезные ссылки


Мин. соотношение text/HTML

Показывает индексируемые страницы, у которых соотношение чистого текста (параметр «Размер контента») к коду страницы (параметр «Размер HTML») менее 10% (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Поисковые системы могут посчитать некачественными страницы, большую часть текста на которых составляет шаблон вёрстки (меню, хедер, футер), из-за чего их позиции в поиске понизятся.

Также если на странице текста значительно меньше, чем HTML-кода, скорее всего этот избыточный код можно сократить, так как он увеличивает размер страницы и замедляет её загрузку. А если страница слишком большая и загружается долго (особенно на мобильных устройствах, где скорость интернета ниже), пользователь может посчитать сайт некачественным и покинуть его. Такие медленные страницы обычно занимают низкие позиции в поиске, и в итоге сайт может потерять поисковый трафик.

Как исправить

Необходимо в первую очередь обратить внимание на страницы, где соотношение Text/HTML будет значительно меньше среднего значения этой метрики по сайту.

На таких страницах рекомендуется сократить избыточный HTML-код: например, убрать лишние HTML-теги, вынести скрипты и стили в отдельные файлы.


Неканонические страницы

Показывает неканонические страницы, у которых URL в теге <link rel="canonical" /> или HTTP-заголовке «Link: rel="canonical"» указывает на другую страницу.

Чем грозит

Когда страница доступна по нескольким адресам, или же на сайте существует несколько страниц с похожим контентом, поисковые системы рекомендуют указывать с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"», какой URL нужно считать главным и показывать в поиске. Таким образом поисковые роботы не будут расходовать свои ресурсы на сканирование повторяющихся или неважных страниц.

Если же канонический URL для нескольких страниц дубликатов не указан, поисковая система может самостоятельно выбрать главный URL или будет считать несколько адресов равноценными. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.

Обратите внимание: canonical — это рекомендация для поисковых роботов, а не строгое правило. Также его следует использовать только для очень похожих по контенту страниц, в противном случае он может быть проигнорирован.

Как исправить

Необходимо убедиться, что рекомендации заданы правильно, и среди неканонических URL нет адресов важных целевых страниц.

Полезные ссылки


Одинаковые канонические URL

Показывает страницы с одинаковыми каноническими URL в тегах <link rel="canonical" /> блока <head> или в HTTP-заголовке «Link: rel="canonical"». В этом отчёте все URL сгруппированы по параметру «Канонический URL».

Чем грозит

Когда страница доступна по нескольким адресам, или же на сайте существует несколько страниц с похожим контентом, поисковые системы рекомендуют указывать с помощью тега <link rel="canonical" /> или HTTP-заголовка «Link: rel="canonical"», какой URL нужно считать главным и показывать в поиске. Таким образом поисковые роботы не будут расходовать свои ресурсы на сканирование повторяющихся или неважных страниц.

Если же канонический URL для нескольких страниц дубликатов не указан, поисковая система может самостоятельно выбрать главный URL или будет считать несколько адресов равноценными. В итоге на более высокой позиции в выдаче могут оказаться неважные для продвижения адреса страниц. Это может привести к низким позициям важных страниц в результатах поиска, потере трафика и даже удалению этих страниц из поиска.

Обратите внимание: canonical — это рекомендация для поисковых роботов, а не строгое правило. Также его следует использовать только для очень похожих по контенту страниц, в противном случае он может быть проигнорирован.

Как исправить

Необходимо убедиться, что одинаковый канонический URL задан для похожих по контенту страниц и релевантен им по содержанию.

Полезные ссылки


Отсутствующий или пустой файл robots.txt

Показывает индексируемые страницы, в хосте которых файл robots.txt отсутствует или пустой. Обратите внимание, что на разных хостах (поддоменах и протоколах http/https) могут быть разные файлы robots.txt.

Чем грозит

Файл robots.txt сообщает поисковым роботам, какие страницы и файлы на сайте можно и нельзя обрабатывать. Для поисковых систем важно наличие файла robots.txt на сайте: если он отсутствует, сканирование сайта может происходить неэффективно.

Обратите внимание, robots.txt действует для хоста, на котором находится. Потому, к примеру, файл, расположенный по адресу http://site.com/robots.txt, не влияет на сканирование https://site.com.

Как исправить

Необходимо добавить файл robots.txt с рекомендациями по сканированию в корень всех хостов сайта.

Полезные ссылки


Nofollow в Meta Robots

Показывает HTML-страницы, содержащие директивы «nofollow» или «none» в тегах <meta name="robots" /> или <meta name="[bot name]" /> в блоке <head>, где [bot name] — имя конкретного поискового бота.

Чем грозит

Директива nofollow в Meta Robots позволяет запретить поисковым роботам переходить по ссылкам на странице. В итоге такие документы не передают ссылочный вес другим страницам. Потому эту директиву стоит использовать только на страницах, где ссылки не важны: например, в личном кабинете или панели администратора на сайте.

Для HTML-страниц не рекомендуется одновременно использовать инструкции Meta Robots и X-Robots-Tag. Если по ошибке в этих настройках появятся разные директивы, важные страницы могут потерять трафик.

Чтобы обеспечить обязательное выполнение директив поисковыми роботами, не следует запрещать в robots.txt сканирование URL, для которых они заданы.

Как исправить

Необходимо убедиться, что атрибут nofollow действительно нужен на странице и не ограничивает распределение ссылочного веса по сайту.

Если для HTML-страниц одновременно используются директивы в Meta Robots и X-Robots-Tag, важно убедиться, что они совпадают, а ещё лучше — оставить только один из вариантов: метатег или HTTP-заголовок.

Полезные ссылки


Nofollow в X-Robots-Tag

Показывает HTML-страницы, содержащие директиву «nofollow» или «none» в поле X-Robots-Tag HTTP-заголовков ответа сервера.

Чем грозит

Директива «nofollow» в X-Robots-Tag позволяет запретить поисковым роботам переходить по ссылкам на странице. В итоге такие документы не передают ссылочный вес другим страницам. Потому эту инструкцию стоит использовать только на страницах, где ссылки не важны: например, в личном кабинете или панели администратора на сайте.

Для HTML-страниц не рекомендуется одновременно использовать инструкции Meta Robots и X-Robots-Tag. Если по ошибке в этих настройках появятся разные директивы, важные страницы могут потерять трафик.

Чтобы обеспечить обязательное выполнение директив поисковыми роботами, не следует запрещать в robots.txt сканирование URL, для которых они заданы.

Как исправить

Необходимо убедиться, что директива «nofollow» действительно нужна на странице и не ограничивает распределение ссылочного веса по сайту.

Если для HTML-страниц одновременно используются директивы в Meta Robots и X-Robots-Tag, важно убедиться, что они совпадают, а ещё лучше — оставить только один из вариантов: метатег или HTTP-заголовок.

Полезные ссылки


PageRank: отсутствуют связи

Показывает страницы, которые были определены алгоритмом расчёта внутреннего PageRank как недостижимые. Это страницы, на которые алгоритмом не было найдено ни одной входящей ссылки.

Такие ссылки могут возникнуть:

— при сканировании сайта с выключенным учётом инструкций по сканированию и индексации (robots.txt, canonical, refresh, X-Robots-Tag, Meta Robots и атрибут rel="nofollow" у ссылок) → обратите внимание, что при выключении учёта данных инструкций Netpeak Spider сканирует сайт уже не так, как это делают роботы поисковых систем, однако алгоритм PageRank всегда их учитывает, потому некоторые ссылки, полученные в результате сканирования, могут оказаться недостижимыми для него;

— при сканировании списка URL — ссылок, которые никак не связаны между собой.

Чем грозит

Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес).

Если на страницу не ведут ссылки с других страниц сайта, поисковая система может воспринимать её как неважную. Следовательно, она будет реже сканироваться, получать низкие позиции в поиске и приносить меньше трафика, чем могла бы.

Как исправить

Необходимо создать хотя бы 10 внутренних ссылок на важные страницы сайта. К примеру, можно включить их в HTML-карту сайта, разместить ссылки на них в блоках перелинковки на релевантных страницах или в тексте статей.

Полезные ссылки


PageRank: отсутствуют исходящие ссылки

Показывает адреса страниц, у которых после применения алгоритма расчёта внутреннего PageRank не были найдены исходящие ссылки. Это зачастую происходит, когда исходящие со страницы ссылки ещё не были просканированы.

Чем грозит

Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес).

Если на странице нет исходящих ссылок, или роботам запрещён переход по ним, она не сможет передать ссылочный вес. Чаще всего это происходит, когда страницы ещё не оптимизированы и генерируются автоматически по некачественным шаблонам.

В результате из-за таких тупиковых документов полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.

Как исправить

Рекомендуется дождаться окончания сканирования сайта, если оно было приостановлено. Если после завершения сканирования ошибка осталась, нужно перепроверить все URL, где она была обнаружена, и добавить исходящие внутренние ссылки на важные страницы сайта.

Также важно убедиться, что HTML-страницы являются полноценными страницами с контентом. Неполноценные и созданные по ошибке страницы нужно удалить (настроить 404 или 410 код ответа) и убрать с сайта все ссылки на них. Чтобы увидеть входящие ссылки на страницы без ссылок, достаточно нажать комбинацию клавиш Shift+F1.

Полезные ссылки


Макс. количество внутренних ссылок

Показывает страницы с более чем 100 исходящими внутренними ссылками (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес).

Если на странице слишком много исходящих ссылок, то она не так эффективно передаёт ссылочный вес важным страницам. В итоге полезные страницы могут получить меньше ссылочного веса, потерять позиции в поиске и, соответственно, трафик.

Тем не менее ограничений по количеству ссылок на странице нет. В некоторых случаях (для страниц верхнего уровня структуры сайта и для так называемых хабовых страниц) большое количество ссылок оправдано: например, на некоторых страницах Википедии их может быть больше 500.

При этом стоит учитывать, что когда на странице слишком много ссылок, пользователю будет сложнее воспринимать основной контент страницы.

Как исправить

Необходимо убедиться, что на конкретных страницах сайта большое количество внутренних ссылок оправдано.

Полезные ссылки


Макс. количество внешних ссылок

Показывает индексируемые страницы с более чем 10 исходящими внешними ссылками (по умолчанию). Мы установили значение 10 как среднее количество внешних ссылок на большинстве сайтов: около 5 ссылок на социальные сети плюс несколько внешних ссылок на другие сайты. Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Часто много спамных ссылок появляется в комментариях на странице: их оставляют оптимизаторы для манипуляции алгоритмами поиска. Также много ссылок на внешние ресурсы может появиться после взлома сайта: таким образом недоброжелатели перенаправляют пользователей на свой веб-ресурс.

Потому сайт стоит регулярно перепроверять на наличие нежелательных ссылок, что легко сделать с помощью данного отчёта.

Как исправить

Необходимо убедиться, что все ссылки на внешние ресурсы важны для пользователей сайта и не являются спамом.

Полезные ссылки


Внутренние nofollow ссылки

Показывает индексируемые страницы, содержащие исходящие внутренние ссылки с атрибутом rel="nofollow". Чтобы посмотреть специальный отчёт по этой ошибке, нажмите на кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

Внутренние ссылки — это самый эффективный метод показать поисковым системам относительную важность страниц сайта (ссылочный вес).

Атрибут rel="nofollow" позволяет запретить поисковым роботам переходить по определённым ссылкам на неважные страницы в целях экономии ресурсов сканирования. При этом если атрибут указан для ссылки на важную страницу, ей не будет передаваться ссылочный вес. В итоге полезные страницы могут потерять позиции в поиске и, соответственно, трафик.

Как исправить

Необходимо убедиться, что атрибут rel="nofollow" используется корректно и не ограничивает передачу ссылочного веса важным страницам.

Полезные ссылки


Внешние nofollow ссылки

Показывает индексируемые страницы, содержащие исходящие внешние ссылки с атрибутом rel="nofollow". Чтобы посмотреть специальный отчёт по этой ошибке, нажмите на кнопку «Отчёт по ошибке» над основной таблицей.

Чем грозит

Ссылки — это эффективный метод показать поисковым системам относительную важность страниц (ссылочный вес).

Атрибут rel="nofollow" рекомендуется использовать для ссылок на недостоверный контент на других ресурсах или для рекламных внешних ссылок, чтобы не передавать ссылочный вес таким страницам.

Как исправить

Необходимо проверить, для всех ли внешних ссылок из отчёта необходим атрибут rel="nofollow", и наоборот — у всех ли рекламных ссылок он установлен.

Rel="nofollow" стоит добавлять автоматически ко внешним ссылкам в UGC-секциях сайта (например, в комментариях).

Полезные ссылки


Неправильный формат тега Base

Показывает страницы, содержащие тег <base> с неправильным форматом.

Чем грозит

Неверная настройка тега <base> может привести к тому, что относительные ссылки на странице будут формироваться неправильно, из-за чего могут появиться битые ссылки.

Как исправить

Необходимо исправить ошибки в теге <base>: в атрибуте href этого тега должен быть абсолютный или относительный URL без ошибок.

Также в конце этого адреса должен быть слеш «/», иначе URL будет обработан как адрес файла, а не папки. А если на странице есть якорные ссылки или ссылки на URL с GET-параметрами (URL вида #link или ?query=link), то для них нужно использовать абсолютные адреса.

Рекомендуется вообще не использовать тег <base>. Он полезен в редких случаях, но может привести к появлению битых ссылок и растрате краулингового бюджета.

Полезные ссылки


Макс. длина URL

Показывает страницы, у которых длина URL более 2000 символов (по умолчанию). Обратите внимание, что вы можете поменять значение по умолчанию на вкладке «Ограничения» в настройках сканирования.

Чем грозит

Некоторые браузеры и серверы могут не обрабатывать URL длиннее 2000 символов.

Как исправить

Необходимо все URL на сайте сделать короче 2000 символов.

Оптимальная длина URL для важных страниц — до 100 символов. В таком случае они куда легче воспринимаются пользователями.

Полезные ссылки

Выберите файлы или перетащите файлы
Была ли эта статья Вам полезна?
Да
Нет