Хостовые факторы
@traffic_leadIP-адрес
IP-адрес сайта – это уникальный сетевой адрес в компьютерной сети. Каждое доменное имя имеет IP-адрес.
IP-адрес может быть публичным или выделенным. На публичном IP располагается большое количество доменных имен. На выделенном IP располагается один интернет ресурс.
Все популярные хостинги по умолчанию используют публичные IP-адреса.
- Определить IP адрес сайта (командная строка, https://2ip.ru/lookup/, sitereport.ru)
- Проверить IP адрес на публичность (Bing.com)
Использования публичного IP-адреса влечет за собой несколько опасностей:
- Важно! Сайты в одной тематике и с одинаковым IP имеют меньше шансов попасть в ТОП-10 поисковых систем. Очень редко, когда в ТОП-10 находится несколько сайтов с одинаковым IP-адресом.
- “Черные” SEO-оптимизаторы, могут создать клон сайта и добиться аффилирования не в вашу пользу.
Публичный IP имеет большую вероятность попадания в Спам-базу
- Определить региональность IP (http://ru.smart-ip.net/geoip , http://ip2geolocation.com/ )
Нет прямых оснований полагать, что Региональность IP влияет на продвижение сайта, но есть большая вероятность, что сайты с Зарубежными IP адресами при равных условиях будут занимать более низкие позиции
1. Проверка корректности использования редиректов
Информация по кодам ответа сервера http://www.bertal.ru/help.php?ex=1
Проверка кода ответа сервера:
https://webmaster.yandex.ru/tools/server-response/
Ошибки при использовании редиректов могут привести к потере статического веса, смене входных страниц и даже выпадению сайта из индекса.
- Любой многошаговый редирект – ошибка
- Использование неверного типа редиректов – ошибка
- Внедрение внутренних редиректов без смены ссылок на новые адреса – ошибка
- Постановка редиректов между страницами с разным контентом – может быть ошибкой
- Использование редиректа вместо rel=canonical
- Редирект, конечной точкой которого является не 200-я страница
- Использование редиректов для отличающихся страниц
- Использование любых редиректов для robots.txt
- Использование редиректов на внешние сайты по внутренним ссылкам
2. Проверка корректности использования 4** ошибок
Наличие 404 ошибок может приводить к потере денег, снижению лояльности пользователей, выпадения части сайта из индекса и потерь статического веса.
- Страница не существует, но используется не 404 ошибка
- Страница существует, но используется 404 ошибка
- Страница должна быть удалена из индекса, но используется 404 вместо 410
- Страница поменяла адрес, но не поставлен редирект
3. Анализ 404 страницы
404 страница должна быть корректно оформлена, это позволит минимизировать потери трафика
- Страница должна иметь шаблон в дизайне сайта
- Страница должна давать возможность пользователю вернуться назад
- Страница должна давать возможность пользователю посетить важные разделы
- Страница должна отдавать код ответа 404
Рекомендации Яндекс
https://yandex.ru/support/metrika/stand-out/informative-page-404.xml
https://yandex.ru/404 - как сделано у Yandex
https://www.google.ru/404 - как сделано у Google
4. Исправление ошибок
Для того, чтобы исправить ошибки, необходимо их найти. В рамках большого сайта эту задачу невозможно решить без инструментов автоматизации.
- Поиск страниц с кодами ответа 3**
- Поиск ссылок на редиректы
- Поиск страниц с кодами ответа 4**
- Поиск ссылок на 404 страницы
- Сервисы, построенные на краулере, которые определяют откуда какая куда ссылка: СайтРепорт, PageWeight, Xenu
СайтРепорт – Вкладка «Загрузка»
5. Анализ сайта на отказоустойчивость
Если не обеспечить сайту достаточные мощности, то с приходом трафика начнутся отключения сайта, пользователи будут получать информацию об ошибке.
6. Анализ скорости загрузки страниц
Скорость загрузки страниц влияет на конверсию и ранжирование. Воздействуя на код страницы, мощности и настройки сервера и CMS, необходимо увеличивать скорость загрузки страниц. Для измерения скорости существуют сервисы:
- https://chrome.google.com/webstore/search-apps/pagespeed
- https://developers.google.com/speed/pagespeed/insights/
Увеличение скорости загрузки сайта - https://www.youtube.com/watch?v=wsgEWTEseDc
7. Анализ размеров страниц
Анализ крайних значений размеров страниц позволяет обнаружить неочевидные ошибки, например страницы с очень маленьким весом могут создаваться из-за ошибок CMS.
- анализ крайних значений по типам страниц и разделам сайта
Screaming Frog -> Internal -> Size
СайтРепорт -> Загрузка ->Размер(кб)
8. Анализ логов сайта, поиск страниц, которые не посещал робот:
Анализ логов позволяет понять, какие страницы посещал робот. Это важно, например, при работе над индексацией страниц. Бывает так, что страница посещается роботом, но в индекс не попадает.
- По User-Agent можно узнать, какая ПС заходила
- В логах хранятся запросы
- Дата посещения
- URL страницы
- Код ответа
- Сервисы для анализа логов: Awstats, WebAlizer, Analog, Logalyzer