Как работают поисковые системы
ZVERсистемы – Руководство по SEO для начинающих: Глава 1
Сегодня мы начинаем публикацию руководства по SEO. Оно созданоодним из самых авторитетных блогов оSEO — Moz.com. Первое, что нам предстоит сделать – это разобраться, как работают поисковые системы. Вы не сможете повлиять на позиции сайта, если не будете понимать, по какому принципу поисковые системы ранжируют результаты поиска.
Итак, что необходимо знать о поисковых системах SEO-оптимизатору?
Поисковые системы выполняют две основные функции:
- Сканируют и индексируют миллионов документов, страниц и мультимедийных файлов.
- Предоставляют ответы на запросы пользователей в виде списка страниц, расположенных в порядке убывания их релевантности.
Остановимся на каждой из этих функций подробнее.
1. Сканирование и индексация страниц
Представьте, что Интернет – это сеть станций метро крупного мегаполиса.
Каждая станция – это отдельный документ (чаще всего веб-страница, но иногда файл PDF, JPG или другого формата). В качестве путеводителя поисковые системы используют ссылки, которые помогают им объехать весь город и посетить каждую станцию.
Ссылочная структура Интернета необходима для объединения всех страниц в единое целое.
Ссылки помогают поисковым роботам, которых также называют пауками или краулерами, находить миллионы взаимосвязанных документов. Когда поисковые роботы обнаруживают очередную страницу, они расшифровывают ее код и сохраняют на жестких дисках. Впоследствии, когда в этом возникает потребность, они возвращаются за этими данными, чтобы дать ответ на запрос пользователя.
Чтобы хранить миллиарды страниц и получать к ним моментальный доступ, поисковые системы используют дата-центры по всему миру. В этих гигантских хранилищах находятся тысячи машин, которые обрабатывают огромное количество информации. Ведь пользователи, которые ищут какую-либо информацию, не любят ждать. Порой даже задержка на 1 или 2 секунды вызывает у них недовольство. Именно поэтому поисковые системы не перестают совершенствоваться и стремятся выдавать результаты как можно быстрее.
2. Предоставление ответов
Поисковые системы – это своего рода машины ответов. Когда человек вводит какой-либо запрос, поисковым системам необходимо «перелопатить» миллиарды документов и сделать две вещи: дать пользователю подходящие ответы и расположить их в порядке уменьшения релевантности. Задача SEO – повлиять на релевантность и значимость этих страниц.
Под релевантностью поисковые системы подразумевают не только наличие на странице ключевых фраз, соответствующих запросу пользователя. Этот подход практиковался еще на рассвете Интернета, когда результаты поисковой выдачи оставляли желать лучшего. По мере развития поисковые системы разработали множество более эффективных способов предоставления ценных результатов, которые соответствуют ожиданиям пользователей и полностью удовлетворяют их запросы. На релевантность влияют сотни факторов, многие из которых детально рассмотрены в этом руководстве.
Как поисковые системы оценивают значимость страниц?
В настоящее время поисковые системы подразумевают под значимостью популярность страниц. Чем больше пользователей посещает сайт, страницу или документ, тем значимей он в глазах поисковых систем. Такой подход полностью оправдал себя на практике, поэтому поисковые системы продолжают использовать метрики для измерения популярности сайтов.
Популярность и релевантность определяется не вручную, а при помощи специальных алгоритмов, которые отсеивают неподходящие результаты, а затем располагают оставшиеся ответы в порядке их значимости. Эти алгоритмы включают в себя сотни компонентов, которые называются факторами ранжирования.
Как преуспеть в SEO?
На первый взгляд может показаться, что сложные поисковые алгоритмы просто невозможно постичь. Но на самом деле даже сами поисковые системы дают советы по поисковой оптимизации. Вот что рекомендует Google для повышения позиций сайта.
Рекомендации Google для веб-мастеров:
- Создавайте сайты для пользователей, а не для поисковых систем. Не обманывайте посетителей и не используйте разные формы выдачи информации для пользователей и для поисковиков (этот черный метод оптимизации называется клоакинг).
- Создавайте страницы с текстовыми ссылками и с четкой иерархической структурой. На каждую страницу должна вести как минимум одна статическая текстовая ссылка.
- Создавайте полезные и информативные сайты. Пропишите элементы <title> и значения атрибута ALT.
- Создавайте читабельные URL. Используйте 301 редирект или тег rel=“canonical” для дублированного контента.
С рекомендациями по оптимизации сайта от Яндекса вы можете ознакомиться по этой ссылке.
Вы должны понимать, что рекомендации поисковых систем – лишь верхушка айсберга и что существует множество других факторов ранжирования и методов поисковой оптимизации сайтов.
Не нужно бояться SEO!
За более чем 15 лет существования Интернет-поиска Интернет-маркетологи нашли способы получать информацию о том, как поисковые системы оценивают релевантность сайтов. SEO-оптимизаторы успешно применяют эти знания на практике.
Проведем эксперимент
Одно из главных преимуществ, которым обладают веб-мастера, изучающие принципы работы поисковых систем, — это свобода использования Интернета и возможность проводить эксперименты. Большую часть знаний о работе поисковых систем оптимизаторы получили именно таким способом.
Итак, чтобы проверить на практике какую-либо теорию, проведите эксперимент:
- Создайте сайт с несуществующими ключевыми словами.
- Добавьте на сайт несколько страниц с одинаковыми (опять-таки несуществующими) ключевыми словами.
- Сделайте эти страницы одинаковыми. Единственное их различие должно заключаться в оформлении ключевых слов, их расположении, плотности и других параметрах.
- Добавьте ссылки на созданный сайт с другого проиндексированного сайта.
- Определите позиции разных страниц по ключевым запросам.
- Внесите изменения в страницы и проследите, как они отразятся на выдаче.
- Запомните, какие изменения оказались эффективными, а затем протестируйте их на других страницах. Если ваша теория сработала для нескольких страниц, значит, вы нашли еще один способ оптимизации.
Следуя этой схеме, сотрудники компании Moz провели эксперимент для проверки теории о том, что ссылки, которые встречаются на странице первыми, имеют наибольший вес. Для этого они создали страницу с тремя ссылками, ведущими на три разные страницы. В качестве анкора было взято несуществующее слово, которое упоминалось по одному разу на каждой из трех страниц. Первой в выдаче оказалась та страница, на которую вела первая ссылка. Таким образом, теория была подтверждена.
Подобные эксперименты – не единственный способ изучения принципов работы поисковых алгоритмов.
Еще один источник информации о поисковых системах – бюро по регистрации патентов США. Пожалуй, один из самых известных документов, зарегистрированных в этом бюро – патент #6285999, который носит название «Метод ранжирования сайтов во взаимосвязанных базах данных». Оригинальный документ по этой теме — Анатомия крупномасштабного гипертекстуального веб-поиска также представляет немалую ценность для оптимизаторов.
Поисковые алгоритмы могут показаться на первый взгляд очень сложными. Однако, чтобы заниматься SEO, вам вовсе не обязательно быть математиком. Оптимизация сайта не требует сложных вычислений.
Изучая патенты, проводя эксперименты и тестируя различные идеи, Интернет-маркетологи изучают основные принципы ранжирования страниц, а также определяют, какие элементы сайтов влияют на их позиции в поисковой выдаче.
@projectzver