Программирование и создание сайтов в Москве
+7 (3362) 54-14-75
ГлавнаяНовости интернетПоисковая оптимизация − Как развивались поисковые системы. Принцип их работы

Как развивались поисковые системы. Принцип их работы

01.03.2011

Когда интернет только появился, в нем хранилось не так уж много информации, соответственно и пользователей интернета было мало. Изначально интернет был разработан для хранения научных данных и материалов, поэтому и пользовались им в основном ученые.

Естественно, проблема продвижения сайтов тогда ни перед кем не стояла, так и проблема, как скачать angry birds для android. Имелись тематические каталоги, которые и направляли пользователя к нужной информации. Впервые распределением сайтов по темам занялся Yahoo еще в 1994 году. Однако количество сайтов увеличивалось с геометрической прогрессией, вследствие этого появилась потребность в поиске по каталогу, созданному для этой цели.

Но поиск по каталогу, конечно, не будет являться полноценной поисковой системой, так как в этом случае зона поиска ограничивается сайтами, занесенными в список, при этом остальные сайты оставались неохваченными.

На данный момент каталоги и вовсе утратили свою популярность. Причина все в том же – если сравнить наиболее крупный каталог сети интернет, DMOZ и базу поисковика Google, то выяснится, что последний может предоставить информацию по 10 миллиардам сайтов, а DMOZ – всего о 5 миллионах.

Опять же в 1994 году появился и первый поисковик. Им стал WebCrawler. Затем, где-то через год, конкуренцию ему составили Lycos и AltaVista. WebCrawler в ближайшие несколько лет сохранял лидерские позиции в области поиска данных по интернету.

поисковые системы

Крупнейшую и наиболее популярную современную поисковую систему Google создали Сергей Брин и Ларри Пейдж, студенты Стэнфордского университета на три года позже, в 1997 году. В это же время в рунете появился Yandex, который и по сей день является лидером в сфере русскоязычных поисковиков. С этого периода становится актуальным вопрос оптимизации сайтов под определенные поисковики. На данный момент оптимизация сайтов уже представляет собой отдельное направление бизнеса.

У каждой поисковой системы есть собственные механизмы осуществления поиска информации и процесса выдачи результатов поиска. Однако общие принципы действия у них одинаковы.

«Паук» - это специальная программа, в автоматическом режиме скачивающая содержание сайта. Работу «паука» можно сравнить с принципом действия браузера, только «паук» не сможет отобразить найденную информацию, так как он связывается сразу с html-кодом каждой страницы.

«Краулер» - это в целом тоже программа-паук, которая, кроме того, еще и определяет все ссылки, которые представлены на странице сайта и ищет новые документы непосредственно по ним. Именно «краулер» будет решать, где «паук» будет загружать данные.

«Индексатор» начнет действовать уже после работы первых двух программ. Он выделит в загруженной странице блоки и проанализирует их. Анализу будут подвергнуты тэги html-кода, текст страницы, его структура и стиль.

Все три программы могут быть объединены в одну, но последовательность и принцип действия от этого не изменится.
После завершения анализа страницы, она поступит в базу данных поисковика.

После этого контролировать страницы будет система ранжирования и предоставления результатов поиска. Эта программа будет в частности решать, насколько важна та или другая страница. Алгоритм ранжирования определяется администрацией поисковика, с тем, чтобы удовлетворить наибольшее число пользователей. Функцией оптимизатора как раз и будет являться «преподнесение» страниц интернет-сайта программе ранжирования в наиболее выгодном свете.