фев 12 2013
Эволюция поисковых систем
Используя интернет-поиск, мало кто задумывается о процессах, происходящих в этом очень сложном приложении. Сравнительно недавно самые известные поисковые системы Яндекс и Google улучшили алгоритмы своей работы. Данные интернет-сервисы представляют собой набор баз данных, которыми оперирует искусственный интеллект, причем алгоритм поиска постоянно совершенствуется.
С приходом интернета в широкие массы, поисковые системы стали главным инструментом продвижения бизнеса в сети. А познание алгоритмов работы поисковых гигантов – стало, пожалуй, самым желанным знанием всех без исключения оптимизаторов и веб-мастеров. Завладев им, можно вывести свой сайт в ТОП поисковой выдачи, «подвинуть» конкурентов с прибыльных мест, сделать из своей небольшой организации огромный холдинг.
Пальму первенства в российском сегменте прочно занимает национальный поисковой гигант – Яндекс (51%). Затем идет международный крупнейший сервис – Google (35%). Оставшиеся 14% приходятся на все остальные поисковые системы – Mail.ru и Rambler. Кроме того, именно на Яндекс и Google ориентируются SEO-специалисты при оптимизации и раскрутке проектов.
Долгое время, справедлив был постулат о том, что ссылки, проставленные на сайт – являются главным инструментом его высокого ранжирования в поисковой выдаче. Следовательно, кто закупил больше качественных ссылок – тот и снимает сливки. Однако, осенью 2012 года разработчики поисковиков запустили в действие очередные связки фильтров, дабы разрушить порочные ссылочные связи и начать очередную гонку обратных ссылок. Хорошо раскрученные ресурсы стали стремительно терять позиции, особенно это было заметно у сайтов некоторых крупных SEO-организаций (например, bdbd.ru), и страниц их клиентов. Это означает, что если вы лидировали по запросу "получить разрешение на строительство дома" при помощи различных накруток SEO показателей, то после введения новых поисковых настроек, ваш проект мог остаться ни с чем!
Зачем это нужно поисковикам? Все очень просто: поисковые сервисы делаю все, чтобы клиенты SEO-организаций, после мучительных попыток все же заказали у них платную рекламу. Ведь у поисковых систем разработаны свои модули контекстной рекламы: у Яндекса такой сервис называется «Директ», а у Google – «Adwords». Клиент платит деньги – поисковики рекламируют его сайт по выбранному им запросу, что очень выгодно поисковикам, ведь в этом случае, клиент платит не SEO-конторам, а им. Конечно, поисковики хотят, чтобы выдача была «чистой», без неинтересных говносайтов, попавших в ТОП поисковой выдачи благодаря хитростям оптимизаторов. Если пользователей будет устраивать выдача, то доля поисковика в русскоязычном сегменте возрастет, а вместе с этим и возрастет прибыль от рекламы.
Каким же образом поисковикам удается проверять миллиарды страниц и ранжировать огромное количество сайтов, причем без существенных ошибок? Работа системы построена следующим образом: поисковые роботы собирают различную информацию (текст, изображения, видео и т.д.) и заносят ее в общую базу данных. После того, как пользователь вводит поисковой запрос, поисковик ищет совпадения в базе и пропускает полученные значения через фильтры. Если при сканировании определенной страницы робот насчитает слишком большое количество ключевых слов, то такая страница будет зафильтрована и, скажем, вместо первого места в поисковой выдаче по конкретному запросу она попадет на второе.
Бывает, что определенные сайты теряют свой вес еще до расчета релевантности: к этому может привести большой ссылочный взрыв или другие SEO-накрутки. Такой сайт попадает под постоянное действие фильтра и санкции не будут отменены, пока веб-мастер не исправит ситуацию. Этот процесс может затянуться на значительный промежуток времени, и иногда, проще создать новый проект, чем выводить из-под фильтра старый.