Клоакинг: за и против.

Клоакинг – не только одна из самых эффективных, но и одна из самых спорных технологий в поисковой оптимизации. Суть метода заключается в том, что разным пользователям выдаются различные варианты одной и той же страницы. На практике это обычно означает, что одна версия предназначена для рядовых посетителей, а другая (или другие) оптимизированы под поисковые системы. Этот механизм считается незаконным, но возможно и легальное применение.

На практике привлекательные для человеческого восприятия страницы – с обилием графики, таблицами, фреймами, flash-вставками и сценариями JavaScript – не являются таковыми для роботов поисковых систем, оценивающих только текстовое наполнение. А страница «во вкусе» поисковиков большинству пользователей покажется непрофессиональной.

Поэтому нет ничего странного, что оптимизаторы научились определять, кто обращается к странице, чтобы выдать соответствующий вариант. Роботы видят максимально релевантную страницу, причем, зачастую существует несколько версий, так как принципы ранжирования у поисковых систем могут быть различными, а пользователь наслаждается всеми достижениями сайтостроения, одновременно получая нужную информацию.

Все, казалось бы, довольны. Если только «служебная» страница оптимизированы по тем ключевым словам, которые соответствуют тематике сайта. Но во многих случаях этот механизм используется грубо; например, страница Интернет-магазина, торгующего дисками, может занимать первые позиции по запросу «mp3 скачать». Ничего, кроме раздражения, такой результат поиска, у пользователя не вызывает. В лучшем случае он меняет запрос, в худшем – поисковик.

Методов определения роботов существует два, оба имеют достоинства и недостатки.

Определение User-Agent.

User-Agent – это часть http-запроса, сообщающая серверу характеристики клиентского приложения, осуществляющего этот запрос, то есть название и версию браузера, имя операционной системы компьютера, язык и некоторые другие сведения. Собственное значение User-Agent имеет не только каждый браузер, но и поисковый робот.

Специальный скрипт сверяет значение этого параметра и, если находит его в своем списке, выдает соответствующую версию страницы для индексирования. Если не находит – показывает «пользовательскую» версию. Значение User-Agent не меняется со временем и базы их находятся в открытом доступе. Но есть возможность изменить этот параметр по своему усмотрению внесением соответствующих изменений в настройки браузера. Для рядового посетителя это не имеет особенного смысла, а вот конкурент сможет посмотреть ваш код. Сможет это и модератор поискового ресурса, если войдет на сайт при помощи обычного браузера.

Определение IP-адреса.

Принцип тот же, что и при определении User-Agent, но IP практически невозможно подделать. Кроме того, можно узнать не только адреса самих роботов, но и весь «корпоративный диапазон». Таким образом, даже рядовой сотрудник поисковой системы, увидит оптимизированный вариант страницы. Впрочем, и это можно обойти, если воспользоваться прокси-сервером из другого диапазона адресов.

Есть и другой недостаток. Нужно иметь большую базу IP-адресов, которую необходимо периодически обновлять, а это дорогостоящее удовольствие. Тем не менее, чаще всего используется именно этот метод или комбинирование двух методов.

Использование клоакинга в поисковой оптимизации требует не только денежных, но и временных затрат, постоянного внимания к обновлениям базы, правильности работы скрипта и пр. Поэтому оно имеет смысл, только если нужно пробиться на первые позиции по очень популярным запросам. Если цель – просто привлечь клиентов на сайт, привлечение других технологий может быть экономически более обосновано.

Клоакинг служит не только для обмана поисковых роботов. При помощи этого механизма можно:

* скрыть оптимизированный код от конкурентов;

* выдать пользователю страницу на том языке, который установлен в настройках его браузера;

* выдать версию страницы с учетом используемого клиентом браузера.

* оптимизировать flash-сайт.

Используя данную технологию, нужно учитывать, что поисковая система может исключить сайт из индекса при попытке обмануть ее робот. Но если применения клоакинга направлено на защиту интересов пользователя, страницу, скорее всего не забанят.