Энциклопедия SEO

Фильтры


Зачем поисковики используют фильтры?

Первая задача поисковика обеспечить пользователя качественной информацией по запросу. Естественно, сайты, которые находятся в базе данных поисковика, не могут отбираться вручную, ведь количество Интернет-ресурсов увеличивается с очень большой скоростью.

Программа сама находит новые сайты, пополняет информацию о старых сайтах, и соответственно сама, без участия человека, ранжирует результаты выдачи. Чтобы выдать пользователю самые интересные, обновляемые и популярные сайты, были созданы специальные фильтры.

Они не пропускают к выдаче сайты с некачественным или неуникальным контентом. А также сайты, возраст которых меньше 3-х месяцев, считая, что любой сайт сначала должен получить доверие пользователей.

Поисковик всеми способами пытается при ранжировании сайтов прислушаться к мнению пользователей интернета - он учитывает количество ссылок, которые идут на тот или иной ресурс. В связи с этим, были созданы фильтры, которые не пропускают сайты повышающих количество ссылок на себя искусственно, т.е. за деньги или используя сеть, ссылающихся друг на друга сайтов.

Признакам искусственного наращивания ссылок для поисковика является одинаковые анкоры ссылок или ссылки с не тематических сайтов. Для веб-мастеров, у которых сайты попадают под фильтр, фильтры создают массу проблем в работе.

Но с другой стороны, невозможно представить, какого качества было бы большинство Интернет-ресурсов, если бы фильтры не давали веб- мастерам стимул создавать уникальные интересные посетителям сайты.

Как избежать фильтров в поисковиках?

Если у вас есть намерение видеть свой сайт в результате запросов в поисковых системах, то, создавая и развивая его, надо учитывать основные правила, которые помогут избежать попадания вашего сайта под фильтры поисковиков.

Поисковики часто мало реагируют на новые сайты. Как работает этот алгоритм в поисковиках неизвестно, но чтобы ваш сайт участвовал в поиске можно использовать несколько приемов.

Во-первых, ежедневно обновлять содержимое сайта, во-вторых установить несколько ссылок на ваш сайт с проверенных сайтов, занимающих высокие места в выдаче при поиске. Если у вас на сайте преобладает не оригинальная, а дублированная информация, то фильтры тоже могут вас поймать. Поэтому размещайте больше оригинального контента, а если кто-то его заимствует у вас, то попробуйте определить и обратитесь к администрации поисковиков и хостеров плагиаторов.

Если на вашем сайте много ссылок, установленных на одинаковый текст (анкор), то вы сразу можете попасть в "бан" и вам придется писать письма в администрацию. Не стоит заниматься и обменом ссылками, который все равно не очень эффективен.

Вам стоит проверять и сайты, на которые у вас установлены ссылки. Фильтры не любят большое число неработающих ссылок. Не следует допускать и чрезмерное насыщение контента ключевыми словами. Это может сыграть против Вас.

Фильтры способны оценить такие сайты и не брать их в расчет при поиске. При работе с ссылками надо быть очень аккуратным. Фильтры отслеживают "цепочки" ссылок и если она приводит к файлу с порнографией или еще чем-то запрещенным, то ваш сайт может пострадать.

Если на ваш сайт появляются ссылки в очень больших количествах за короткие отрезки времени, то это тоже могут отследить фильтры поисковых систем. И хочется подвести итог, если вы не используете запрещенные технологии, ежедневно обновляете сайт, используете оригинальный дизайн, употребляете в меру "ключевики", то никакие "фильтры" вам не страшны.

Как "вытащить" сайт из под фильтра?

Часто владельцы сайтов и их вебмастера замечают, что их ресурс постепенно пропадает из индекса поисковиков. Это, скорее всего, признак попадания сайта под фильтр. Что такое фильтр поисковика и как вывести из-под него сайт - разберем далее.

Фильтр сайтов применяется поисковыми машинами для ограничения индексирования ресурсов, контент или способ продвижения которых по определенным причинам не вызывает у них доверия. Каждый поисковик владеет собственным набором фильтров.

У Google это фильтры "Песочница" (sandbox), "Дополнительные результаты", Bombing, Bowling, "Возраст домена", "Дублирующийся контент", "-30 (40,50)", "Опущенные результаты", "Социтирование", "Links", "Много ссылок сразу", "Чрезмерная оптимизация", "Битые ссылки", "Степень доверия".

У Яндекса известными являются "АГС"(и его модификации), "Непот", "Редирект", "Плотности ключевых слов", "Ты последний". При этом можно предположить, что практически все технологии фильтров используются в какой-либо форме каждым поисковиком.

Для каждого фильтра существуют свои методы обнаружения и борьбы. Общими правилами выхода из-под фильтров являются:
- активная заполняемость сайта контентом с высокой степенью уникальности;
- частые обновления сайта (желательно - раз в сутки, для гарантированного выхода из-под фильтров - несколько раз в сутки);
- размещение на ресурсе приобретенных на трастовых сайтах ссылок;
- переписка с службой поддержки поисковика с помощью панели вебмастера по поводу возникновения проблем и оперативное их устранение.


1 минутное видео
о продвижении сайтов