8 коммент.

На данный момент нет никаких доказательств, свидетельствующих о существовании каких-либо фильтров Google. Все данные основаны на опыте и предположениях многих ведущих оптимизаторов.

Самым основным фильтром Гугла является так называемая «Песочница» (песок, Sandbox), он применяется преимущественно к новым сайтам. Сайты, попавшие в песочницу, очень долгое время не могут получить место в выдаче поисковика по конкурентным запросам,  но если молодой сайт оптимизирован под низкочастотники, этот фильтр может не применяться вообще.

Признаки того, что ваш сайт в «Песочнице»:

  • Сайт регулярно посещается ботом Гугла и находится в индексе
  • В поиске по домену (site:www.domain-name.com) вы видите правильные страницы с правильными тайтлами
  • Сайт на хороших позициях в выдаче по НЧ, но не находится на первых 10 страницах по тем ВЧ, под которые оптимизировался

Примерных способов выйти из песочницы несколько, однако ни один из них не дает стопроцентной гарантии:

  • получить на сайт внешние ссылки с авторитетных ресурсов, имеющих высокий  PR и Google Trust Rank (степень доверия поисковика сайту – зависит от возраста домена, срока регистрации, внешних ссылок и многих других факторов)
  • оптимизировать сайт под низкочастотники, соответствующие тематике сайта, либо продолжать работу с высокочастотниками, но для выхода сайта в выдачу понадобится, в среднем, от нескольких месяцев.
  • постоянно добавлять на сайт уникальный и оптимизированный контент

Последние эксперименты сеошников показывают, что в настоящее время даже новые сайты при правильной оптимизации могут попасть в выдачу по высокочастотникам. Это явление может свидетельствовать об отмене фильтра, либо об изменении алгоритма его работы.

Фильтр «Бомбежка» (Google Bombing) применяется к сайтам, которые имеют подозрительно большое количество внешних ссылок с одинаковыми анкорами. Это воспринимается, как автоматический обмен ссылками. Наказанием может стать не только запрет индексирования, но и бан в поисковике. Поскольку изменить анкоры ссылок на других сайтах вебмастеру будет крайне тяжело, вместо того, чтобы выходить из-под такого фильтра, проще его избежать. Поисковик должен видеть, что ссылки на сайт размещались органически, тогда никаких проблем с выдачей возникнуть не должно.

Фильтр Google -30 применяется к сайтам, которые подозреваются в использовании черных способов оптимизации (дорвеи, клоакинг, спам). Санкция: сайт опускается в выдаче на 30 позиций. Выход прост – избавиться от всех видов нечестной оптимизации на сайте и отправить поисковику запрос на повторное индексирование.

Фильтр «Боулинг» (Google Bowling), цель которого – находить сайты, использующие черную оптимизацию против своих конкурентов. Например, сайты, вебмастера которых размещают большое количество купленных некачественных ссылок на конкурирующий сайт, либо ведут спам-рассылку «от имени» этого сайта. Хотя алгоритм выявления сайтов, использующих подобные Black Hat приемы, до сих пор не понятен, наказание за такую деятельность – полное исключение сайта из индекса.

Фильтр сайтов с неуникальным контентом (Google Duplicate Content Filter). Гугл очень негативно относится к сайтам, ворующим чужой контент, при этом механизм определения таких сайтов не всегда срабатывает правильно, например, если  одинаковый контент был найден на двух сайтах, то, чаще всего, наказан будет тот ресурс, авторитет которого ниже. Сайт-виновник может быть вообще исключен из выдачи, либо представлен в дополнительных  или  в опущенных результатах. Для того, чтобы возвратиться в индекс Гугла, необходимо заменить весь контент на сайте на полностью уникальный, причем делать это нужно постепенно, добавляя на сайт по несколько страниц в день. Далее необходимо разместить качественные ссылки на новые страницы со страниц с высоким PR. После замены содержимого нужно будет подать запрос на повторное индексирование сайта поисковиком.

Фильтр слишком быстрого увеличения контента сайта (Too many pages at once Filter) – применяется к сайтам, которые резко увеличивают количество страниц, например на сотню в день. Такие события расцениваются Гуглом, как автоматическая генерация страниц каким-нибудь скриптом, и приводят к бану сайта. Если вы используете подобные скрипты, поставьте им ограничения, например на тысячу страниц в месяц. Выход – начать все сначала, добавляя на сайт небольшое количество контента, наращивая ссылочную массу страниц (и отправив запрос на повторное индексирование).

Фильтр «битых ссылок» (Broken Links) применяется к страницам на сайте, которые плохо перелинкованы с другими. Фильтр всего лишь означает, что если пользователь сайта не может найти эту страницу, то и в индексе она не появится. Выход – хорошая внутренняя перелинковка сайта, внешние ссылки на разные страницы сайта, грамотно построенная навигация и карта сайта.

Фильтр переоптимизированных страниц (Over Optimization Filter) применяется, как правило, к сайтам, чрезмерно использующим в текстах теги (strong, h1-h6). Чтобы выйти из-под этого фильтра, грамотно оптимизируйте контент сайта

Фильтр возраста доменов (Google Domain Age Filter). Этот фильтр может стать причиной попадания сайта в песочницу – Гугл проверяет возраст домена и очень часто, хотя и не всегда, отправляет новые сайты в песок.  Для борьбы с этим фильтром необходимы качественные ссылки с большим весом, ведущие на ваш сайт с авторитетных ресурсов сети.

Фильтр взаимных ссылок (Reciprocal Link Filter) применяется к сайтам, которые занимаются встречным обменом ссылок.

Фильтры Google и выход из-под них

Как правило, выход прост: использование схем, когда сайт размещает ссылку на второй, второй на третий, а третий на первый (участников обмена может быть больше).

Такие схемы называются «треугольниками» или «квадратами».

Если Гугл выявляет большое количество ссылок (особенно взаимных) на одном сайте, то этот сайт может быть забанен за создание линкопомойки. Фильтр линкопомоек (Link Farming Filter) может надолго исключить ваш сайт из выдачи, поэтому, во избежание наказания, не забивайте свой сайт ссылками.

Фильтр времени загрузки страниц (Page Load Time Filter) исключает из индекса те страницы, которые не успели загрузиться в положенное время. Чтобы выйти из-под этого фильтра, постарайтесь максимально уменьшить вес страниц (не более 100 Кб) и хорошо оптимизировать контент. Для того, чтобы эти страницы были проиндексированы повторно, разместите ссылки на них на страницах авторитетных и часто обновляемых ресурсах.

В заключение можно сказать, что только грамотная и органическая оптимизация позволит сайту избежать попадания в какой-либо из фильтров. Общим способом выхода из всех фильтров является исправление всех ошибок оптимизации, а также повторное индексирование страниц сайта и добавление их в выдачу. Для того, чтобы повлиять на индексирование, вебмастер должен направить поисковику запрос на повторное включение сайта в индекс, также не лишним будет размещение ссылок с авторитетных ресурсов на страницы вашего сайта.