Фильтры Google и как их избежать.

дата: 10 марта, 2009 автор: Категория: СЕО 
Метки: ,

Фактических доказательств существования этих фильтров нет, но так как в релизах Googla есть упоминание о них то они скорее всего используются в алгоритмах. Возможно многие из вас уже с ними сталкивались, сейчас мы их рассмотрим и представим несколько простых советов как их избежать.

Первый и наверное самый всем известный фильтр это:
Песочница (Sandbox): Действие этого фильтра распространяется в основном на новые сайты\домены, хотя есть случаино были замечены случаи его воздействия и на сайты имеющие приличный возраст. Работа фильтра основана на том что новые сайты обычно в первый год своего появления редко становятся большими и интересными проектами, либо существуют всего год так и не развившись, поэтому Google придумал фильтр, который просто не позволяет молодым сайтам находится на хороших позициях в выдаче по конкурентным запросам.

Как избежать песочницы (Sandbox): Для ранжирования сайтов Google использует показатель trust rank определяющий авторитетность сайта. Примерный принцип показателя такой: если на ваш новый молодой сайт вдруг стоят ссылки с авторитетных сайтов, это прибавляет авторитетности вашему сайту чем больше таких ссылок соответственно выше ваш авторитет (trust rank). Следовательно чтобы вылезти из песочницы вам нужно получить ссылки с авторитетных сайтов, как правило это почти сразу выводит сайт из песочницы. Если вам ничего не помогает и вы не можете выйти в топ по конкурентным запросам, остается увеличивать количество контента, делать перелинковку и вылазить по крайней мере по малоконкурентным низкочастотным запросам имея траффик до самостоятельного выхода сайта из песочницы.

Существует еще один похожий фильтр это:
Фильтр на возраст домена: Он очень похож по принципу с песочницей, но ваш сайт не находится в песочнице и имеет приличный trust rank, тем не менее находится ниже в поиске из того что новые сайты изначально считаются менее релевантными и авторитетными нежели старые.

Как выйти из под фильтра: Принцип все тот же увеличить количество ссылок с авторитетных сайтов с высокой авторитетностью (trust rank).

Минус Тридцать (-30): Данный фильтр применяется к сайтам которые подозреваются в использовании черных сео методов (к примеру спам по сайтам). Т.е обнаруживая наличие спама, дорвеев, ява редиректов и других подобных методов, а так же на самом сайте, Google понижает ваши позиции по всем поисковым запросам на 30 позиций, к примеру с 5го места на 35е.

Как избежать-30: Точные факторы применения этого фильтра не известны, потому что тогда бы можно было легко опускать своих конкурентов. Поэтому если вы думаете что вы все таки попали под фильтр -30, единственным советом будет исключить использование всех черных методов, а так же проверить сам сайт на наличие поискового спама и черной оптимизации, а потом подавать запрос на рассмотрение сайта в Гугле и возможно фильтр отменят.

Google Bombing: Данный фильтр частенько срабатывает для сайтов, имеющих большое количество внешних ссылок с одним и тем же анкором (текстом ссылки). Это дает явный признак того что вы покупаете ссылки с одним и тем же анкором или ведете обмен по нему дабы продвинуть по одному основному запросу. Но опять же это зависит от многих факторов точно не известных, но в них предположительно входит трастовость сайта, общее количество входящих ссылок, общее число входящих анкоров, и пр так что опустить сайты конкурентов самостоятельно вам скорее всего не удастся.

Как избежать Google Bombing: Наложение данного фильтра практически сразу приводит к бану сайта, поэтому выводом из бана служит только запрос на рассмотрение сайта и включение его в индекс. Для избежания попадания под фильтр, необходимо вести обмен и покупку ссылок используя различные анкоры, а продвигая по конкретному запросу разбавлять ваши анкоры дополнительными словами.

Google Bowling: Это как бы и не фильтр, а серия приемов использования черных методов СЕО оптимизации, использование которых приводитсайт к бану. Описание всех методов описывать не буду, но их используют для устранения конкурентов в выдаче, но для сайтов с низким показателем трастовости (trust rank). Т.е крупные трастовые сайты выкинуть из поиска неудастся.

Как избежать Google Bowling: Вообще пресс-центр Google заверяет, что конкуренты не могут нанести вам вреда и выкинуть из поиска, но на практике все же получается для молодых сайтов. Способом избежания является увеличение трастовости сайта (trust rank). Если все же сайт попадает под его действие, то единственным решением является запрос на повторное включение в индекс.

Дублированный контент (Duplicate Content): Этот фильтр налагается на сайты, которые используют уже существующий контент, проиндексированный Google и следовательно являющийся неуникальным. Как правило страницы под этим фильтром, никогда не занимают высокие позиции в поисковой выдаче. Page Rank этих страниц часто обнуляется, а если на эти страницы никто не ссылается то они попадают в дополнительную выдачу omitted search results и supplemental results.

Как избежать Дублирование контента (Duplicate Content): Соответственно если вы думаете что ваш сайт именно под этим фильтром, то ваш первым шагом должно быть обновление контента сайта и удаление дублированного контента. Можно попробовать связываться с ворами вашего контента с просьбой убрать его правда вряд ли что то получится. Для поиска воров вашего контента можно использовать сервис http://www.copyscape.com/.

Дополнительная выдача Google (Supplemental Results): Это дополнительные результаты поиска Google, который используются для того чтоб разбавить основную выдачу, если в основном поиске не хватает ресурсов для выдачи по определенному запросу. Следовательно, если ваши страницы находятся в дополнительной выдаче (Supplemental Results), то это очень слабые запросы и траффика с них нет.

Как вывести страницы из Supplemental Results: Это очень просто, достаточно установить как можно больше входящих ссылок на эти страницы увеличив их траст ранк и все.

Фильтр опущенные результаты (Omitted Results): Страницы под этим фильтром показываются только когда он доходит до последней страницы поиска и нажимает ссылку «повторить поиск, включив опущенные результаты» или в английской версии «show all omitted results». Но так как до последней страницы поиска никто не доходит, то можете считать что они совсем исключены из поиска. Причиной как правило являетс: недостаток входящих ссылок, дублированный контент, одинаковые на всех страницах мета-теги title, description и отсутствие внутренней перелинковки.

Как выйти из Опущенных результатов (Omitted Results): Чтобы вернуть страницы в основной поиск необходимо поработать над внутренней оптимизацией настроить мета тэги, убрать дублирование контента и увеличить число внешних ссылок на эти страницы.

Фильтр на наличие страниц links.html и тп: Этот фильтр налагается на сайты за присутствие страницы links.htm и подобных. Так как раньше такие страницы использовались для обмена ссылками чтобы увеличить позиции в выдаче и рейтинг сайтов, сейчас такая техника не работает, но зато при наличии такой сайт замечательно опускается в поиске.

Как с ним бороться если вы все же хотите использовать отдельную страницу для обмена ссылками: не использовать слово «links» в названии этой страницы, можно написать например «friends», или «best sites», просто но позволит избежать этого фильтра.

Фильтр на взаимные ссылки: Простой фильтр который всего напросто налагается на ссылки идущие друг на друга с двух или трех например сайтов.

Как избежать этот фильтр: Использовать боле грамотную и сложную перелинковку по большому кольцу или в елочку.

Фильтр на наличие линкфермы: Линкфермы это сайты или страницы, имеющие вид неструктурированного каталога, т.е которые имеющие большое число ссылок сгруппированных без какого либо порядко произвольно. Например некоторые сервисы по авторегистрации в каталогах дают вам такую страницу с обратными ссылками от каталогов. Кроме того под этот фильтр могут попадать нормальные сайты только из за наличия на том же IP адресе линкофермы, которые гугл считает совместными и понижает ваши позиции вплоть до полного бана.

Как избежать: Не учавствовать в линкфермах, не использовать такие страницы на своем сайте.

Сопутствующие ссылки (CO-citation Linking): Очень часто попадающийся фильтр, работающий за счет анализа ваших внешних ссылок. К примеру вы имеете внешнюю ссылку с сайта, который так же в основном ссылается на порно сайты или казино, а вы к примеру ссылаетесь на него, то ваш сайт будет считаться так же посвященным порно или азартным играм. Дааный фильтр останавливает рост вашего сайта по запросам действительно соответствующим вашему сайту.

Как его избежать: используя обмен и покупку ссылок старайтесь более менее соблюдать тематичность.

Фильтр «быстрое появление большого количества ссылок»: Этот тип фильтра накладывается на сайты, которые в короткий период времени получают большое количество внешних ссылок, т.е которые не могут сами по себе являтся естесственными. В результате это может привести к бану сайта.

Как его избежать: Просто не использовать быстрое увеличение внешних ссылок например спам методы или прогон по 50000 каталогам.

Фильтр «большое количество страниц один раз»: Т.е если сайт очень быстро увеличивает количество страниц это кажется гуглу неестесственым и он включает для вас данный фильтр. Кто то считает что данный фильтр срабатывает от 5000 страниц в месяц, я же считаю что это может зависит от гораздо большего количества факторов и поэтому можно словить его с меньшим количеством страниц. Действие фильтра приводит к тому что страницы просто попадают в опущенные результаты или дополнительную выдачу (Omitted Results, supplemental results), ну и очень редко бывает бан сайта.

Как этого избежать: Не использовать различные генераторы динамического контента, агрегаторы, либо настроить их так чтобы страницы появлялись постепенно и в небольшом количестве.

Фильтр «неработающие ссылки»: Неработающие внутренние ссылки снижают количество проиндексированных страниц и при наличии большого их количества снижают показатели сайта и позиции в выдаче. Опять же точного числа неработающих ссылок не существует, определяется индивидуально для каждого сайта.

Как избежать: Проверить сайт на наличие битых ссылок, устранить их, сделать карту сайта для улучшения индексации.

Фильтр «время загрузки страницы»: Простейший фильтр. При большом времени загрузки сайта, поисковый робот откладывает его индексацию. Либо страницы не имеют кэша в гугле, либо при постоянной проблеме исключаются из пути робота и больше не индексируются.

Как избежать: Убедится в качестве хостинга, времени ответа сервера, скорости работы ваших скриптов и сайта в целом либо отдельных особо нагруженных страниц. Использовать страниц имеющие небольшой вес, использовать в дизайне CSS для уменьшения кода самой страницы

Фильтр «Избыточная оптимизация»: Обычно под действие этого фильтра попадают начинающие вебмастеры и оптимизаторы которые начитавшись основ пытаются оптимизировать сайт используя внутреннюю оптимизацию. Избыточная оптимизации включает в себя: частое использование ключевых слов, высокую плотность ключевых слов, злоупотребление мета тэгами, выделение где только можно и нельзя ключевых слов и фраз используя хтмл разметку теги strong и H1, H2 везде где можно, использование мелких нечитабельных или невидимых из за совпадения цвета с фоном шрифтов с ключевыми словами и т.д. Вы наверное не раз видели такие пестрые сайты с жирно выделеными ключевыми фразами посреди текста или где попало торчащие жирные заголовки H1 или куча ключевых слов написаных внизу страницы мелким мелким текстом.

Как избежать: Не нужно переоптимизировать страницы, используйте правильную хтмл разметку, не пихайте ключи куда только можно, вобщем не надо сразу же бросаться выполнять все пожелания описанные в основах оптимизации.

Комментарии

Прокоментируйте запись...





Странные квадратные картинки