Фильтры поисковых систем
Ручные санкции
1. Бан – исключение сайта из индекса ПС. Происходит с участием модератора за нарушение правил лицензии. Снимается после устранения причин бана (письмом, обычно около 30 дней). Если бан налагается на домен 3-го уровня, то и на 2-го тоже. Интересно, что поисковый робот посещает и забаненные сайты.
2. Пессимизация – налагается за нетематический обмен ссылками. Это полный неучет внешних ссылок.
3. Обнуление ТИЦ. Обычно в качестве довеска к п.1 или 2. Например, если сайт в ЯК и забанен, т.к. получает посетителей.
4. Пожизненный бан. Может сниматься при смене владельца и контента. (запрос «враг народа»)
5. Непот-фильтр. Ссылочное кумовство. Налагается в виде неучета исходящих ссылок с сайта.
6. Удаление из ЯК (за несоответствие тематике или описанию)
7. Для Рамблера – накрутка ТОП-100. Прощается только 1 раз.
Автофильтры
8. ExceedDensityKeywords filter – перенасыщение страниц ключевиками.
9. Редирект-фильтр – налагается за использование javascript редиректа. Отлавливается автоматически и не допускается в индекс. Действие фильтра – бан
10. «Ты последний». Накладывается на документы с дублированным контентом. Результат: сайт улетает за 1 000 позицию
11. LinksText – накладывается на сайты, в контенте и заголовках которых нет запроса. Яндекс дает в сниппете текст вида «найден по ссылке:»
12. Аффиллирование – при наличии в индексе группы сайтов выдается лишь один, наиболее релевантный. Обычно накладывается на сайты одной компании. Основной критерий - принадлежность одной компании. Собственно, эта группировка аналогична группировке страниц одного сайта, представляемого в поисковых результатах одним адресом. Неприятным следствием является, что и в Директе аффилированные сайты будут склеиваться. Сервис проверки: http://nickspring.ru/affcheck/
13. Автоматический бан форума за спам и отсутствие модерации (самый быстрый известный срок снятия – 8 дней)
14. Понижение позиций - если много ссылок на другие ресурсы. Сайт не будет находиться по ключевикам.
15. Для Яндекс сейчас большое значение имеет возраст домена (сайта).
Фильтры Google
1. Песочница – налагается на новые сайты. Проявляется в том, что они долго не могут занимать высокие позиции по конкурентным запросам
2. Trustrank – степень доверия к документу и сайту в целом. Учитывает:
А) срок жизни сайта (момент первой индексации)
Б) структуру входящих ссылок, их trustrank
В) оригинальность контента и его оформление
Г) структуру сайта
Д) PageRank
Технология учитывается при наложении любого из фильтров
3. «-30» - при использовании спам-технологий сайт вылетает сразу на 30 позиций вниз
4. Bombing – пример – журналисты вывели сайт Буша по запросу «жалкий неудачник». фильтр, который применяется к сайтам, получающим большое число входящих ссылок с одним и тем же текстом-якорем. Такое явление становится предупреждающим знаком для Google, поскольку для структуры входящих ссылок очень неестественно, когда у этих входящих ссылок один и тот же текст-якорь.
Как надо поступать в этом случае. Если к вашему веб-сайту был применен этот фильтр, тогда, скорее всего, ваш сайт был запрещен в поисковых системах, поэтому просьба о повторном включении в каталог может стать вашим лучшим выбором. Если фильтр пока не применен, но вы обнаружили, что это может произойти, тогда вам надо обратиться к тем людям, которые указывали на ваш сайт ссылки, и попросить их изменить текст-якорь, а также купить несколько ссылок с различным текстом-якорем и тому подобное. Вот некоторые ресурсы, где говорят об этом фильтре Google Bombing. Это Search Engine Watch, NYTimes, Google Blogspot.
5. Bowling – любые действия конкурентов, приводящие к понижению позиций. Это не столько настоящий фильтр, сколько ряд методик в стиле черных шляп, которые приведут вас к запрету в Google. Обычно люди используют этот термин по отношению к конкурентам или к странице или сайту, которые хотят выпасть из страницы результатов поиска в поисковых системах. Кегельбан Google обычно достаточно эффективен по отношению к сайту, который является довольно новым и с небольшим рейтингом доверия. Попытка использовать этот фильтр по отношению к большому сайту с высоким рейтингом доверия обычно становится абсолютно невозможной.
Как можно обойти этот фильтр. Google говорит, что не существует ничего, что ваш конкурент мог бы сделать, чтобы обрушить ВАШ рейтинг. Многие оптимизаторы поисковых систем не верят в это, и если вы - черный оптимизатор, то вас может ожидать что-то подобное этому фильтру. Просьба о повторном включении в каталог поисковой системы - это практически единственная ваша возможность. Приведу несколько ресурсов на тему кегельбана Google. Это Web Pro News, ThreadWatch и Seroundtable.
6. Duplicate Content – налагается на сайты с неуникальным контентом, который был проиндексирован и закэширован на других сайтах.
7. Suplemental Results – дополнительный индекс, который используется только если ничего не найдено в основном (на сайте может быть 1 000 страниц в основном индексе и 500 в дополнительном). Чтобы выйти из него – нужно ставить ссылки на внут. страницы.
8. Links.html – занижение позиций при ранжировании сайтов с таким типом файлов.
9. Reciprocal link – понижение взаимоссылающихся сайтов
10. LinkFarming – налагается на каталоги с большим числом ссылок (не тематических)
11. Co-citation. Пример: если большая часть ссылок на сайт с сайтов казино, то считается, что сайт о казино и позиции по этим запросам улучшаются, по остальным тематикам – ухудшается.
12. Too many at once – при появлении кучи ссылок в единицу времени или кучи страниц за короткий период
13. Over optimization – перенасыщение документа ключевыми словами (в тегах, тексте).
14. Фильтр пропущенных результатов Google. Страницы, расположенные внутри вашего веб-сайта, которые попадают в пропущенные поисковые результаты, не будут показываться в результатах поиска Google, пока пользователь намеренно не скажет, что желает посмотреть пропущенные результаты поиска. Обычно пользователи не добираются даже до последней страницы результатов, чтобы можно было это сделать, так что любая ваша страница автоматически оказывается опущенной в результатах поиска Google. Причиной того, почему это происходит, может заключаться в нехватке входящих ссылок, в двойном контенте, дублированных мета-заголовках, дублированном метаописании и в неудачной внутренней линковке.
15. Фильтр битых ссылок. Битые внутренние ссылки могут стать причиной того, что страницы не будут просмотрены поисковым роботом, не будут кэшированы и индексированы. Если страница наподобие вашей главной страницы не имеет обратной ссылки на саму себя на всех остальных страницах, это может сыграть против вас в результатах поиска в поисковой системе и в вашем общем уровне качества, например, в таких элементах как PR. Это не только результат плохой оптимизации поисковых систем и плохого дизайна сайта, но это плохо и для ваших пользователей, поскольку может привлечь мало трафика и получить плохой рейтинг в результатах поиска в поисковой системе.
16. Фильтр времени загрузки страницы. Этот фильтр загрузки страницы очень прост. Если ваш вебсайт требует много времени для загрузки, то поисковый паук не дождется загрузки и пропустит ваш сайт или страницу. Это означает, что сайт НИКОГДА не будет кэширован или индексирован. В конечном итоге это означает, что ваш сайт или страница никогда не будут представлены на странице результатов поиска в поисковой системе Google.
Похожие новости.

Сайты о лабрадорах.
Давно работаю с очень хорошей знакомой - заводчиком лабрадоров ретриверов. Сделали ей недорогой сайт, наполнили контентом, фотографиями. Практически не работали с раскруткой, а вот жеж! Около 90 посетителей в сутки. Без

Поисковая оптимизация и контекстная реклама
Оба этих способа служат для привлечения на сайт целевой аудитории, которая сама сообщает о своих потребностях в виде поискового запроса. Поисковая оптимизация (Search Engine Optimization) – это продвижение сайта в первые

Продвижение сайтов статьями
Преимущества размещение навсегда (условно) Возможность продвижения внутренних страниц Возможность продвижения множества запросов трастовость – тематические ссылки в уникальном контенте Приток посетителей на Ваш сайт за счет интересных статей Реальная экономия при долгосрочном продвижении Естественно, пункты о трастовости

АГС-17. Пробуем выйти из-под фильтра?
Я как-то писал о проекте zx-art.ru, который создал за день из старых архивов картинок загрузочных экранов ZX-Spectrum. Сайт успешно был проиндексирован, но через некоторое время попал под фильтр АГС-17, суть

Семинар по поисковому продвижению Михаила Райцина
12-го сентября прошел семинар по поисковому продвижению сайтов. В целом, новой