Волынки и Web.
Ничего общего! Почти...

Фильтры поисковых систем

В рубрике: Продвижение сайтов — 15.08.2008

Ручные санкции

1. Бан – исключение сайта из индекса ПС. Происходит с участием модератора за нарушение правил лицензии. Снимается после устранения причин бана (письмом, обычно около 30 дней). Если бан налагается на домен 3-го уровня, то и на 2-го тоже. Интересно, что поисковый робот посещает и забаненные сайты.

2. Пессимизация – налагается за нетематический обмен ссылками. Это полный неучет внешних ссылок.

3. Обнуление ТИЦ. Обычно в качестве довеска к п.1 или 2. Например, если сайт в ЯК и забанен, т.к. получает посетителей.

4. Пожизненный бан. Может сниматься при смене владельца и контента. (запрос «враг народа»)

5. Непот-фильтр. Ссылочное кумовство. Налагается в виде неучета исходящих ссылок с сайта.

6. Удаление из ЯК (за несоответствие тематике или описанию)

7. Для Рамблера – накрутка ТОП-100. Прощается только 1 раз.

Автофильтры

8. ExceedDensityKeywords filter – перенасыщение страниц ключевиками.

9. Редирект-фильтр – налагается за использование javascript редиректа. Отлавливается автоматически и не допускается в индекс. Действие фильтра – бан

10. «Ты последний». Накладывается на документы с дублированным контентом. Результат: сайт улетает за 1 000 позицию

11. LinksText – накладывается на сайты, в контенте и заголовках которых нет запроса. Яндекс дает в сниппете текст вида «найден по ссылке:»

12. Аффиллирование – при наличии в индексе группы сайтов выдается лишь один, наиболее релевантный. Обычно накладывается на сайты одной компании. Основной критерий - принадлежность одной компании. Собственно, эта группировка аналогична группировке страниц одного сайта, представляемого в поисковых результатах одним адресом. Неприятным следствием является, что и в Директе аффилированные сайты будут склеиваться. Сервис проверки: http://nickspring.ru/affcheck/

13. Автоматический бан форума за спам и отсутствие модерации (самый быстрый известный срок снятия – 8 дней)

14. Понижение позиций - если много ссылок на другие ресурсы. Сайт не будет находиться по ключевикам.

15. Для Яндекс сейчас большое значение имеет возраст домена (сайта).

Фильтры Google

1. Песочница – налагается на новые сайты. Проявляется в том, что они долго не могут занимать высокие позиции по конкурентным запросам

2. Trustrank – степень доверия к документу и сайту в целом. Учитывает:

А) срок жизни сайта (момент первой индексации)

Б) структуру входящих ссылок, их trustrank

В) оригинальность контента и его оформление

Г) структуру сайта

Д) PageRank

Технология учитывается при наложении любого из фильтров

3. «-30» - при использовании спам-технологий сайт вылетает сразу на 30 позиций вниз

4. Bombing – пример – журналисты вывели сайт Буша по запросу «жалкий неудачник». фильтр, который применяется к сайтам, получающим большое число входящих ссылок с одним и тем же текстом-якорем. Такое явление становится предупреждающим знаком для Google, поскольку для структуры входящих ссылок очень неестественно, когда у этих входящих ссылок один и тот же текст-якорь.

Как надо поступать в этом случае. Если к вашему веб-сайту был применен этот фильтр, тогда, скорее всего, ваш сайт был запрещен в поисковых системах, поэтому просьба о повторном включении в каталог может стать вашим лучшим выбором. Если фильтр пока не применен, но вы обнаружили, что это может произойти, тогда вам надо обратиться к тем людям, которые указывали на ваш сайт ссылки, и попросить их изменить текст-якорь, а также купить несколько ссылок с различным текстом-якорем и тому подобное. Вот некоторые ресурсы, где говорят об этом фильтре Google Bombing. Это Search Engine Watch, NYTimes, Google Blogspot.

5. Bowling – любые действия конкурентов, приводящие к понижению позиций. Это не столько настоящий фильтр, сколько ряд методик в стиле черных шляп, которые приведут вас к запрету в Google. Обычно люди используют этот термин по отношению к конкурентам или к странице или сайту, которые хотят выпасть из страницы результатов поиска в поисковых системах. Кегельбан Google обычно достаточно эффективен по отношению к сайту, который является довольно новым и с небольшим рейтингом доверия. Попытка использовать этот фильтр по отношению к большому сайту с высоким рейтингом доверия обычно становится абсолютно невозможной.

Как можно обойти этот фильтр. Google говорит, что не существует ничего, что ваш конкурент мог бы сделать, чтобы обрушить ВАШ рейтинг. Многие оптимизаторы поисковых систем не верят в это, и если вы - черный оптимизатор, то вас может ожидать что-то подобное этому фильтру. Просьба о повторном включении в каталог поисковой системы - это практически единственная ваша возможность. Приведу несколько ресурсов на тему кегельбана Google. Это Web Pro News, ThreadWatch и Seroundtable.

6. Duplicate Content – налагается на сайты с неуникальным контентом, который был проиндексирован и закэширован на других сайтах.

7. Suplemental Results – дополнительный индекс, который используется только если ничего не найдено в основном (на сайте может быть 1 000 страниц в основном индексе и 500 в дополнительном). Чтобы выйти из него – нужно ставить ссылки на внут. страницы.

8. Links.html – занижение позиций при ранжировании сайтов с таким типом файлов.

9. Reciprocal link – понижение взаимоссылающихся сайтов

10. LinkFarming – налагается на каталоги с большим числом ссылок (не тематических)

11. Co-citation. Пример: если большая часть ссылок на сайт с сайтов казино, то считается, что сайт о казино и позиции по этим запросам улучшаются, по остальным тематикам – ухудшается.

12. Too many at once – при появлении кучи ссылок в единицу времени или кучи страниц за короткий период

13. Over optimization – перенасыщение документа ключевыми словами (в тегах, тексте).

14. Фильтр пропущенных результатов Google. Страницы, расположенные внутри вашего веб-сайта, которые попадают в пропущенные поисковые результаты, не будут показываться в результатах поиска Google, пока пользователь намеренно не скажет, что желает посмотреть пропущенные результаты поиска. Обычно пользователи не добираются даже до последней страницы результатов, чтобы можно было это сделать, так что любая ваша страница автоматически оказывается опущенной в результатах поиска Google. Причиной того, почему это происходит, может заключаться в нехватке входящих ссылок, в двойном контенте, дублированных мета-заголовках, дублированном метаописании и в неудачной внутренней линковке.

15. Фильтр битых ссылок. Битые внутренние ссылки могут стать причиной того, что страницы не будут просмотрены поисковым роботом, не будут кэшированы и индексированы. Если страница наподобие вашей главной страницы не имеет обратной ссылки на саму себя на всех остальных страницах, это может сыграть против вас в результатах поиска в поисковой системе и в вашем общем уровне качества, например, в таких элементах как PR. Это не только результат плохой оптимизации поисковых систем и плохого дизайна сайта, но это плохо и для ваших пользователей, поскольку может привлечь мало трафика и получить плохой рейтинг в результатах поиска в поисковой системе.

16. Фильтр времени загрузки страницы. Этот фильтр загрузки страницы очень прост. Если ваш вебсайт требует много времени для загрузки, то поисковый паук не дождется загрузки и пропустит ваш сайт или страницу. Это означает, что сайт НИКОГДА не будет кэширован или индексирован. В конечном итоге это означает, что ваш сайт или страница никогда не будут представлены на странице результатов поиска в поисковой системе Google.


Похожие новости.


Музыка в интернете: как заявить о себе?

Музыка в интернете: как заявить о себе?

В эпоху интернета многие музыканты и музыкальные группы заводят в глобальной паутине собственные сайты, блоги, фотогалереи и т.д. Однако не все сайты получают достаточный уровень финансирования и, как результат, выполняют



Очередная группа на курсах по продвижению — сайты про отдых в Пензе

Очередная группа на курсах по продвижению — сайты про отдых в Пензе

Скоро сайтов об отдыхе в Пензе будет пруд-пруди.



Несколько слов о текстах на сайтах

Несколько слов о текстах на сайтах

Часто о том, кто и какие тексты будет размещать на сайте, думают в последнюю очередь. А ведь это один из ключевых моментов, т.к. все, даже дизайн, по сути, вторичны. Первым



Смотрим на сайт по-новому

Смотрим на сайт по-новому

Мнений о том, каким должен быть сайт, много. У программиста одна точка зрения, у дизайнера - другая. Владелец, как профессионал в своей области, имеет третью. В результате сайт похож на



Не пихайте новый сайт куда попало!

Не пихайте новый сайт куда попало!

К слову о каталогах и прочих сайтах, 99% из которых представляют линкопомойки. Как правило, все новые сайты без разбора начинают гнать по различным каталогам сайтов. Не стоит этого делать сразу после




Комментарии (5)

  1. мебель оптом — 28 мая 2008 @ 15:45

    поддерживаю ТС, новые домены гонять по каталогам не стоит — у меня был случай явной пессимизации, не помогали даже покупные ссылки по НЧ…
    старым сайтам, уже ранее прогнанным — польза есть

  2. admin — 28 мая 2008 @ 15:57

    В этом блоге, кстати, ссылки не индексируются ;)

  3. VolCh — 11 июля 2008 @ 23:01

    А когда стоит прогонять? Например, если сайт уже проиндексирован, то можно начинать?

    А левые ссылки действительно могут понизить? Ведь так можно конкурентов опускать в серпе (эта мысль у меня возникла даже раньше, чем «а не регал я свой сайт где попало» :) )

  4. VolCh — 11 июля 2008 @ 23:02

    P.S. Не нашел что-то ссылки на RSS, пришлось в исходники страницы лезть

  5. admin — 12 июля 2008 @ 9:09

    Левые — могут. Вопрос только в том, какое кол-во/левость…тут вопрос пока очень размытый.

    Опускать конкурентов? Ню-ню…могу дать пару адресов своих сайтов, опускайте ;))))

    З.Ы. Даже если получится понизить одного-двух своих конкурентов, другие-то никуда не денутся!

Извините, обсуждение на данный момент закрыто.