Три кита хорошего ранжирования…
Не так давно прочитал один из выпусков рассылки Ашманова, в котором описываются особенности учета ссылок и контента сайтов.
Идея материала следующая: совокупное использование PageRank, TrustRank и PhraseRank позволяют не только учесть ссылочное ранжирование и трастовость сайта, но еще и ассоциативные связи терминов, встречающихся в документе. По сути, индексируются не только слова, но и словосочетания, фразы, встречающиеся в тексте, что позволяет с достаточной вероятностью определить спам-документов и понизить их вес, подняв хорошие страницы в выдаче.
Хочется еще раз заметить, что все эти термины несколько искуственны и употребляются больше для определенности, т.к. в целом при ранжировании учет множества факторов будет в некоторых случаях проявляться как траст, в некоторых как PR и разделять их на отдельные группы нельзя.
Похожие новости.
Что дает регистрация в DMOZ и ЯК?
Подобные вопросы возникают почти каждый день: на спецфорумах, у наших клиентов. На самом деле, все лежит на поверхности: результатами могут быть получение трафика и "жирных" ссылок, учитываемых при ранжировании сайтов в
Возможные способы продвижения и привлечения посетителей
Выдалась свободная минутка, решил собрать в один список то, что используется для раскрутки сайтов. Получилась такая вот байда: Хороший дизайн, удобная навигация, качественный и уникальный контент Продвижение в поисковых системах (SEO) и
Не пихайте новый сайт куда попало!
К слову о каталогах и прочих сайтах, 99% из которых представляют линкопомойки. Как правило, все новые сайты без разбора начинают гнать по различным каталогам сайтов. Не стоит этого делать сразу после
Фильтры поисковых систем
Ручные санкции 1. Бан – исключение сайта из индекса ПС. Происходит с участием модератора за нарушение правил лицензии. Снимается после устранения причин бана (письмом, обычно около 30 дней). Если бан налагается
АГС-17. Пробуем выйти из-под фильтра?
Я как-то писал о проекте zx-art.ru, который создал за день из старых архивов картинок загрузочных экранов ZX-Spectrum. Сайт успешно был проиндексирован, но через некоторое время попал под фильтр АГС-17, суть
Уже вышло несколько версий фильтра АГС (17, 30, скоро ещё что-то будет), но Интернет до сих пор не пришёл к единому мнению. Одни утверждают, что сайты в принципе нельзя вывести из-под этого фильтра. А если такое чудо и происходит, то это глюк, помноженный на глюк Яндекса. То есть сначала по ошибке кастрировали, а потом вернули на место.
Другие же считают, что есть действенные методы, которые гарантированно помогают сайтам. Лично я пробовал и смену ЧПУ, и обновление контента на регулярной основе, и переписывал мета-теги, и даже запрещал индексировать боту Яндекса сайт, чтобы он забыл его (так называемый SEO-рестарт), и убирал всевозможные дубли (теги, пагинацию, календарь, анонсы в рубриках и так далее).
И ничего не помогло. Сейчас прочитал об эксперименте очередного бомжа. Якобы он купил 200-300 ссылок на внутреннюю страницу сайта под АГС и через несколько Апов она попала в индекс. Он считает, что так можно вернуть все страницы, хоть они и запрещены к индексации, если их добавлять в аддурилку.
Как думаете, это поможет? Стоит ли тратить время, силы и деньги? А то после Апа тИЦ забаненные и зафильтрованные домены за счёт естественных ссылок получили прибавку тИЦ. Как-то жалко сдавать их без боя.
Не знаю. Моему проекту пока ничего не помогло.
Хотя я пока сильно не старался.
Платон в этом случае пишет, что сайт не предоставляет интереса пользователям и говорит — работайте над сайтом.
Тем не менее, по переписке можно их убедить