Собираем базу качественных каталогов
Качественную базу можно собрать только вручную. Процесс долгий и нудный. Но зато и результат будет долго вас радовать.
В полной мере каталоги можно оценивать по примерно следующим параметрам:
- PR и тИЦ
- Возраст каталога
- Число проиндексированных страниц
- Требует ли обратную ссылку (кста, на хороший тематический каталог ссылку поставить не западло)
- Дает ли прямую ссылку
- посещаемость
- тематика
- есть ли собственный рейтинг
- визуально оценить качество каталога
Вобщем, принцип такой: лучше меньше, но качественные. Часто с тематических, больших отраслевых каталогов я получаю на свои сайты небольшой, но приятный трафик.
Как собрать? Помогут нам в этом крупные каталоги и...сами поисковые системы:
- Как правило, в таких каталогах, как DMOZ и ЯК содержатся трастовые сайты, действительно полезные посетителям. Советую начать сбор каталогов из них
- Язык запросов того же Яндекса позволяет поискать интересующие нас ресурсы в доменах, мета-тегах, тайтлах.
Примеры строки поиска:
domain="catalog"
domain="directory"
domain="rating"
#keywords=(каталог сайтов)
$title (Каталог сайтов)
Если речь идет о тематических каталогах, можно поискать что-то типа $title (музыка&&каталог&&сайтов)
P.S. Есть, кстати, на небезысвестном форуме тема для анонса белых каталогов: http://forum.searchengines.ru/showthread.php?t=149467
Похожие новости.
Заработок на контекстной рекламе Google AdSense
О Google известно всем, но не многие знают, что на нем можно еще и зарабатывать. Вебмастера с большим опытом в эту категорию, конечно, не входят. Они давно
Вирус подмены страниц
Интересный материал появился в блоге Яндекса 27 мая 2008 года. Речь идет о программах, которые работают на ПК пользователя и подменяют результаты выдачи поисковиков в браузере. Кроме описанных в сообщении возможностей
Поисковая оптимизация и контекстная реклама
Оба этих способа служат для привлечения на сайт целевой аудитории, которая сама сообщает о своих потребностях в виде поискового запроса. Поисковая оптимизация (Search Engine Optimization) – это продвижение сайта в первые
Интернет в Пензе как суслик…
...из киношки "ДМБ": его никто не видел, но он есть. Более-менее активные участники обсуждений, касающихся нашего регионального Web, общаются здесь - http://pnz.ru/forum/viewforum.php?f=33, и здесь - http://pnz.ru/forum/viewforum.php?f=3. Все остальные форумы почти
АГС-17. Пробуем выйти из-под фильтра?
Я как-то писал о проекте zx-art.ru, который создал за день из старых архивов картинок загрузочных экранов ZX-Spectrum. Сайт успешно был проиндексирован, но через некоторое время попал под фильтр АГС-17, суть

Уже вышло несколько версий фильтра АГС (17, 30, скоро ещё что-то будет), но Интернет до сих пор не пришёл к единому мнению. Одни утверждают, что сайты в принципе нельзя вывести из-под этого фильтра. А если такое чудо и происходит, то это глюк, помноженный на глюк Яндекса. То есть сначала по ошибке кастрировали, а потом вернули на место.
Другие же считают, что есть действенные методы, которые гарантированно помогают сайтам. Лично я пробовал и смену ЧПУ, и обновление контента на регулярной основе, и переписывал мета-теги, и даже запрещал индексировать боту Яндекса сайт, чтобы он забыл его (так называемый SEO-рестарт), и убирал всевозможные дубли (теги, пагинацию, календарь, анонсы в рубриках и так далее).
И ничего не помогло. Сейчас прочитал об эксперименте очередного бомжа. Якобы он купил 200-300 ссылок на внутреннюю страницу сайта под АГС и через несколько Апов она попала в индекс. Он считает, что так можно вернуть все страницы, хоть они и запрещены к индексации, если их добавлять в аддурилку.
Как думаете, это поможет? Стоит ли тратить время, силы и деньги? А то после Апа тИЦ забаненные и зафильтрованные домены за счёт естественных ссылок получили прибавку тИЦ. Как-то жалко сдавать их без боя.
Не знаю. Моему проекту пока ничего не помогло.
Хотя я пока сильно не старался.
Платон в этом случае пишет, что сайт не предоставляет интереса пользователям и говорит — работайте над сайтом.
Тем не менее, по переписке можно их убедить