Карта сайта для Яшки
2 июня 2008 на сайте http://webmaster.ya.ru было опубликовано сообщение о введении файла карты пользовательского сайта:
Файл Sitemap -- это файл с дополнительной информацией о страницах сайта, подлежащих индексации. С его помощью вы можете сообщить Яндексу, какие страницы вашего сайта нужно индексировать, какие из них наиболее важны, а также как часто обновляется информация на страницах.
Яндекс поддерживает два формата файлов Sitemap:XML и текстовый. Описание форматов дано на сайте sitemaps.org/ru.
Вы можете сообщить Яндексу о наличии файла Sitemap для сайта двумя способами:
- добавив URL файла Sitemap в раздел "Файлы Sitemap" сервиса Яндекс.Вебмастер;
- добавив директиву Sitemap в файл robots.txt вашего сайта.
Похожие новости.
Музыка в интернете: как заявить о себе?
В эпоху интернета многие музыканты и музыкальные группы заводят в глобальной паутине собственные сайты, блоги, фотогалереи и т.д. Однако не все сайты получают достаточный уровень финансирования и, как результат, выполняют
Собираем базу качественных каталогов
Качественную базу можно собрать только вручную. Процесс долгий и нудный. Но зато и результат будет долго вас радовать. В полной мере каталоги можно оценивать по примерно следующим параметрам: PR и тИЦ Возраст каталога Число
Собираем качественные каталоги
Среди большинства каталогов 90% мусора. Это известно каждому. Качественных ресурсов, которые дают трастовые бэки и (о чудо!) трафик - можно перечесть по пальцам. Что делать? Собирать свою базу! Суть задачи Создать базу каталогов
Очередная группа на курсах по продвижению — сайты про отдых в Пензе
Скоро сайтов об отдыхе в Пензе будет пруд-пруди.
АГС-17. Пробуем выйти из-под фильтра?
Я как-то писал о проекте zx-art.ru, который создал за день из старых архивов картинок загрузочных экранов ZX-Spectrum. Сайт успешно был проиндексирован, но через некоторое время попал под фильтр АГС-17, суть

Уже вышло несколько версий фильтра АГС (17, 30, скоро ещё что-то будет), но Интернет до сих пор не пришёл к единому мнению. Одни утверждают, что сайты в принципе нельзя вывести из-под этого фильтра. А если такое чудо и происходит, то это глюк, помноженный на глюк Яндекса. То есть сначала по ошибке кастрировали, а потом вернули на место.
Другие же считают, что есть действенные методы, которые гарантированно помогают сайтам. Лично я пробовал и смену ЧПУ, и обновление контента на регулярной основе, и переписывал мета-теги, и даже запрещал индексировать боту Яндекса сайт, чтобы он забыл его (так называемый SEO-рестарт), и убирал всевозможные дубли (теги, пагинацию, календарь, анонсы в рубриках и так далее).
И ничего не помогло. Сейчас прочитал об эксперименте очередного бомжа. Якобы он купил 200-300 ссылок на внутреннюю страницу сайта под АГС и через несколько Апов она попала в индекс. Он считает, что так можно вернуть все страницы, хоть они и запрещены к индексации, если их добавлять в аддурилку.
Как думаете, это поможет? Стоит ли тратить время, силы и деньги? А то после Апа тИЦ забаненные и зафильтрованные домены за счёт естественных ссылок получили прибавку тИЦ. Как-то жалко сдавать их без боя.
Не знаю. Моему проекту пока ничего не помогло.
Хотя я пока сильно не старался.
Платон в этом случае пишет, что сайт не предоставляет интереса пользователям и говорит — работайте над сайтом.
Тем не менее, по переписке можно их убедить