Здравствуйте.
Ранее мой сайт был на Джумле. Велось много всяких работ. Карта сайта установлена года два назад, я тогда даже не знал, что это такое.
Потом создавалось и убиралось много разделов.
Потом переехал с Джумлы на Битрикс.
И недавно в Яндекс-Вебмастере увидел, что выдается ошибка на карте сайта. Начал ее исследовать, советоваться с людьми, оказалось, что карта вообще старая, негодная, и т.д. Собственно, сайт:
http://pravoektb.ru/sitemap/
Эта карта, как мне сказали добрые люди, "для людей". А для робота нужен XML-файл.
1. Один программист мне прислал такой файл, я его подставил, непонятно что получилось.
2. Тут, на СУПРе, пробовал сделать карту - выдало 42 страницы. Вебмастер знакомый сказал, что для моего сайта это маловато.
3. Этот знакомый засел делать сам, по какой-то своей программе, она у него сканировала мой сайт полдня, просканировала 25 000 страниц и зависла.
Второй день включил её опять, опять просканировал 21000 страниц, потом пришел и задал вопрос, который меня напряг: "Тебе 20 тысяч страниц хватит?"
Я его пытал-пытал, пробовал разъяснить, что значит - хватит или нет. А остальные, непросканированные страницы он что, выбросит из индекса?
Вразумительного ответа не получил.
На моем сайте есть форум, и в нем есть тысячи страниц, какие-то непонятные технические дубли, профили пользователей, формы регистраций, масса их. Я по этому вопросу писал когда-то в техподдержку (форум лицензионный) , мне ответили - мол, дубли - это в данном случае нестрашно, т.к. прописана каноническая страница. И вот программа вебмастера шпарит эти тысячи страниц, я на них смотрю и думаю - а зачем эту массу страниц в индекс то загонять? Они вообще нужны в карте сайта? Это же шлак. Даже если сейчас все эти "сопливые" страницы загнать в индекс (по Гуглу до 80 000 - 90 000 страниц на сайте, в основной выдаче - 1300, т.е. 1%), то сдается мне, что это будет скорее отрицательным моментом, чем положительным. ПС проиндексируют на сайте кучу шлака. Удельный вес "нормальных" страниц будет мизерным, т.е. сложится впечатление, что это ГС.
Он же мне рассказал о платных версиях карт сайта. Чем они отличаются от его непонятно-ломаной - я так и не уразумел.
Вот и вопросы.
Какую карту сайта лучше ставить - посоветуйте. То ли достаточно СУПРовской в 42 страницы, то ли пихать туда эти десятки тысяч? Или это неважно? И вообще, насколько карта сайта важна? Вот поставлю я ее, и что будет? Индексация ускорится, мне все говорят. В индекс будут страницы входить. Так мне скорость индексации не суть важна, роботы и так каждый день на сайте. В индекс все, что надо входит. А вот посещаемость повысится?
Значимый ли этот вопрос вообще?
Ранее мой сайт был на Джумле. Велось много всяких работ. Карта сайта установлена года два назад, я тогда даже не знал, что это такое.
Потом создавалось и убиралось много разделов.
Потом переехал с Джумлы на Битрикс.
И недавно в Яндекс-Вебмастере увидел, что выдается ошибка на карте сайта. Начал ее исследовать, советоваться с людьми, оказалось, что карта вообще старая, негодная, и т.д. Собственно, сайт:
http://pravoektb.ru/sitemap/
Эта карта, как мне сказали добрые люди, "для людей". А для робота нужен XML-файл.
1. Один программист мне прислал такой файл, я его подставил, непонятно что получилось.
2. Тут, на СУПРе, пробовал сделать карту - выдало 42 страницы. Вебмастер знакомый сказал, что для моего сайта это маловато.
3. Этот знакомый засел делать сам, по какой-то своей программе, она у него сканировала мой сайт полдня, просканировала 25 000 страниц и зависла.
Второй день включил её опять, опять просканировал 21000 страниц, потом пришел и задал вопрос, который меня напряг: "Тебе 20 тысяч страниц хватит?"
Я его пытал-пытал, пробовал разъяснить, что значит - хватит или нет. А остальные, непросканированные страницы он что, выбросит из индекса?
Вразумительного ответа не получил.
На моем сайте есть форум, и в нем есть тысячи страниц, какие-то непонятные технические дубли, профили пользователей, формы регистраций, масса их. Я по этому вопросу писал когда-то в техподдержку (форум лицензионный) , мне ответили - мол, дубли - это в данном случае нестрашно, т.к. прописана каноническая страница. И вот программа вебмастера шпарит эти тысячи страниц, я на них смотрю и думаю - а зачем эту массу страниц в индекс то загонять? Они вообще нужны в карте сайта? Это же шлак. Даже если сейчас все эти "сопливые" страницы загнать в индекс (по Гуглу до 80 000 - 90 000 страниц на сайте, в основной выдаче - 1300, т.е. 1%), то сдается мне, что это будет скорее отрицательным моментом, чем положительным. ПС проиндексируют на сайте кучу шлака. Удельный вес "нормальных" страниц будет мизерным, т.е. сложится впечатление, что это ГС.
Он же мне рассказал о платных версиях карт сайта. Чем они отличаются от его непонятно-ломаной - я так и не уразумел.
Вот и вопросы.
Какую карту сайта лучше ставить - посоветуйте. То ли достаточно СУПРовской в 42 страницы, то ли пихать туда эти десятки тысяч? Или это неважно? И вообще, насколько карта сайта важна? Вот поставлю я ее, и что будет? Индексация ускорится, мне все говорят. В индекс будут страницы входить. Так мне скорость индексации не суть важна, роботы и так каждый день на сайте. В индекс все, что надо входит. А вот посещаемость повысится?
Значимый ли этот вопрос вообще?