robots.txt Yandex
Страницы: 1
robots.txt Yandex, нид хелп!
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?
Цитата
Gena Gabdullin пишет:
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?

конечно нужно,помню как через дубль у моего СДЛ повылетали все старницы, я уже думал что бан, но после устранения дубля и письма платонам стало все нормально)
Цитата
Gena Gabdullin пишет:
Добрый день, Гуру оптимизации!
На сегодня у меня два вопроса: 1., вчера заглянул в "страницы" загруженные яндексом, их у меня почти 3000 зотя на самом деле всего 300 записей. Задался вопросом, откуда? посмотрел загружено feed=rss2& - около 1000 страниц, получается дубляж контента. Нужно ли для Яндекса зарвывать этот РСС канал?
2. В роботс.хтх если закрываю disallow: /archives/ то у меня перестают индексироваться категории или рубрики моего сайта! аля структура оказалась /archives/category/ индексацию проходят и рубрики и архивы...опять дубль! Пощему нащальнике??? что мне теперь делать? Как сделать так чтобы индексировались только категории?

а зачем Вам чтобы индексировались категории и рубрики? smile:) я вообще весь дубль закрыл, т.е. в индексе только "чистые" страницы.
Цитата
deezy пишет:
а зачем Вам чтобы индексировались категории и рубрики? я вообще весь дубль закрыл, т.е. в индексе только "чистые" страницы.


Поделитесь плиз своим роботс.тхт?

Кстати у меня страницы повылетали, думаю может из-за дублей...
в общем нашел я благодаря рдс бару, через хром на сайте у Миши Шакина роботс.тхт, поставлю себе, должен хорошо работать, кому нужен вот он
User-agent: *
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments

User-agent: Yandex
Disallow: /wp-login.php
Disallow: /wp-register.php
Disallow: /webstat/
Disallow: /feed/
Disallow: /trackback
Disallow: */trackback
Disallow: */feed
Disallow: */comments
Disallow: /*?*
Disallow: /*?
Disallow: /category/*/*
Disallow: /wp-content/
Disallow: /wp-admin/
Disallow: /wp-includes/
Disallow: /comments
Цитата
Gena Gabdullin пишет:
в общем нашел я благодаря рдс бару, через хром на сайте у Миши Шакина роботс.тхт, поставлю себе, должен хорошо работать, кому нужен вот он


Параметр User-Agent: * означает что написанные правила доступа действительны для всех поисковых роботов. Поэтому все что идет начиная со строчки User-agent: Yandex и далее - совершенно не нужно. Отдельное правило для Яндекса имело бы смысл, только если бы там были записаны правила индексации папок, отличные от общих правил для остальных поисковиков.
У меня на блогах давно такой robots.txt стоит) smile:cool:
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
14:39 AviTool - мощный инструмент для автоматизации работы с Avito 
11:36 Dao.AD: Монетизация и покупка Push/Pops/Inpage и Video трафика! 
00:53 Доработка сайта 
00:49 Маркированный список выходит за пределы статьи 
00:44 Модуль DLE 
18:09 LGaming - экосистема и партнерская программа в gambling и betting вертикалях 
16:11 Давайте начнем обмен отзывами Google maps 
12:32 Belurk — высокоскоростные анонимные прокси от 0,24 рублей 
06:10 Продам обменник криптовалюты, а также новый обменник под ключ с обучением. Скидки на скрипты обменника 
04:22 Просто $0.04/IP 9PROXY.COM Резидентные прокси Неограниченная пропускная способность Уникальная политика замены Без чёрного списка 
00:54 Переверстать готовый шаблон DLE 
23:30 Coin Click.cc - Быстрый и надежный обмен электронных валют в два клика 
19:07 Linken Sphere – браузер-антидетект нового поколения 
15:02 Комплексный прогон по трастовым сайтам, статейное размещение. Рост НЧ-СЧ, Тиц-пр. 
22:20 Точные прогнозы на футбол 
20:09 Сколько сейчас стоит наполнение ИМ? 
12:43 Куплю проигрышные букмекерские аккаунты 
04:33 Половина скидок на распродажах — фейк 
07:53 НейроБабушка наказывает мошенников 
19:59 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко 
19:57 Пятница 13-ое: VK принял радикальное решение и закрыл доступ к порно контенту