Накосячил в robots.txt
Страницы: 1
Накосячил в robots.txt
Подскажите пожалуйста, я накосячил в robots.txt.
На сайте есть страницы типа ?page=тема, они дублируются(есть такая необходимость) ?page=числовой_идентификатор. Чтобы один и тот же контент не был доступен по двум разным адресам(слышал, поисковики такое не любят), я решил заблокировать для индексации страницы ?page=числовой_идентификатор, но сделал это в robots.txt неправильно
Disallow: ?page=*
Соответственно, все страницы ?page= выпали из индекса.
robots.txt изменил, как теперь максимально быстро вернуть эти страницы в индекс? (около 500 штук). За 3 недели в индекс вернулось всего 30 страниц, остальные числятся в Яндекс.Вебмастере в "Исключенных страницах".
И вопрос вдогонку.Как правильно заблокировать индексацию страниц ?page=любое_число
Совсем не хочется каждый УРЛ отдельной строкой в роботс вписывать
Цитата
Александр Степанов пишет:
правильно заблокировать индексацию страниц ?page=любое_число
Думаю, что никак. Имхо.

Посмотрите, может, приходится:
Robots.txt
Может быть так:
?page=1*
?page=2*
?page=3*
И так далее?
Разместил сайт с 4000 хостов за 115 руб.мес на хостинге BeGet.ru
Ссылки, которые работают
Для Яндекса прописать Clean-param: page
Для Гугла поместить "page" в панели вебмастера  в раздел Параметры URL. Хотя он и сам с этим старается справляться
Ответ на вопрос кроется в Яндекс Вебмастере. Там можно протестить роботс.тхт в любом виде
Вернуть быстро - добавьте по одному комменту на каждую страницу и прогоните через твиттер. Для гугла прогоните еще и через аддурилку. Робот пройдет быстрее, а значит и переиндексирует быстрее. Правда, за 3 недели это врятли удастся =)
Возьму один коммерческий сайт на продвижение с бюджетом 700$ и выше под Русско язычную аудиторию.
Цитата
megavolt пишет:
Для Яндекса прописать Clean-param: page
Для Гугла поместить "page" в панели вебмастера в раздел Параметры URL. Хотя он и сам с этим старается справляться
Можно поподробней, как это делается, (Clean-param: page - это прописать в robots.txt) 

[COLOR=#373737]Я у себя по удалял все подобные хвосты, но дубли в вебмастере остались, попытки прописать через [/COLOR]robots.txt ничего не дали, робот всё равно находит страницу, и отказывается удалять. Даже если прописать каждый адрес отдельно.
Цитата
Дмитрий Данилов пишет:
Цитата
megavolt пишет:
Для Яндекса прописать Clean-param: page
Для Гугла поместить "page" в панели вебмастера в раздел Параметры URL. Хотя он и сам с этим старается справляться
Можно поподробней, как это делается, (Clean-param: page - это прописать в robots.txt)

[COLOR=#373737]Да, в роботс. Полностью будет так:[/COLOR]

User-agent: Yandex
Disallow:
Clean-param: page
[COLOR=#373737]Вот справка Яндекса, там подробнее написано: help.yandex.ru/webmaster/?id=996567[/COLOR]
Изменено: megavolt - 16 Марта 2013 12:42
Страницы: 1
Похожие темы:
Читают тему (гостей: 1, пользователей: 0, из них скрытых: 0)
Новые темыОбъявленияСвободное общение
18:41 Продвижение заграницей 
22:36 Стоит ли добавлять сайт в Rambler топ 100? 
16:34 Работает ли ссылочное продвижение 2019 – 2020? 
16:22 Adsense личный опыт 
16:20 АП Яндекс ИКС 16.11.2023 
16:19 У Google наблюдается снижение трафика и, как следствие, уменьшение прибыли 
12:10 Взрывной рост роботности в Метрике 
21:27 Starcrown Partners – Партнерская программа для гемблинг/беттинг трафика 
18:57 Прием платежей для HIGH RISK | Прием платежей без сайта 
18:57 Услуги рассылки Вконтакте 
18:57 Услуги рассылки Viber|Whatsapp|IMO. 
18:57 Рассылка в TELEGRAM |Большой опыт работы | Любые тематики | Лучшая конверсия 
18:24 Приватные мобильные прокси Украины безлимиты 4g UA Водафон Киевстар Лайф 
17:25 TETChange-Обменник криптовалют 
01:26 Точные прогнозы на футбол 
12:12 Linux - это максимальная свобода 
20:09 Сколько сейчас стоит наполнение ИМ? 
12:43 Куплю проигрышные букмекерские аккаунты 
04:33 Половина скидок на распродажах — фейк 
07:53 НейроБабушка наказывает мошенников 
19:59 Осталось 3-5 месяцев до блокировки YouTube в России, — заявил Клименко