Подскажите пожалуйста, я накосячил в robots.txt.
На сайте есть страницы типа ?page=тема, они дублируются(есть такая необходимость) ?page=числовой_идентификатор. Чтобы один и тот же контент не был доступен по двум разным адресам(слышал, поисковики такое не любят), я решил заблокировать для индексации страницы ?page=числовой_идентификатор, но сделал это в robots.txt неправильно
Disallow: ?page=*
Соответственно, все страницы ?page= выпали из индекса.
robots.txt изменил, как теперь максимально быстро вернуть эти страницы в индекс? (около 500 штук). За 3 недели в индекс вернулось всего 30 страниц, остальные числятся в Яндекс.Вебмастере в "Исключенных страницах".
На сайте есть страницы типа ?page=тема, они дублируются(есть такая необходимость) ?page=числовой_идентификатор. Чтобы один и тот же контент не был доступен по двум разным адресам(слышал, поисковики такое не любят), я решил заблокировать для индексации страницы ?page=числовой_идентификатор, но сделал это в robots.txt неправильно
Disallow: ?page=*
Соответственно, все страницы ?page= выпали из индекса.
robots.txt изменил, как теперь максимально быстро вернуть эти страницы в индекс? (около 500 штук). За 3 недели в индекс вернулось всего 30 страниц, остальные числятся в Яндекс.Вебмастере в "Исключенных страницах".