Добрый день форумчане. На новом проекте столкнулся с проблемой в Google. Из за неправильного ЧПУ наплодилось огромнейшее количество дублей. Трафика не какого, было порядка 95% страниц в соплях. Удалил 250+ страниц вручную через вебмастер "Удалить URL-адреса", в тоже время их осталось много. Программно все те страницы в данный момент ссылаются на 404. Из за особенностей ЧПУ через robots.txt все лишнее не закроешь. Встает вопрос о том удалять вручную или подождать пока они сами вылетят (ведь вылетят?). Ну или в крайнем случаем в вебмастере удалить все страницы сразу и ждать индексации по новой.
Есть мысли?
Есть мысли?