Просматриваю сайты в топе по высокочастотным запросам, и меня удивляет такая ситуация, вот например сайт на котором сейчас 20 тысяч хостов Google / % страниц не под фильтрами 546000/ 4 % тоесть получается только 25 часть страниц не под фильтрами, и таких ситуаций массса, получается что в гугле практически нет войны за удаление дублей и прочих страниц из поиска?
У меня на блоге 40 статей проиндексировано, я посмотрел в поиске 350 страниц, так я ужаснулся и давай удалять дубликаты и проверять почему robots пропустил их, самое интересное что 3 дня назад удалил 50 страниц, сегодня глянул стало на 50 больше в поиске, признаюсь немного запутался с этой ситуацией, именно с индексированием страниц в гугле, блог о котором я говорю у меня в подписи стоит
У меня на блоге 40 статей проиндексировано, я посмотрел в поиске 350 страниц, так я ужаснулся и давай удалять дубликаты и проверять почему robots пропустил их, самое интересное что 3 дня назад удалил 50 страниц, сегодня глянул стало на 50 больше в поиске, признаюсь немного запутался с этой ситуацией, именно с индексированием страниц в гугле, блог о котором я говорю у меня в подписи стоит