Здравствуйте! Подскажите пожалуйста как лучше закрывать дубли url от индексации в robots.txt
Имеются статьи такого формата: articles/hard_disk и дальше дубли: articles/hard_disk-4; articles/hard_disk-56; articles/hard_disk-4-5, как можно закрыть все эти дубли не по одному(их много) а например все статьи которые начинаются с hard_disk- и заканчиваются цифрами.
Мы сделали таким способом но не уверены что он правильный Disallow: /hard_disk-*
Спасибо за внимание и надеемся что подскажите решение этой проблемы.
Имеются статьи такого формата: articles/hard_disk и дальше дубли: articles/hard_disk-4; articles/hard_disk-56; articles/hard_disk-4-5, как можно закрыть все эти дубли не по одному(их много) а например все статьи которые начинаются с hard_disk- и заканчиваются цифрами.
Мы сделали таким способом но не уверены что он правильный Disallow: /hard_disk-*
Спасибо за внимание и надеемся что подскажите решение этой проблемы.