Увидел у одного сайта такую вещь. На сайте в конце файла robots.txt прописано:
User-Agent: *
Disallow: /
Я так понимаю, что это запрещает всем роботам индексировать сайт.
Но новые страницы постоянно попадают в индекс. Как такое возможно?
User-Agent: *
Disallow: /
Я так понимаю, что это запрещает всем роботам индексировать сайт.
Но новые страницы постоянно попадают в индекс. Как такое возможно?