Это просто говорит агентам, которые называют себя spider
достаточно осторожно, чтобы не просматривать сайт.
Это не имеет особого значения.
Файлы
robots.txt используются только роботами, поэтому для исключения всех роботов можно использовать *
:
User-Agent: *
Disallow: /