Почему?
Любой, кто совершает зло (например, собирает адреса электронной почты для спама), просто игнорирует robots.txt. Таким образом, вы будете блокировать только легальные поисковые системы, так как соответствие robots.txt является добровольным.
Но - если вы все равно настаиваете на этом - для этого и нужна строка User-Agent:
в robots.txt.
User-agent: googlebot
Disallow:
User-agent: *
Disallow: /
Со строками для всех других поисковых систем, с которых вы, конечно, хотите получать трафик. Robotstxt.org имеет частичный список.