Существует одна директива, которую вы можете использовать в robots.txt, это «Crawl-delay».
Crawl-delay: 5
То есть роботы должны сканировать не более одной страницы в 5 секунд,Но эта директива официально не поддерживается robots.txt, насколько я знаю.
Также есть некоторые роботы, которые вообще не принимают файл count robots.txt.Поэтому, даже если вы запретили доступ к некоторым страницам, они все равно могут сканироваться некоторыми роботами, конечно, не такими крупными, как Google.
Например, Baidu может игнорировать robots.txt, но это не обязательно.
У меня нет официального источника этой информации, так что вы можете просто погуглить ее.