Да, существует ограничение на количество запросов API, которые могут быть сделаны. Этот уровень существует на уровне учетной записи, а не на уровне пользователя или канала. У каждой конечной точки есть свой банк токенов.
loadHistoryScan:
Запускается с 20 000 токенов.
1 токен, потребляемый за вызов
5, пополняется для каждого загруженного файла
1 пополняется каждую минуту
ingestFile:
Начинается с unknown
1 токена, использованного для файла
15 000, пополняемых каждую минуту
Для конечной точки ingestFile 1 токен используется для каждого файла в вызове API , это верно, если вы отправляете 5000 вызовов одним файлом ИЛИ одним вызовом 5000 файлов.
Важно, чтобы вы не отправляли повторно те же файлы, которые будут использовать токен для каждого из этих повторно отправленных файлов, но табличная функция copy_history не сообщает вам, пропустил ли канал файл.
insertReport:
Начинается с unknown
1 токена, потребляемого на вызов
Скорость пополнения unknown
Максимальное количество токенов, которое может иметь учетная запись в любое время, составляет 100 000; как только вы достигнете этой точки, пополнение прекращается, пока вы не начнете делать вызовы API и снова использовать токены.
Snowflake рекомендует для загрузки загружать файлы размером от 10 МБ до 100 МБ сжатый . Если ваши требования позволяют вам объединить эти небольшие файлы в более крупный, то да, я бы порекомендовал такой подход.