Я читаю большой файл json из корзины s3.Лямбда вызывается несколько сотен раз в секунду.Когда параллелизм высок, лямбды начинают истекать.
Существует ли более эффективный способ написания приведенного ниже кода, при котором мне не нужно каждый раз загружать файл с S3 или повторно использовать содержимое в памяти для разных случаев лямбды: -)
Содержимое файла изменяется только один раз в неделю!
Я не могу разбить файл (из-за структуры json), и его нужно прочитать сразу.
s3 = boto3.resource('s3')
s3_bucket_name = get_parameter('/mys3bucketkey/')
bucket = s3.Bucket(s3_bucket_name)
try:
bucket.download_file('myfile.json', '/tmp/' + 'myfile.json')
except:
print("File to be read is missing.")
with open(r'/tmp/' + 'myfile.json') as file:
data = json.load(file)