Я написал код Python для загрузки файлов из локального каталога в контейнер больших двоичных объектов в Azure Storage Explorer, и теперь пытаюсь сделать это автоматически (то есть, если в каталоге есть файлы, они автоматически загружаются).
Есть ли способ, которым я могу сделать это?
import os
from azure.storage.blob import BlockBlobService
from azure.storage.blob import ContentSettings
accountName = "accountName"
ContainerSAS = "SAS_Key"
containerName = "containerName"
# Create reference to container using account name and SAS key
try:
sas_service = BlockBlobService(account_name=accountName,
sas_token=ContainerSAS)
except Exception as e:
print("Error during SAS service creation. Details: {0}".format(e))
print("Created SAS service with account {0}".format(accountName))
# Upload files to container from path
# directory_path = "< path to your directory >"
directory_path = "F:/dat_files_test"
for filename in os.listdir(directory_path):
print(filename)
blobName = filename
localFile = directory_path + "/" + filename
try:
sas_service.create_blob_from_path(
containerName,
blobName,
localFile,
content_settings=ContentSettings(content_type='DPS/dat')
)
except Exception as e:
print("Error during blob uploading. Details: {0}".format(e))
print("All files uploaded")