Я работаю с Azure в данный момент, и я недоволен предопределенными функциями в DataFactory, потому что они запускают кластер в фоновом режиме, и это абсолютно не обязательно для моей проблемы. Я получаю CSV-файл в заранее определенной папке и хочу выбрать набор столбцов и сохранить их в определенном порядке в CSV-файле. На данный момент мой файл выглядит следующим образом:
Файл JSON:
"bindings": [
{
"name": "myblob",
"type": "blobTrigger",
"path": "input-raw",
"connection": "AzureWebJobsStorage",
"direction": "in"
},
{
"name": "outputblob",
"type": "blob",
"path": "{blobTrigger}-copy",
"connection": "AzureWebJobsStorage",
"direction": "out"
}
],
"disabled": false,
"scriptFile": "__init__.py"
}
init .py:
import logging
import azure.functions as func
def main(myblob: func.InputStream, outputblob: func.Out[func.InputStream]):
logging.info(f"Python blob trigger function processed blob \n"
f"Name: {myblob.name}\n"
f"Blob Size: {myblob.length} bytes")
outputblob.set(myblob)
Моя функция выбирает файл в папке и копирует его с «копией» в конце в ту же папку. Есть ли простой способ получить доступ к данным и отредактировать их с помощью python?
Теперь я попробовал пакеты 'csv', 'io' и 'fileinput', чтобы прочитать информацию, но я не смог до сих пор, чтобы редактировать или даже просматривать данные в моем VisualStudioCode.
Если вам нужна дополнительная информация, дайте мне знать.
Best P