Как я могу прочитать файлы паркета в моем ADLS Gen 1 из PowerBI? - PullRequest
0 голосов
/ 15 января 2020

Есть ли разъем для чтения файлов паркетных файлов, существующих в моем хранилище ADLS Gen 1 из PowerBI, и создания отчетов?

Ответы [ 2 ]

1 голос
/ 15 января 2020

Согласно приведенным ниже отзывам, формат паркета в PB пока не поддерживается:

1. https://ideas.powerbi.com/forums/265200-power-bi-ideas/suggestions/15181038-support-avro-file-format

2. https://ideas.powerbi.com/forums/265200-power-bi-ideas/suggestions/30976708-parquet-format-support-for-direct-import-from-azur

enter image description here

Существует платное ПО с именем Data Virtuality Pipes , которое применяется для интеграции файлов паркета с PB.

На мой взгляд, я бы порекомендовал вам по-прежнему оставаться в экосистеме azure. Вы можете видеть, что Копирование ADF поддерживает Текст, JSON, Avro, ИЛИ C и Parquet , чтобы вы могли использовать его для загрузки данных в azure хранилище больших двоичных объектов (что стоит не слишком дорого). Затем вы можете следовать этому учебнику , чтобы интегрировать учетную запись хранения с PB.

0 голосов
/ 06 февраля 2020

, поскольку вы уже находитесь на Azure, вы можете попробовать Azure Синапсовую (ранее известную как SQL DW) функцию. Вы можете создать внешнюю таблицу, указывающую на паркет adls gen2, а затем подключить PowerBI без использования Data Gateway. с другими решениями, такими как Data Virtuality, Dremio (https://www.dremio.com/on-prem/) или apache, вам потребуется шлюз данных onpremises. https://docs.microsoft.com/en-us/sql/t-sql/statements/create-external-file-format-transact-sql?view=azure-sqldw-latest

...