Каков наилучший способ чтения паркета данных для диапазона данных с использованием фрейма данных spark (scala / java)? - PullRequest
0 голосов
/ 08 ноября 2018

Каков наилучший способ считывания паркета данных для диапазона данных с использованием фрейма данных spark (scala / java)?

Данные разбиты на основе столбцов даты, таких как год, месяц и день, подстановочные знаки можно использовать и как лучше всего это сделать?

val dataframe = sqlContext
  .read
  .parquet("file:///your/path/data=jDD/year=2015/month=10/day={5,6}/*")

Подстановочные знаки также можно использовать для указания диапазона месяцев, дней:

val dataframe = sqlContext
  .read
  .parquet("file:///your/path/data=jDD/year=2015/month=[1-5]/day=[5-10]/*")
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...