Мое приложение spark заполняет несколько таблиц SQL, которые обслуживаются службой REST.Данные - это запросы, обобщенные и иногда перечисляемые без агрегирования.
Учитывая, что данные предназначены только для чтения, я подумал о замене таблиц SQL файлами паркетных файлов, чтобы упростить обслуживание и повысить производительность.
Является ли этохорошая идея заменить SQL на паркет?
Как выглядит код?