Я хочу записать свою коллекцию в файл .parquet, чтобы впоследствии ее можно было прочитать с помощью Spark.
Пока я создаю файл с этим кодом:
package com.contrib.parquet
import org.apache.avro.SchemaBuilder
import org.apache.avro.reflect.ReflectData
import org.apache.hadoop.conf.Configuration
import org.apache.hadoop.fs.Path
import org.apache.parquet.avro.AvroParquetWriter
import org.apache.parquet.hadoop.{ParquetFileWriter, ParquetWriter}
import org.apache.parquet.hadoop.metadata.CompressionCodecName
object ParquetWriter {
def main(args: Array[String]): Unit = {
val schema = SchemaBuilder
.record("Record")
.fields()
.requiredString("name")
.requiredInt("id")
.endRecord()
val writer: ParquetWriter[Record] = AvroParquetWriter
.builder(new Path("/tmp/parquetResult"))
.withConf(new Configuration)
.withDataModel(ReflectData.get)
.withCompressionCodec(CompressionCodecName.SNAPPY)
.withSchema(schema)
.withWriteMode(ParquetFileWriter.Mode.OVERWRITE)
.build()
Seq(Record("nameOne", 1), Record("nameTwo", 2)).foreach(writer.write)
writer.close()
}
case class Record(name: String, id: Int)
}
, которыйуспешно создает файл паркета.Когда я пытаюсь прочитать этот файл с помощью spark, я получаю ошибку java.lang.NoSuchMethodError: org.apache.parquet.column.values.ValuesReader.initFromPage
.
Код Spark:
val master = "local[4]"
val sparkCtx = SparkSession
.builder()
.appName("ParquetReader")
.master(master)
.getOrCreate()
val schema = Encoders.product[Record].schema
val df = sparkCtx.read.parquet("/tmp/parquetResult")
df.show(100, false)
Как записать файлы Parquet, чтобы их можно было прочитать с помощью Spark?Я не хочу иметь локальное приложение Spark, чтобы написать этот файл.