Ошибка: Исключение в потоке "main" java.lang.ClassCastException: sun.nio.fs.UnixPath не может быть приведено к org.apache.parquet.io.OutputFile - PullRequest
0 голосов
/ 18 апреля 2019

Я пытаюсь преобразовать xml-файл в avro, а затем в паркетный формат без использования инструментов больших данных.Я могу преобразовать его в avro, но получаю ошибку после этого:

Исключение в потоке "main" java.lang.ClassCastException: sun.nio.fs.UnixPath не может быть приведено к org.apache.parquet.io.OutputFile at Parquet.ConversionToParquet.main (ConversionToParquet.java:65)

Ниже приведен мой код:

import java.io.ByteArrayOutputStream;
import java.io.FileOutputStream;
import java.io.InputStream;
import java.nio.file.Path;
import java.nio.file.Paths;
import org.apache.avro.Schema;
import org.apache.avro.generic.GenericData;
import org.apache.hadoop.conf.Configuration;
import org.apache.parquet.avro.AvroParquetWriter;
import org.apache.parquet.hadoop.ParquetWriter;
import org.apache.parquet.hadoop.metadata.CompressionCodecName;
import org.apache.parquet.io.OutputFile;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

import javax.xml.XMLConstants;
import javax.xml.bind.JAXBContext;
import javax.xml.validation.SchemaFactory;


public class ConversionToParquet {

    private static final Logger LOGGER = LoggerFactory.getLogger(ConversionToParquet.class);

    private static final Path inputPath = Paths.get("/home/lucky/output.avro");
    private static final Path outputPath = Paths.get("/home/lucky/Desktop/sample.parquet");

    public static void main(String[] args) throws Exception {

        JAXBContext jaxbContext = JAXBContext.newInstance(ObjectFactory.class);
        javax.xml.validation.Schema newSchema = SchemaFactory
                .newInstance(XMLConstants.W3C_XML_SCHEMA_NS_URI)
                .newSchema(ConversionToParquet.class.getResource("/question.xsd"));
        XmlSerializer<Question> xmlSerializer = new XmlSerializer<>(
                jaxbContext, newSchema);
        InputStream questionStream = ConversionToParquet.class.getResourceAsStream(
                "/question.xml");
        Question question = xmlSerializer.readFromXml(questionStream);

        AvroSchemaGenerator schemaGenerator = new AvroSchemaGenerator();
        Schema questionSchema = schemaGenerator.generateSchema(Question.class);

        AvroSerializer<Question> avroSerializer = schemaGenerator.createAvroSerializer(questionSchema);
        ByteArrayOutputStream avroByteStream = new ByteArrayOutputStream();

        avroSerializer.writeToAvro(avroByteStream, question);
        byte[] avroBytes = avroByteStream.toByteArray();

        avroSerializer.writeToAvro(new FileOutputStream("/home/lucky/output.avro"), question);

        System.out.println("File Converted to Avro");


        try (ParquetWriter writer = AvroParquetWriter
                .builder((OutputFile) outputPath)
                .withSchema(questionSchema)
                .withConf(new Configuration())
                .withCompressionCodec(CompressionCodecName.SNAPPY)
                .build()){

            for (Path record : inputPath) {
                writer.write(record);
            }
        }
        System.out.println("File Convereted Successfully");
    }
}

1 Ответ

0 голосов
/ 18 апреля 2019

Ошибка в этой строке:

.builder((OutputFile) outputPath)

Самое простое решение - использовать устаревший метод builder с параметром org.apache.hadoop.fs.Path, который отличается от класса java.nio.file.Path, который вы в настоящее время импортируете.

...