<b>file_loc = 'T3.tsv'
T3_df = spark.read.csv(file_loc, header=False, sep="\t")</b>
Я получаю сообщение об ошибке ввода / вывода, сообщая Py4JJavaError при чтении файла -
Произошла ошибка при вызове o29.csv. :
org.apache.spark.SparkException: задание прервано из-за сбоя этапа: задание 0 на этапе 0.0 не выполнено 1 раз, последний сбой: потерянное задание 0.0 на этапе 0.0 (TID 0, localhost,драйвер исполнителя): org.apache.hadoop.fs.FSError: java.io.IOException: ошибка ввода-вывода в org.apache.hadoop.fs.RawLocalFileSystem $ LocalFSFileInputStream.read (RawLocalFileSystem.java:163) в java.io. BufferedInputStream.read1 (BufferedInputStream.java:284)
Причина: java.io.IOException: ошибка ввода-вывода в java.io.FileInputStream.readBytes (собственный метод) в java.io.FileInputStream.read (FileInputStream.java:255)