Я прочитал пару CSV-файлов с помощью Pandas из моего узла драйвера, я преобразовал DataPrame Pandas в Koalas Dataframe, и, наконец, я хочу вставить данные из Koalas в таблицу Delta, но я получил ошибку:
import databricks.koalas as ks
import pandas as pd
import glob
all_files = glob.glob('/databricks/driver/myfolder/')
li = []
for filename in all_files:
df = pd.read_csv(filename, index_col=None, header=0)
li.append(df)
frame = pd.concat(li, axis=0, ignore_index=True)
df = ks.from_pandas(frame)
df.to_delta('dbfs:/FileStore/filesTest/%s' % tablename, mode='append')
ОШИБКА: при вызове o237.save произошла ошибка. : java.lang.IllegalStateException: Не удается найти идентификатор REPL в локальных свойствах Spark. Spark-submit и R не поддерживают транзакции записи из разных кластеров. Если вы используете R, пожалуйста, переключитесь на Scala или Python. Если вы используете spark-submit, пожалуйста, преобразуйте его в JAR-задание Databricks. Или вы можете отключить многокластерную запись, установив для «spark.databricks.delta.multiClusterWrites.enabled» значение «false». Если это отключено, запись в одну таблицу должна происходить из одного кластера. Пожалуйста, проверьте https://docs.databricks.com/delta/delta-intro.html#frequently-asked-questions-faq для более подробной информации.
