У меня есть одно развертывание Spark.Я использую сервер JDBC / ODBC на нем.Который работает отлично.Однако если я одновременно использую pyspark для сохранения таблицы (df.write.saveAsTable()
), я получаю очень длинное сообщение об ошибке.Я думаю, что основная часть этого такова:
Caused by: ERROR XSDB6: Another instance of Derby may have already booted the database /root/spark/bin/metastore_db.
Проведя некоторые исследования, я обнаружил, что это вызвано тем, что Spark создает новый сеанс, который пытается создать еще один экземпляр Derby, который вызывает ошибку.Предлагаемое решение состоит в том, чтобы закрыть все другие процессы искровых оболочекОднако если я это сделаю, то сервер ODBC перестанет работать.
Что я могу сделать, чтобы оба работали одновременно?