Не могли бы вы привести пример использования SparklyR stream_read_jdbc():
stream_read_jdbc()
stream_read_jdbc(sc, path, name = NULL, columns = NULL, options = list(), ...)
и stream_write_jdbc(),
stream_write_jdbc()
stream_write_jdbc(x, mode = c("append", "complete", "update"), trigger = stream_trigger_interval(), checkpoint = file.path("checkpoints", random_string("")), options = list(), ...)
желательно подключение к Oracle?Если образец использует любую другую базу данных, которая в порядке.Почему при чтении из JDBC есть параметр пути к файлу?Разве это не точка источника из базы данных, а не из файловой системы?
Хотя spakrlyr действительно обеспечивают следующие функции:
spakrlyr
stream_read_jdbc
stream_write_jdbc
это фактически кусок мертвого кода, поскольку Spark Structured Streaming не поддерживает потоковое чтение и запись с источником JDBC.