Если масштаб данных огромен и постоянно растет, как мне записать данные в файл CSV из таблицы Кассандры с помощью Spark?Проблема масштабная, не связана с какими-либо проблемами, связанными с инфраструктурой, из-за моего собственного кода;следовательно, прося хорошо проверенные инструменты и методы.На аналогичной ноте, является ли искра лучшим выбором в отношении скорости?
Схема таблицы в Кассандре:
c_sql = "CREATE TABLE IF NOT EXISTS {} (id varchar, version int, row varchar, row_hash varchar, PRIMARY KEY((version), id))".format(
self.table_name
)