Мне нужно найти способ вычислить обратную матрицу некоторого типа распределенных данных в Spark. Данные являются чисто числовыми, и любой способ выполнить эту операцию в Rowmatrices / DataFrames / RDDs был бы невероятно полезным. Хотя есть некоторые сообщения о переполнении стека на подобные вещи, они включают преобразование в локальные типы данных, что просто невозможно по количеству обрабатываемых данных.
Я просматривал использование Breeze для Scala и DenseMatrices в Spark, но кажется, что они не распределены и могут быть не настолько масштабируемыми, как необходимо.