Я работал над составлением / тестированием техники, которую я разработал для решения дифференциальных уравнений для скорости и эффективности.
Это потребовало бы сохранения, манипулирования, изменения размера и (в некоторой точке) диагонализации очень больших разреженных матриц. Я хотел бы иметь возможность иметь строки, состоящие из нулей и нескольких (скажем, <5), и добавлять их по нескольку за раз (в порядке количества используемых процессоров.) </p>
Я подумал, что было бы полезно иметь ускорение GPU - поэтому любые предложения о том, как наилучшим образом воспользоваться этим преимуществом, также будут оценены (скажем, Pycuda, Theano и т.