python GPU: как работать с массивом вещания? - PullRequest
0 голосов
/ 03 марта 2020

Я родом из традиционного программирования на Matlab, но пытаюсь перейти на python. В matlab, аналогично numpy, он может обрабатывать автоматические c «широковещательные» операции, когда вы выполняете поэлементные операции, например, над матрицами 1 x M и N x 1, что должно привести к результирующей матрице N x M.

Из моего тестирования при использовании matlab gpuArray's, он автоматически обрабатывает трансляцию для оптимизации памяти. Когда я пытаюсь использовать numda.cuda.jit, у меня возникают проблемы с памятью на том же графическом процессоре. Кто-нибудь знает библиотеку или метод для автоматической минимизации широковещательной передачи массива, чтобы мне не нужно было реплицировать каждый массив по его одноэлементному измерению?

...