Как сделать процесс предсказания, записанный в python параллельно в GPU? - PullRequest
0 голосов
/ 26 февраля 2020

У меня есть модель обученного классификатора (NN), сгенерированная структурой tenorflow. на go для процесса прогнозирования на последовательных кадрах, я делю каждый кадр на части и применяю процесс извлечения и прогнозирования признаков. После последовательного запуска кода я обнаружил, что есть повторяющийся процесс - извлечение признаков + прогнозирование. чтобы получить лучшую скорость обработки классификации каждого кадра, хотя об использовании параллельного программирования на графическом процессоре и разделении обработки каждой части изображений на разные ядра графического процессора, возможно ли это?

Обратите внимание, что: * мой код написан в python. * Процесс извлечения функций содержит встроенные функции: Opencv, sklearn, numpy .. et c. * Модель представляет собой последовательную модель тензорных кер. * Я разделил обработку на процессорах (12 ядер), используя многопроцессорную библиотеку, и она работала нормально. Можно ли в любом случае сделать то же самое на GPU, чтобы воспользоваться преимуществами важного числа ядер, даже если функции и прогноз исходят из разных структур?

...