Предположим, что мы генерируем наши собственные обучающие данные (путем выборки из некоторого процесса распространения и вычисления, например, некоторого количества интересующего его количества) и что у нас есть собственная подпрограмма CUDA под названием generate_data, которая генерирует метки в памяти GPU для данного набора входных данных.
Следовательно, мы находимся в особой настройке, где мы можем генерировать столько пакетов обучающих данных, сколько мы хотим, в режиме «онлайн» (на каждой итерации пакета мы вызываем подпрограмму generate_data для генерации нового пакета иотменить старую партию).
Поскольку данные генерируются на графическом процессоре, есть ли способ заставить TensorFlow (Python API) напрямую использовать его во время процесса обучения?(например, для заполнения заполнителя). Таким образом, такой конвейер будет эффективен.
Насколько я понимаю, в настоящее время вам потребуется такая настройка для копирования ваших данных из GPU в CPU, а затем для копирования TensorFlowэто снова из CPU в GPU, что довольно расточительно при выполнении ненужных копий.
РЕДАКТИРОВАТЬ: если это помогает, мы можем предположить, что подпрограмма CUDA реализована с использованием компилятора CUDA JIT Numba.