Как использовать функцию `prepare` из PyCUDA - PullRequest
3 голосов
/ 05 августа 2011

У меня проблемы с передачей правильных параметров в функцию prepare (и в подготовленный вызов) для выделения общей памяти в PyCUDA .Я понимаю сообщение об ошибке таким образом, что одна из переменных, которые я передаю PyCUDA, это long вместо того, что я намеревался float32.Но я не могу понять, откуда берется эта переменная.

Кроме того, мне кажется, что официальный пример и документация prepare противоречат друг другуотносительно того, должно ли block быть None или нет.

from pycuda import driver, compiler, gpuarray, tools
import pycuda.autoinit
import numpy as np

kernel_code ="""
__device__ void loadVector(float *target, float* source, int dimensions )
{
    for( int i = 0; i < dimensions; i++ ) target[i] = source[i];
}
__global__ void kernel(float* data, int dimensions, float* debug)
{
    extern __shared__ float mean[];
    if(threadIdx.x == 0) loadVector( mean, &data[0], dimensions );
    debug[threadIdx.x]=  mean[threadIdx.x];
}
"""

dimensions = 12
np.random.seed(23)
data = np.random.randn(dimensions).astype(np.float32)
data_gpu = gpuarray.to_gpu(data)
debug = gpuarray.zeros(dimensions, dtype=np.float32)

mod = compiler.SourceModule(kernel_code)
kernel = mod.get_function("kernel")
kernel.prepare("PiP",block = (dimensions, 1, 1),shared=data.size)
grid = (1,1)
kernel.prepared_call(grid,data_gpu,dimensions,debug)
print debug.get()

Выход

Traceback (most recent call last):
File "shared_memory_minimal_example.py", line 28, in <module>
kernel.prepared_call(grid,data_gpu,dimensions,debug)
File "/usr/local/lib/python2.6/dist-packages/pycuda-0.94.2-py2.6-linux-x86_64.egg/pycuda/driver.py", line 230, in function_prepared_call
func.param_setv(0, pack(func.arg_format, *args))
pycuda._pvt_struct.error: cannot convert argument to long

1 Ответ

6 голосов
/ 31 мая 2013

Я столкнулся с этой же проблемой, и мне потребовалось некоторое время, чтобы выработать ответ, так что здесь идет.Причиной сообщения об ошибке является то, что data_gpu является экземпляром GPUArray, то есть вы сделали его с помощью

data_gpu = gpuarray.to_gpu(data)

. Чтобы передать его подготовленному вызову, необходимо выполнить data_gpu.gpudata, чтобы получить связанный DeviceAllocation instance (т. е. фактически указатель на область памяти устройства).

Кроме того, передача аргумента block для подготовки теперь устарела - поэтому правильный вызов будет выглядеть примерно так:

data_gpu = gpuarray.to_gpu(data)
func.prepare( "P" )
grid = (1,1)
block = (1,1,1)
func.prepared_call( grid, block, data_gpu.gpudata )
...