Мне было интересно, возможно ли это?Может ли кто-нибудь указать, если я где-то не так?Я - новичок в CUDA.
__global__ void run_multiple_cpp(int *n, int *result){
int i = blockDim.x*blockIdx.x + threadIdx.x;
if (i < n){
result[i] = system("//path to a.out" -parameters[i])
}
}
int main(void){
// Get input here,
// kernel call which splits the input as shown above
return 0;
}
Мой вопрос заключается в том, возможно ли это без необходимости писать файл CPP, дружественный CUDA. Я пытался использовать __ device__ и __ host __ flags, но мое приложение слишком велико, чтобы его можно было модифицировать для поддержки CUDA.
Вышеуказанная операция всегда основана на различном наборе входных данных - я пробовал многопоточность ЦП, ноМне нужно запустить это приложение для большого набора входов.Поэтому я спросил.