Я использую CUDA SDK 3.1 на MS VS2005 с графическим процессором GTX465 1 ГБ. У меня есть такая функция ядра:
__global__ void CRT_GPU_2(float *A, float *X, float *Y, float *Z, float *pIntensity, float *firstTime, float *pointsNumber)
{
int holo_x = blockIdx.x*20 + threadIdx.x;
int holo_y = blockIdx.y*20 + threadIdx.y;
float k=2.0f*3.14f/0.000000054f;
if (firstTime[0]==1.0f)
{
pIntensity[holo_x+holo_y*MAX_FINAL_X]=0.0f;
}
for (int i=0; i<pointsNumber[0]; i++)
{
pIntensity[holo_x+holo_y*MAX_FINAL_X]=pIntensity[holo_x+holo_y*MAX_FINAL_X]+A[i]*cosf(k*sqrtf(pow(holo_x-X[i],2.0f)+pow(holo_y-Y[i],2.0f)+pow(Z[i],2.0f)));
}
__syncthreads();
}
и это функция, которая вызывает функцию ядра:
extern "C" void go2(float *pDATA, float *X, float *Y, float *Z, float *pIntensity, float *firstTime, float *pointsNumber)
{
dim3 blockGridRows(MAX_FINAL_X/20,MAX_FINAL_Y/20);
dim3 threadBlockRows(20, 20);
CRT_GPU_2<<<blockGridRows, threadBlockRows>>>(pDATA, X, Y, Z, pIntensity,firstTime, pointsNumber);
CUT_CHECK_ERROR("multiplyNumbersGPU() execution failed\n");
CUDA_SAFE_CALL( cudaThreadSynchronize() );
}
Я загружаю в цикле все параметры этой функции (например, 4096 элементов для каждого параметра в одной итерации цикла). Всего я хочу сделать это ядро для 32768 элементов для каждого параметра после всех итераций цикла.
MAX_FINAL_X - 1920, а MAX_FINAL_Y - 1080.
Когда я запускаю alghoritm, первая итерация идет очень быстро, и после еще одной или двух итераций я получаю информацию об ошибке тайм-аута CUDA. Я использовал этот алгоритм на GPU GTX260, и, насколько я помню, он работал лучше ...
Не могли бы вы помочь мне ... может быть, я делаю какую-то ошибку в соответствии с новой аркой Ферми в этом алгоритме?