У меня есть тензор x
и x.shape=(batch_size,10)
, теперь я хочу взять
x[i][0] = x[i][0]*x[i][1]*...*x[i][9] for i in range(batch_size)
Вот мой код:
for i in range(batch_size):
for k in range(1, 10):
x[i][0] = x[i][0] * x[i][k]
Но когда я реализую это в forward()
и звоните loss.backward()
, скорость обратного распространения очень низкая.Почему он медленный и есть ли способ эффективно его реализовать?