Я хочу использовать поток CUDA в Pytorch для параллелизма некоторых вычислений, но я не знаю, как это сделать.Например, если нужно распараллелить 2 задачи, A и B, я хочу сделать следующее:
stream0 = torch.get_stream()
stream1 = torch.get_stream()
with torch.now_stream(stream0):
// task A
with torch.now_stream(stream1):
// task B
torch.synchronize()
// get A and B's answer
Как мне достичь цели в реальном коде Python?