Могу ли я всегда заменять torch.matmul встроенным оператором python @ для умножения матриц?Пожалуйста, предположите, что я знаю разницу между torch.matmul, torch.mm и многими другими.Я просто хочу убедиться, сколько из них можно безопасно заменить на @ operator, не жертвуя скоростью или какой-либо нативной поддержкой от torch.
Если это не причинит вреда, я хотел бы широко использовать их в будущем.