Я квантовал MobileNetV2 с линейным выходом. Conv + BN + Relu были объединены с ConvBnReLU2d, а Linear + Relu был объединен со слоем LinearReLU. При его выполнении я получаю сообщение об ошибке:
Не удалось найти ядро для отправки для оператора 'quantized :: linear_relu'.
Кажется, что все слои conv работают правильно. Согласно документации поддерживается LinearReLU: https://pytorch.org/docs/stable/quantization.html#torch.nn.intrinsic.LinearReLU