При преобразовании модели TF в модель tflite (или другими словами - квантовании модели с помощью «посттренировочного квантования») слои Relu исчезают с графика. Это объясняется в документации : "операции, которые можно просто удалить из графа (tf.identity), заменить тензорами (tf.placeholder) или объединить в более сложные операции (tf.nn.bias_add ). "
Мой вопрос - как можно объединить слой Relu с предыдущим слоем? (Какая математика помимо этого «слияния»? Это специальная процедура c для квантованных моделей, или это можно сделать также в исходной модели с плавающей запятой?)