Если вы можете пожертвовать линейностью функции активации, то это легко, вы можете использовать Sigmoid, чтобы получить значение от 0 до 1, а затем просто изменить масштаб выходных данных, вам нужно будет решить некоторые уравнения, чтобы найти параметр масштабирования, который будетбыть в форме
y_in_range = (y_pred + addConst)*multConst
И после небольшой математики вы обнаружите, что addConst = min/(max-min)
и multConst = (max-min)
Но помните, что вы теряете линейностьВаш последний активационный слой, если вы хотите, чтобы он был линейным, вы должны выполнить всю функцию, я знаю, что это также своего рода активация, но я думаю, что это самое близкое к вам использование встроенной функции keras.