В документации keras функция keras.activations.relu(x, alpha=0.0, max_value=None, threshold=0.0)
определяется как:
f(x) = max_value for x >= max_value,
f(x) = x for threshold <= x < max_value,
f(x) = alpha * (x - threshold) otherwise.
Я провел небольшой тест с alpha=0.01
, threshold=5.0
и max_value=100.0
и для x=5.0
вывода Я получаю f(x)=0.0
.
Если я не ошибаюсь, поскольку x == threshold
, я должен получить f(x)=x=5.0
.
Может кто-нибудь объяснить, пожалуйста?
Спасибо,