Например, значение альфа по умолчанию в Activation-ELU равно 1. Как установить его на 1,5 (скажем). В другом фреймворке, таком как PyTorch, мы можем сделать это с помощью torch.nn.ELU (1.5). Я не могу найти документацию в Deeplearning4J.
Вы можете просто указать .activation (new ActivationELU (myAlpha)) в построителе слоев.