если я установил альфа = 1, я просто расширил обычную функцию Relu вниз. Следует ли рассматривать эту функцию как линейную функцию активации?
Да, Leaky ReLU с альфа, равным 1, на самом деле является функцией линейной активации.