Я использовал функции активации, такие как ReLU, tanh и сигмовидная активация. Однако сейчас я хочу создать простую пользовательскую функцию активации. Предположим, я хочу следующую активацию -
if x > 0:
return 1.2*x;
else:
return 0.01*x;
Как написать функцию активации для такой функции активации в тензорном потоке и применить ее ко всем скрытым слоям CNN?