Я немного играю с Keras и думаю о том, в чем разница между линейным слоем активации и вообще без слоя активации?Разве это не имеет такое же поведение?Если да, то в чем смысл линейной активации?
Я имею в виду разницу между этими двумя фрагментами кода:
model.add(Dense(1500))
model.add(Activation('linear'))
model.add(Dense(1500))
и
model.add(Dense(1500))
model.add(Dense(1500))