Прежде всего, обычно рекомендуется запускать сеть с пакетной нормализацией, которая в любом случае будет более или менее ограничивать значения от -1 до 1.
Функция активации скрытых слоев должна иметь нелинейность, чтобы иметь возможность обрабатывать более высокие уровни сложности. Поэтому я бы выбрал relu или один из его вариантов.
В конце сети, на последнем уровне, у вас может быть плотный слой без функции активации, позволяющей отображать отрицательные значения.