Я новичок в машинном обучении, поэтому все еще пытаюсь обернуть голову вокруг понятий, имейте это в виду, если мой вопрос может быть не таким кратким, как необходимо.
Я создаю модель Tensorflow JS со слоями LSTM для прогнозирования временных рядов (RNN).
Используемый набор данных проверяется каждые несколько сотен миллисекунд (через случайные интервалы). Однако полученные данные могут иметь очень широкие диапазоны, например, большинство полученных данных будет иметь значение 20, 40, 45 и т. Д. c. Однако иногда это значение достигает 75 000 в крайнем конце.
Таким образом, диапазон данных составляет от 1 до 75 000.
Когда я нормализую эти данные, используя стандартный метод min / max для получения значения в диапазоне от 0 до 1, нормализованные данные для большинства запросов данных будут иметь много маленьких значащих десятичных разрядов. например: '0,0038939328722009236'
Итак, мой вопрос (ы):
1) Является ли этот минимум / максимум лучшим подходом для нормализации данных этого типа?
2) Будет ли модель RNN хорошо работать с таким количеством значащих десятичных разрядов и точностью?
3) Должен ли я также нормализовать метку вывода? (из которых будет 1 выходной)
Обновление
Я только что обнаружил очень хороший ресурс по быстрому курсу Google, посвященный подготовке данных для ML. Один из предложенных методов заключается в том, чтобы «обрезать» данные в крайних случаях. Думаю, я бы добавил это сюда для справки: https://developers.google.com/machine-learning/data-prep