Я получил временные данные за 15 лет, которые я использую для построения модели нейронной сети. В настоящее время я пытаюсь определить лучшую сетевую архитектуру и гиперпараметры, поэтому я использую прямую цепочку, которая, как мне кажется, очень хорошо объясняет приведенное ниже изображение:
![image](https://i.stack.imgur.com/fXZ6k.png)
Насколько я понимаю, этоодин из лучших способов обучения с использованием временных данных. Альтернативой может быть использование обучающего набора фиксированного размера на всех этапах, но это ограничит объем используемых данных, которых я бы лучше избегал.
Тогда мой вопрос:
- Будет ли определенный параметр архитектуры / гиперпараметра давать разные результаты для наборов данных разных размеров? Например, может ли моя сеть хорошо работать для набора данных с 10000 точек, но плохо для одного с только 1000 точек?
Путем базового тестирования, которое я провел самостоятельно, я бы предположил, что оно работает.
Если это так, как лучше всего бороться с этим, чтобы я мог получить представление о точности модели на каждом этапе?