Насколько я знаю, это не совсем возможно.Я думаю, что они используют вариант алгоритма оптимизации BFGS, чтобы максимизировать апостериорную вероятность моделей.Поэтому, как я понимаю, единственный способ обучения модели - это учесть весь набор данных, который вы хотите использовать.Причина, по которой трансферное обучение работает с нейронными сетями, заключается в том, что это просто инициализация веса (параметра), а затем обратное распространение выполняется итеративно в стандартной схеме обучения SGD.Теоретически вы можете инициализировать параметры для параметров предыдущей модели в случае пророка, который может работать, а может и не работать, как ожидалось.Однако я не знаю, что что-то из подобных в настоящее время реализовано (но, поскольку он с открытым исходным кодом, вы могли бы попробовать его, надеясь, что немного сократите время конвергенции).
Теперь, насколько это касается практического совета,Вам, вероятно, не нужны все данные, просто укажите, что вам действительно нужно для решения проблемы.Например, не имеет смысла иметь данные за 10 лет, если у вас есть только месячная сезонность.Также в зависимости от того, насколько сильно ваши данные автокоррелированы, вы можете немного уменьшить частоту дискретизации, не теряя никакой предсказательной силы.Другой идеей было бы попробовать алгоритм, который подходит для онлайн-обучения (или пакетного обучения). Например, вы можете попробовать CNN с расширенной сверткой.