Я полагаю, что каждая входная запись имеет размер (20000, 1)
, и у вас есть 500 записей, которые составляют вашу базу данных?
В этом случае вы можете начать с уменьшения batch_size
, но я также предполагаю, что вы имеете в видучто даже вес сети не умещается в памяти GPU. В этом случае единственное (что я знаю), что вы можете сделать, - это уменьшить размерность.
У вас есть 20000 объектов, но маловероятно, что все они важны для выходного значения. С помощью PCA (Анализ основных компонентов) вы можете проверить важность всех ваших параметров, и вы, вероятно, увидите, что только некоторые из них в совокупности будут на 90% или более важны для конечного результата. В этом случае вы можете игнорировать неважные функции и создать сеть, которая прогнозирует выходные данные, основываясь, скажем, только на 1000 (или даже меньше) функциях.
Важное примечание: единственная причина, по которой я могу думать о том, где вы будетенужно много функций, если вы имеете дело с изображением, спектром (вы можете видеть спектр как одномерное изображение), ... В этом случае я рекомендую изучить сверточные нейронные сети. Они не полностью подключены, что устраняет множество настраиваемых параметров, но, вероятно, работает еще лучше.