Я пытаюсь запустить программу языкового моделирования.Когда я использую последовательность данных с 15000 предложениями в документе, программа работает правильно.Но, когда я пытаюсь изменить данные на более крупные (в 10 раз больше), возникает ошибка, как показано ниже:
Traceback (most recent call last):
File "<ipython-input-2-aa5ef9098286>", line 1, in <module>
runfile('C:/Users/cerdas/Documents/Bil/Lat/lstm-plato-lm/platolm.py', wdir='C:/Users/cerdas/Documents/Bil/Lat/lstm-plato-lm')
File "C:\Users\cerdas\Anaconda3\lib\site-packages\spyder\utils\site\sitecustomize.py", line 705, in runfile
execfile(filename, namespace)
File "C:\Users\cerdas\Anaconda3\lib\site-packages\spyder\utils\site\sitecustomize.py", line 102, in execfile
exec(compile(f.read(), filename, 'exec'), namespace)
File "C:/Users/cerdas/Documents/Bil/Lat/lstm-plato-lm/platolm.py", line 35, in <module>
y = to_categorical(y, num_classes=vocab_size)
File "C:\Users\cerdas\Anaconda3\lib\site-packages\keras\utils\np_utils.py", line 30, in to_categorical
categorical = np.zeros((n, num_classes), dtype=np.float32)
MemoryError
вот предполагаемая строка кода ошибки:
model.compile(loss='categorical_crossentropy', optimizer='adam', metrics=['accuracy'])
, а также np.utils
categorical = np.zeros((n, num_classes), dtype=np.float64)
Я пытаюсь найти решение для аналогичной проблемы, я обнаружил, что мне нужно изменить categorical_crossentropy
на sparse_categorical_crossentropy
.Я сделал это, но это все еще ошибка с той же трассировкой.
Спасибо