Я использую генератор для создания последовательных обучающих данных для иерархической рекуррентной модели, которой требуются выходные данные предыдущего пакета, чтобы сгенерировать входные данные для следующего пакета.Эта ситуация аналогична аргументу Keras stateful=True
, который сохраняет скрытые состояния для следующего пакета, за исключением того, что он более сложный, поэтому я не могу просто использовать его как есть.
Пока я пытался поместитьвзломать функцию потерь:
def custom_loss(y_true, y_pred):
global output_ref
output_ref[0] = y_pred[0].eval(session=K.get_session())
output_ref[1] = y_pred[1].eval(session=K.get_session())
, но это не скомпилировано, и я надеюсь, что есть лучший способ.Поможет ли обратный вызов Keras?