да, вы можете ... вам просто нужно 2 раза повторить вывод модели в определении модели. вы также можете объединить свои потери по-другому, используя параметры loss_weights (по умолчанию [1,1] для двух потерь). Ниже приведен пример фиктивной задачи регрессии. https://colab.research.google.com/drive/1SVHC6RuHgNNe5Qj6IOtmBD5geAJ-G9-v?usp=sharing
def rmse(y_true, y_pred):
error = y_true-y_pred
return K.sqrt(K.mean(K.square(error)))
X1 = np.random.uniform(0,1, (1000,10))
X2 = np.random.uniform(0,1, (1000,10))
y = np.random.uniform(0,1, 1000)
inp1 = Input((10,))
inp2 = Input((10,))
x = Concatenate()([inp1,inp2])
x = Dense(32, activation='relu')(x)
out = Dense(1)(x)
m = Model([inp1,inp2], [out,out])
m.compile(loss=[rmse,'mse'], optimizer='adam') # , loss_weights=[0.3, 0.7]
history = m.fit([X1,X2], [y,y], epochs=10, verbose=2)