Если вы хотите прогнозировать, используя переменную запись соответствия, вы можете использовать LSTM.
Поскольку практически все входы имеют одинаковую "природу", я лично определил бы вес между моделями.
const model = tf.sequential()
model.add(tf.layers.timeDistributed({
layer: tf.layers.dense({units: 4}),
inputShape: [3, 2],
}));
model.add(tf.layers.flatten())
model.add(tf.layers.dense({units: 8}))
model.add(tf.layers.dense({units: 2}))
Но такой же вывод, как мой комментарий сделан. Вы будете сливать спички в более глубокий слой, но они продолжат сливаться. Я не вижу необходимости использовать сеть, отличную от обычной, классической MLP. Эти ограничения интересны, когда вам нужно упростить проблему или ограничить ее (например, важность кадра в видео. Сначала используйте плотное распределение по времени для извлечения объектов, а затем используйте плотное, чтобы объединить объекты).
Проблема этих решений заключается в том, что порядок совпадений имеет значение, чтобы избежать этой проблемы, вы можете использовать эту архитектуру (плавкий с использованием суммы):
const model = tf.sequential()
model.add(tf.layers.timeDistributed({
layer: tf.layers.dense({units: 4}),
inputShape: [3, 2],
}));
model.add(tf.layers.sum(0))
model.add(tf.layers.dense({units: 8}))
model.add(tf.layers.dense({units: 2}))