Краткий ответ - НЕТ. Использование стандартных слоев DNN не будет автоматически фиксировать это отношение A/B
, поскольку стандартные слои, такие как Conv/Dense
, будут выполнять только операции умножения матриц.
Чтобы упростить обсуждение, давайте предположим, что ваш входной объект двумерный, где первое измерение равно A
, а второе - B
. Применение слоя Conv
к этой функции просто запоминает матрицу весов w
и смещение b
y = w * [f_A, f_B] + b = w_A * f_A + w_B * f_B + b
Как видите, у этого представления нет способа имитировать или даже аппроксимировать операцию отношения между A
и B
.
Вам не нужно использовать функцию C
так же, как функцию A
и B
. Вместо этого может быть лучше сохранить функцию C
в качестве отдельного входа, поскольку ее динамический диапазон может сильно отличаться от значений A
и B
. Это означает, что вы можете иметь сеть с несколькими входами, где каждый вход имеет свои собственные слои извлечения объектов, и результирующие объекты из обоих входов можно объединить вместе, чтобы предсказать вашу цель.