Решение, предложенное @Mitiku, возвращает только входной тензор, но нам нужен слой предшественника.Слой предшественника можно найти следующим образом:
x = <some number>
layer_x = model.layers[x]
int_node = layer_x.inbound_nodes[0]
predecessor_layers = int_node.inbound_layers[0]
В предлагаемом решении мы предполагаем, что layer_x
имеет только один слой предшественника.Чтобы получить этот слой, мы сначала получаем доступ к узлу, который соединяет эти два слоя: int_node
, а затем берет слой, который находится на его входе: int_node.inbound_layers[0]
.
Примечание. Это решение не подходит, поскольку оно имеет доступ к защищенному атрибуту, но работает.