Вы должны различать метафорическое представление DNN и его математическое описание. Математика за классическим нейроном - это сумма взвешенных входов + смещение (обычно вызывая функцию активации для этого результата)
Таким образом, в этом случае у вас есть входной вектор, умноженный на весовой вектор (содержащий обучаемые переменные), а затем суммированный с помощью скаляра смещения (также обучаемого)
Если вы теперь рассмотрите слой нейронов вместо одного, веса станут матрицей, а смещение - вектором. Таким образом, вычисление слоя прямой связи является не чем иным, как умножением матрицы, за которым следует сумма векторов.
Это операция, которую вы можете увидеть на графике тензорного потока.
Вы действительно можете построить свою нейронную сеть таким образом, не используя так называемый API высокого уровня, который использует абстракцию уровня. (Многие делали это в первые дни тензорного потока)
Фактическая «магия», которую тензорный поток делает для вас, вычисляет и выполняет производные от этого предисловия, чтобы вычислить обновления для весов.