Как работает вход (Нет, Нет, 1) в кератах? - PullRequest
1 голос
/ 02 октября 2019

Я работаю над проектом, использующим модель глубокого обучения keras, которую мне нужно перенести в PyTorch. Целью проекта является локализация некоторых элементов на изображениях. Чтобы обучить его, я сначала использую патчи, извлеченные из моих изображений, а затем делаю вывод о полном изображении. Я прочитал, что это было возможно с (None, None, 1) входной формой для входного слоя keras, и это в настоящее время работает. Тем не менее, та же система обучения, кажется, не работает в Pytorch. Поэтому мне было интересно, что входной слой (Нет, Нет, 1) делает что-то конкретное, когда я начинаю выводить полные изображения?

Спасибо за ваши ответы

1 Ответ

0 голосов
/ 02 октября 2019

Как и в обсуждении по ссылке и ссылкам на слова fchollet:

Конечно, не всегда возможно иметь такие свободные измерения (например, невозможно иметь последовательности переменной длины с TensorFlow, но это с Theano).

Можно предположить, что это из-за архитектуры фреймворка. Как вы заявили, он может быть принят в keras , но не принят в PyTorch .

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...