Как CNN идет от классификации изображений к генерации их? - PullRequest
0 голосов
/ 04 февраля 2019

Я сейчас пытаюсь понять нейронную передачу, о которой говорилось в этом уроке.https://pytorch.org/tutorials/advanced/neural_style_tutorial.html

Возможно, мое понимание cnn еще не очень глубокое, но я не понимаю, как можно сгенерировать изображение из классификационной модели.Как, например, в коде они извлекают слои из VGG cnn и используют их для расчета потери стиля и содержимого.Я могу понять, как вы можете сравнить {input}: layer: {output} с {content}: layer: {output}, чтобы получить оценки, но что не имеет смысла, так это модель, которая возвращается для генерации изображений,

То, как работает любая модель поколения, похоже на модель перевода.Там, где вы кормите примеры, и он узнает, как кодировать и декодировать ваши входные данные на другом языке.

Однако, с этим CNN, я не могу понять, где они добавляют этот шаг декодирования?Поскольку этот CNN был создан только для классификации, не требуются ли дополнительные слои для искажения изображения?

Всегда ли карты объектов, возвращаемые слоями конво, всегда имеют ту же форму, что и во входном изображении?Объединяют ли они функции, возвращаемые моделью стиля, и функции, возвращаемые моделью содержимого, и используют это для создания изображения?

Кроме того, обратите внимание, я где-то читал, что сгенерированное изображение начинается как случайный шум?Я не понимаю, как можно нарисовать какие-либо объекты из случайного шума.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...