Буфер для стабилизации GAN в парадигме Tensor2Tensor / Estimator - PullRequest
0 голосов
/ 09 ноября 2018

Я хотел бы стабилизировать обучение GAN, сохраняя историю сгенерированных примеров, которые будут по-прежнему поступать на дискриминатор вместе с током G (x), чтобы предотвратить перенастройку D в текущую версию G.

Я также хотел бы сделать это в рамках парадигмы Tensor2Tensor, Estimator и MonitoredTrainingSession, учитывая их преимущества (например, мониторинг, распределение, устройства и т. Д.).

Таким образом, решение не кажется таким простым, как при написании цикла тренировки сеанса, который может просто возвращать G (x) из sess.run () и комбинировать их с примерами для последующей итерации.

Одним из хороших решений, по-видимому, является использование tf.RandomShuffleQueue, которое будет иметь дополнительное преимущество в поддержании распределения G (x) по всей истории G.

У кого-нибудь есть идея получше?

...