Как воспроизвести тот же результат, используя Conv2d в Tensorflow.Keras? - PullRequest
0 голосов
/ 05 мая 2019

Я также читал много сообщений о переполнении стека на Github по этой теме, но думаю, что моя ситуация может немного отличаться.

Мой код начинается, как показано ниже, и я могу последовательно воспроизвести результат на 100%, если использую только плотный слой.

import numpy as np
import random as rn
import tensorflow as tf
import os
os.environ['PYTHONHASHSEED'] = '0'
np.random.seed(1)
rn.seed(2)
session_conf = tf.ConfigProto(intra_op_parallelism_threads=1, inter_op_parallelism_threads=1)
from tensorflow.keras import backend as K
tf.set_random_seed(3)
sess = tf.Session(graph=tf.get_default_graph(), config=session_conf)
K.set_session(sess)

Однако, каждый раз, когда я бегу, я получаю разные результаты, если вставляю эту одну строку "model.add (Conv2D (32, 3, Activation = 'relu'))" перед "model.add (Flatten ())" .

Input> flatten> density дает согласованный результат, но input> conv2d> flatten> density дает разные результаты каждый раз, когда я запускаю код.

Буду признателен за любые указания.

...