Обновлено
В настоящее время я работаю над Tflearn.
У меня есть один вопрос по модели Tensorflow tflearn.Моя модель tflearn работает отлично.Но у меня есть несколько вопросов об этой модели.Я сдал sentence data
в учебных целях.Когда я прошел sentence data
на одном компьютере, то у меня есть одна модель.После этого я пропустил same sentence data
на другом компьютере, затем получил вторую модель.Я проверил эти две модели.Итак, я сдал input sentence data
для одной модели.Затем прошел same input sentence data
для второй модели, затем я заметил, что input data were same
и training data were same
, но выход этих двух моделей был на 70-80% похожим.20-30% варьируются из-за случайности.Как убрать эту случайность в модели?мы используем DNN.
Обновлен синтаксис модели
Я использовал ниже модели: -
train_x = list(self.training[:, 0])
train_y = list(self.training[:, 1])
tf.reset_default_graph()
net = tflearn.input_data(shape=[None, len(train_x[0])])
net = tflearn.fully_connected(net, 8)
net = tflearn.fully_connected(net, 8)
net = tflearn.fully_connected(net, len(train_y[0]), activation='softmax')
net = tflearn.regression(net,optimizer='sgd',shuffle_batches=False,
learning_rate=0.1,loss='categorical_crossentropy')
model = tflearn.DNN(net, tensorboard_dir='tflearn_logs')
model.fit(train_x, train_y, n_epoch=500, batch_size=8, show_metric=True)