неизвестная проблема (S) в нейронной сети keras для регрессии нескольких меток - PullRequest
1 голос
/ 26 апреля 2019

Я новичок в нейронной сети и в keras, пытаюсь убедиться, что все работает, прежде чем использовать мои реальные данные.

поэтому здесь нейронная сеть с 1000 выборками, тремя входами и тремя выходами

X.csv содержит: (индекс повторяется три раза)

1,1,1

2,2,2

до 1000,1000,1000

Y.csv содержит три метки: (индекс, индекс * 5, индекс / 5)

1,5,0.2

2,10,0.4

до 1000 000 000 200

random.seed(42)
X = np.genfromtxt(r'C:\Users\boss\Desktop\X.csv' , delimiter=',')
y = np.genfromtxt(r'C:\Users\boss\Desktop\Y.csv' , delimiter=',')
y1,y2,y3 = y[:, 0:1],y[:, 1:2],y[:, 2:]
X_train, X_test, y1_train, y1_test, y2_train, y2_test, y3_train, y3_test = train_test_split(X, y1,y2,y3, test_size =0.3, random_state = 0)
X_train = sc.fit_transform(X_train)
X_test = sc.transform(X_test)

inp = Input((3,)) 
x = Dense(10, activation='relu')(inp)
x = Dense(10, activation='relu')(x)
x = Dense(10, activation='relu')(x)
out1 = Dense(1,  activation='linear')(x)
out2 = Dense(1,  activation='linear')(x)
out3 = Dense(1,  activation='linear')(x)

model = Model(inputs=inp, outputs=[out1,out2,out3])
model.compile(optimizer = "adam", loss = 'mse')
model.fit(x=X_train, y=[y1_train,y2_train,y3_train], batch_size=100, epochs=10, verbose=1, validation_split=0.3,  shuffle=True)            

#plot predicted data vs real data
y_pred = model.predict(X_test)
plt.plot(y1_test, color = 'red', label = 'Real data')
plt.plot(y_pred[0], color = 'blue', label = 'Predicted data')
plt.title('y1')
plt.legend()
plt.show()

plt.plot(y2_test, color = 'red', label = 'Real data')
plt.plot(y_pred[1], color = 'blue', label = 'Predicted data')
plt.title('y2')
plt.legend()
plt.show()

plt.plot(y3_test, color = 'red', label = 'Real data')
plt.plot(y_pred[2], color = 'blue', label = 'Predicted data')
plt.title('y3')
plt.legend()
plt.show()

к сожалению, как потери, так и потери при проверкеОгромная (миллионы) другая проблема в том, что результаты отличаются каждый раз, несмотря на использование случайного начального числа

1 Ответ

0 голосов
/ 26 апреля 2019

Одной из вероятных причин высоких потерь является небольшое количество эпох - вы редко получите хорошие результаты только с 10. Попробуйте 100, 1000 и т. Д., Чтобы увидеть, как улучшатся результаты.

Для воспроизводимостигенерация случайных чисел, вам также нужно указать начальные числа для Numpy и TensorFlow (если вы используете бэкэнд TensorFlow, который используется по умолчанию).Вот пример, данный этой статьей :

from numpy.random import seed
seed(1)
from tensorflow import set_random_seed
set_random_seed(2)
...