На этом изображении У меня есть две переменные, которые зависят друг от друга.Во-первых, «K» является результатом конкатенации между определенным векторным «шумом» и одним горячим пикселем, кодирующим «новый», в то время как шум на втором шаге по времени является результатом того, что K распространяется с предыдущего временного шага, и отличается »новости "сопровождают эту прогрессию (как в различных пикселях в последовательности от изображения).Моя проблема в том, что copy.deepcopy, похоже, не разделяет два случая шума
Я попытался поместить индексы для разных шумов и сначала добавить новые измерения в него, прежде чем обновлять индекс, а затем выполнять глубокое копирование ...не работалКажется, что значение шума зависит только от взаимодействия между новым под рукой и вектором нулевого шума, сцепленным и распространенным вперед. Я тестирую его на MNIST csv, и большинство первых значений csv равны нулю, в некоторых точках значениерезко меняется, как и в случае другого горячего кодирования, соответствующего более темным пикселям, затем, когда нулевое значение возвращается, оно возвращается к исходному значению, которое оно имело ... Я ожидаю, что оно будет накапливать информацию и не иметь никакого воспоминания о прошлых значениях пикселей.
for x,y in a.items():
indexo = []
indexo.append(y)
indexo = np.asarray(indexo)
new = np.zeros((z,aaa))
new[np.arange(z), indexo] = 1
new=np.ndarray.flatten(new)
voo=np.concatenate((voo,vii))
vg[newo_index]=copy.deepcopy(new)
print(noise.shape)
print(noise[noise_index])
k=np.concatenate((noise[noise_index],vg[newo_index]),axis=0)
noise=np.concatenate((noise,np.zeros((1,4))))
print(noise.shape)
noise_index+=1
k=k.reshape((1,260,1))
noise[noise_index]=copy.deepcopy(model1.predict(k))
print(noise[noise_index])
(3, 4)
[0. 0. 0. 0.]
(4, 4)
[0.02567281 0.40914842 0.22369435 0.08106659]
(4, 4)
[0.02567281 0.40914842 0.22369435 0.08106659]
(5, 4)
[0.02619855 0.40627998 0.2288992 0.08426424]
(5, 4)
[0.02619855 0.40627998 0.2288992 0.08426424]
(6, 4)
[0.02620577 0.40642107 0.22897767 0.08420368]
(6, 4)
[0.02620577 0.40642107 0.22897767 0.08420368]