Я занимаюсь разработкой Stati c Распознавания жестов рук с использованием нейронных сетей глубокого обучения. Я начал с этой реализации на kaggle - https://www.kaggle.com/ranjeetjain3/deep-learning-using-sign-langugage/notebook#Sign -Language. Точность этого выглядит очень высокой, но когда я пытаюсь сделать прогноз для пользовательских изображений, я получаю неправильные результаты. Как новичок ie, я сомневаюсь в своей интерпретации и нуждаюсь в помощи.
Ниже приведен мой код с предсказанием:
import matplotlib.image as mpimg
import matplotlib.pyplot as plt
# Read Images
infer_image = mpimg.imread('D:\\Mayuresh\\DL using SL MNIST\\input\\infer\\7.png')
plt.imshow(infer_image)
# Resizing before the prediction
infer_image = np.resize(infer_image, (28,28,1))
infer_image_arr = np.array(infer_image)
infer_image_arr = infer_image_arr.reshape(1,28,28,1)
# Prediction
y_pred = model.predict_classes(infer_image_arr)
print(y_pred)
# Dictionary for translation
my_dict2 = {
0: 'a',
1: 'b',
2: 'c',
3: 'd',
4: 'e',
5: 'f',
6: 'g',
7: 'h',
8: 'i',
9: 'k',
10: 'l',
11: 'm',
12: 'n',
13: 'o',
14: 'p',
15: 'q',
16: 'r',
17: 's',
18: 't',
19: 'u',
20: 'v',
21: 'w',
22: 'x',
23: 'y'
}
my_dict2[int(y_pred)]
Может ли кто-то предложить необходимые изменения или фрагмент для прогнозирования жест рукой для одного изображения?