[Я новичок в машинном обучении и OpenCV]
Ниже приведены результаты, то есть 68 лицевых ориентиров, которые вы получаете при применении модели лицевых ориентиров DLib, которые можно найти здесь .
В этом сценарии упоминается, что модели были обучены на iBUG 300-W наборе данных наземных ориентиров.
Теперь я хочу создать аналогичную модель для отображения ориентиров руки. У меня здесь набор данных руки .
Что я не получаю, это:
1. как я должен тренировать модель на этих позициях? Должен ли я вручную отмечать каждое соединение на каждом отдельном изображении или есть оптимизированный способ для этого?
2. В модели DLib каждая позиция ориентира лица имеет конкретное значение, например, правые брови составляют 22, 23, 24, 25, 26 соответственно. В какой момент им дали бы эти значения?
3. Достаточно ли будет обучить эти изображения на предикторе формы DLib , обучающем скрипте или мне придется обучать модель и на других платформах (например, Tensorflow + Keras)?