У меня есть удостоверение личности (шаблон с фиксированным изображением). Удостоверение личности является фиксированным шаблоном, но камеры снимают его с очень разным освещением, углами и уровнем масштабирования.
Я подумал использовать нейронную сеть для обнаружения текстовых строк, и на самом деле пробовал много моделей, таких как text-detection-ctpn
, но они сообщают о плохих результатах. Я тренировал свою модель, генерируя изображения удостоверений личности с помощью какого-либо инструмента, поскольку набор данных должен быть достаточно большим, а моего набора данных недостаточно. Кроме того, NN намного медленнее во время выполнения, используя CPU (не GPU)
Теперь я думаю использовать вместо обработки изображений. (например, в opencv с использованием controus после обрезки и применения canny), но проблема в том, что изображения отличаются (как упоминалось ранее).
Есть ли другая идея, такая как HOG, SVM, которая может найти текстовые строки, которые зафиксированы в шаблонах?