Повышение точности текста при извлечении текста из файла изображения OCR - PullRequest
0 голосов
/ 05 мая 2019

Я пытаюсь прочитать несколько изображений и извлечь из них определенный текст.Я использую Pytesseract и OpenCV для достижения того же.Я попробовал приведенный ниже код на двух изображениях, кажется, он работает на одном изображении, но не на другом.

Код:

    img = cv2.imread(img_path)
    img = cv2.resize(img, None, fx=3.0, fy=3.0, interpolation=cv2.INTER_CUBIC)
    img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY)
    kernel = np.ones((1, 1), np.uint8)
    img = cv2.dilate(img, kernel, iterations=1)
    img = cv2.erode(img, kernel, iterations=1)
    img = cv2.adaptiveThreshold(cv2.medianBlur(img, 3), 255, cv2.ADAPTIVE_THRESH_GAUSSIAN_C, cv2.THRESH_BINARY, 31, 2)
    img_text = pytesseract.image_to_string(img, lang='eng')

Изображение 1:

enter image description here

Выход 1: Выделенные тексты очень четко отображаются в выводе, и я легко могу его извлечь.

enter image description here

Поскольку мне нужно прочитать несколько файлов, я ищудля общей настройки, которую можно применить ко всем изображениям, чтобы я мог обернуть ее внутри функции.

Изображение 2:

enter image description here

Выход 2:

85029 -> 65029

enter image description here

...