Похоже, что распознавание текста работает плохо при прохождении краев текста.
Лучше применять порог вместо использования Canny.
Я предлагаю следующие этапы:
- Преобразование из цветового пространства BGR в HSV и получение цветового канала S (насыщенности) HSV.
Все серые пиксели в S имеют вид ноль, а цветные пиксели выше нуля. - Преобразование в двоичный файл с использованием автоматического значения c (используйте
cv2.THRESH_OTSU
). - Обрезать контур с максимальным размером.
Поскольку изображение, которое вы разместили, содержит некоторый фон. - Нанесите OCR на обрезанную область.
Вот код:
import numpy as np
import cv2
import imutils # https://pypi.org/project/imutils/
import pytesseract
pytesseract.pytesseract.tesseract_cmd = r'C:\Program Files\Tesseract-OCR\tesseract.exe' # I am using Windows
img = cv2.imread('image1.png') # Read input image
# Convert from BGR to HSV color space
hsv = cv2.cvtColor(img, cv2.COLOR_BGR2HSV)
# Get the saturation color channel - all gray pixels are zero, and colored pixels are above zero.
s = hsv[:, :, 1]
# Convert to binary using automatic threshold (use cv2.THRESH_OTSU)
ret, thresh = cv2.threshold(s, 0, 255, cv2.THRESH_BINARY + cv2.THRESH_OTSU)
# Find contours (in inverted thresh)
cnts = cv2.findContours(thresh, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_NONE)
cnts = imutils.grab_contours(cnts)
# Find the contour with the maximum area.
c = max(cnts, key=cv2.contourArea)
# Get bounding rectangle
x, y, w, h = cv2.boundingRect(c)
# Crop the bounding rectangle out of thresh
thresh_card = thresh[y:y+h, x:x+w].copy()
# OCR
result = pytesseract.image_to_string(thresh_card)
print(f"OCR Results:\n {result}")
# Show images for debugging
cv2.imshow('s', s)
cv2.imshow('thresh', thresh)
cv2.imshow('thresh_card', thresh_card)
cv2.waitKey(0)
cv2.destroyAllWindows()
OCR Результат:
Visa Classic
| By)
4000 1234 Sb18 9010
CARDHOLDER MARE
VISA
Все еще не идеально ...
с:
трех sh:
thresh_card: