Извлечь текст внутри прямоугольника из изображения - PullRequest
2 голосов
/ 24 октября 2019

У меня есть изображение с несколькими красными прямоугольниками, извлечение и вывод хороши.

Я использую https://github.com/autonise/CRAFT-Remade для распознавания текста

оригинал:

Original

мое изображение:

image

я пытаюсь извлечь текст только по всему прямоугольникус pytesserac, но без успеха. результат вывода:

r

2

aseeaaei

ae

Как мы можем правильно и аккуратно извлечь текст из этого изображения?

часть кода:

def saveResult(img_file, img, boxes, dirname='./result/', verticals=None, texts=None):
        """ save text detection result one by one
        Args:
            img_file (str): image file name
            img (array): raw image context
            boxes (array): array of result file
                Shape: [num_detections, 4] for BB output / [num_detections, 4] for QUAD output
        Return:
            None
        """
        img = np.array(img)

        # make result file list
        filename, file_ext = os.path.splitext(os.path.basename(img_file))

        # result directory
        res_file = dirname + "res_" + filename + '.txt'
        res_img_file = dirname + "res_" + filename + '.jpg'

        if not os.path.isdir(dirname):
            os.mkdir(dirname)

        with open(res_file, 'w') as f:
            for i, box in enumerate(boxes):
                poly = np.array(box).astype(np.int32).reshape((-1))
                strResult = ','.join([str(p) for p in poly]) + '\r\n'
                f.write(strResult)

                poly = poly.reshape(-1, 2)
                cv2.polylines(img, [poly.reshape((-1, 1, 2))], True, color=(0, 0, 255), thickness=2) # HERE
                ptColor = (0, 255, 255)
                if verticals is not None:
                    if verticals[i]:
                        ptColor = (255, 0, 0)

                if texts is not None:
                    font = cv2.FONT_HERSHEY_SIMPLEX
                    font_scale = 0.5
                    cv2.putText(img, "{}".format(texts[i]), (poly[0][0]+1, poly[0][1]+1), font, font_scale, (0, 0, 0), thickness=1)
                    cv2.putText(img, "{}".format(texts[i]), tuple(poly[0]), font, font_scale, (0, 255, 255), thickness=1)

        # Save result image
        cv2.imwrite(res_img_file, img)

после вашего комментария, вот результат:

Modified

и результат тессеракта хорош для первого теста, но не с точностью:

400
300
200

“2615

1950



24
16

1 Ответ

2 голосов
/ 25 октября 2019

При использовании Pytesseract для извлечения текста чрезвычайно важна предварительная обработка изображения. В общем, мы хотим предварительно обработать текст так, чтобы желаемый текст был черным, а фон - белым. Чтобы сделать это, мы можем использовать порог Оцу для получения двоичного изображения, а затем выполнить морфологические операции для фильтрации и удаления шума. Вот конвейер:

  • Преобразование изображения в оттенки серого и изменение размера
  • Порог Оцу для двоичного изображения
  • Инвертирование изображения и выполнение морфологических операций
  • Поиск контуров
  • Фильтр с использованием аппроксимации контура, соотношения сторон и области контура
  • Удаление нежелательного шума
  • Выполнение распознавания текста

После преобразования вв градациях серого мы изменяем размер изображения, используя imutils.resize(), затем порог Оцу для двоичного изображения. Изображение теперь только в черном или белом, но все еще присутствует нежелательный шум

image

Отсюда мы инвертируем изображение и выполняем морфологические операции с горизонтальным ядром. Этот шаг объединяет текст в единый контур, где мы можем отфильтровать и удалить ненужные линии и маленькие капли

image

Теперь мы находим контуры и фильтруем, используя комбинацию приближения контура, аспектсоотношение и площадь контура, чтобы изолировать нежелательные участки. Удаленный шум выделяется зеленым цветом

image

Теперь, когда шум удален, мы снова инвертируем изображение, чтобы получить желаемый текст черным, а затем выполняем извлечение текста. Я также заметил, что добавление небольшого размытия улучшает распознавание. Вот очищенное изображение, которое мы выполняем для извлечения текста на

image

Мы даем Pytesseract конфигурацию --psm 6, так как мы хотим рассматривать изображение как единый блок текста. Вот результат из Pytesseract

6745 63 6 10.50
2245 21 18 17
525 4 22 0.18
400 4 a 0.50
300 3 4 0.75
200 2 3 0.22
2575 24 3 0.77
1950 ii 12 133

Результат не идеален, но он близок. Вы можете поэкспериментировать с дополнительными настройками конфигурации здесь

import cv2
import pytesseract
import imutils

pytesseract.pytesseract.tesseract_cmd = r"C:\Program Files\Tesseract-OCR\tesseract.exe"

# Resize, grayscale, Otsu's threshold
image = cv2.imread('1.png')
image = imutils.resize(image, width=500)
gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY)
thresh = cv2.threshold(gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU)[1]

# Invert image and perform morphological operations
inverted = 255 - thresh
kernel = cv2.getStructuringElement(cv2.MORPH_RECT, (15,3))
close = cv2.morphologyEx(inverted, cv2.MORPH_CLOSE, kernel, iterations=1)

# Find contours and filter using aspect ratio and area
cnts = cv2.findContours(close, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)
cnts = cnts[0] if len(cnts) == 2 else cnts[1]
for c in cnts:
    area = cv2.contourArea(c)
    peri = cv2.arcLength(c, True)
    approx = cv2.approxPolyDP(c, 0.01 * peri, True)
    x,y,w,h = cv2.boundingRect(approx)
    aspect_ratio = w / float(h)
    if (aspect_ratio >= 2.5 or area < 75):
        cv2.drawContours(thresh, [c], -1, (255,255,255), -1)

# Blur and perform text extraction
thresh = cv2.GaussianBlur(thresh, (3,3), 0)
data = pytesseract.image_to_string(thresh, lang='eng',config='--psm 6')
print(data)

cv2.imshow('close', close)
cv2.imshow('thresh', thresh)
cv2.waitKey()
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...