Я ищу способ, с помощью которого Python может прочитать состояние здоровья в текстовом формате и затем выполнить команду (например, нажатие клавиши).Я смотрел серию от youtuber sentdex: (https://www.youtube.com/playlist?list=PLQVvvaa0QuDeETZEOy4VdocT7TOjfSA8a). Он запрограммировал python для захвата экрана и «чтения» полос движения, чтобы создать автомобиль с самостоятельным вождением. Я хочу основать свою цель с первого разачасть серии, используя numpy, PIL и OpenCV, чтобы захватить мой экран, используя следующий код:
import numpy as np
from PIL import ImageGrab
import cv2
import time
last_time = time.time()
while(True):
screen = np.array(ImageGrab.grab(bbox=(0,0, 1360, 768)))
printscreen_numpy = np.array(printscreen_pil.getdata(),dtype='uint8')
print('Loop took {} seconds'.format(time.time()-last_time))
last_time = time.time()
cv2.imshow('window', cv2.cvtColor (screen, cv2.COLOR_BGR2RGB))
if cv2.waitKey(25) & 0xFF == ord('q'):
cv2.destroyAllWindows()
break
(код для печати, сколько времени занимает цикл, можно игнорировать)
Однако я понятия не имею, как использовать opencv или PIL для распознавания текста в указанной области моего экрана или что делать после выполнения команды.
Все, что мне нужно, - это какой-то совет, а не поискполный ответ. Любая помощь приветствуется, спасибо.