, поэтому я использую darkflow для обнаружения объектов (шляп) в видео.Он обнаруживает людей, носящих шляпы и рисует ограничивающие рамки вокруг шляпы в видео.Теперь я хочу сохранить верхнюю правую и нижнюю левую координаты обнаруженных ограничивающих рамок в текстовый или CSV-файл для дальнейшей обработки.Я написал код в opencv-python.Я могу отобразить видео, и оно успешно рисует ограничивающий прямоугольник, но я не знаю, как сохранить координаты прямоугольников.Есть идеи как это сделать?
Я использую код Марка Джея для своих целей
#import libraries
import cv2
from darkflow.net.build import TFNet
import numpy as np
import time
#load model and weights and threshold
option = {
'model': 'cfg/yolo-5c.cfg',
'load': 'bin/yolo.weights',
'threshold': 0.15,
'gpu': 1.0
}
tfnet = TFNet(option)
#open video file
capture = cv2.VideoCapture('videofile_1080_20fps.avi')
colors = [tuple(255 * np.random.rand(3)) for i in range(5)]
#read video file and set parameters for object detection
while (capture.isOpened()):
stime = time.time()
ret, frame = capture.read()
if ret:
results = tfnet.return_predict(frame)
for color, result in zip(colors, results):
tl = (result['topleft']['x'], result['topleft']['y']) # show top left coordinate
br = (result['bottomright']['x'], result['bottomright']['y']) #show bottom right coordinate
label = result['label'] # show label
frame = cv2.rectangle(frame, tl, br, color, 7)
frame = cv2.putText(frame, label, tl, cv2.FONT_HERSHEY_COMPLEX,
1, (0, 0, 0), 2)
cv2.imshow('frame', frame)
print('FPS {:.1f}'.format(1 / (time.time() - stime)))
if cv2.waitKey(1) & 0xFF == ord('q'):
break
else:
capture.release()
cv2.destroyAllWindows()
break
Так что, как вы можете видеть, я могу показать видео и обнаружить объект, который рисует ограничивающие рамки.Теперь моя цель - сохранить координаты пикселей этих ограничивающих рамок, только верхний левый и нижний правый.Есть идеи, ребята?