Я некоторое время использовал l oop, чтобы читать кадры из предварительно записанного видео и получать их соответствующие временные метки.
Для этого я использую time.time () метод вне l oop, чтобы получить время, прошедшее между эпохой и моментом выполнения кода. Затем внутри l oop я вычитаю это из времени, прошедшего до кадра, который читается на текущей итерации. В результате я получаю метку времени для каждого кадра, и она сохраняется в файле .txt без дальнейших трудностей.
Проблема возникает, когда я проверяю метку времени ( 65,7 секунды ) последний сохраненный кадр и сравните его с общей длиной входного видео ( только 60,5 секунд ). Из-за этого несоответствия вывод кажется ненадежным.
Мне было интересно, можете ли вы предоставить какое-либо решение этой проблемы или просто объяснить, почему это происходит. Влияет ли метод time.time () на производительность компьютера? Интересно, что каждый раз, когда я запускаю код, я получаю немного другую временную метку (например, 66,1 секунды, 65,9 секунды и т. Д. c).
Имейте в виду, что я успешно использовал cv2. CAP_PROP_POS_MSE C подход, но, тем не менее, мне нужно запустить код, используя метод time.time ().
Я не эксперт по программированию, поэтому постарайтесь сделать все возможное, чтобы дать простейший ответ возможен. Спасибо большое за помощь!