Конвейер Tensorflow Dataset для обнаружения объектов с большими изображениями и маленькими объектами - PullRequest
0 голосов
/ 25 сентября 2019

Я пытаюсь выяснить, каким будет эффективный обучающий конвейер обнаружения объектов для следующей настройки:

  • Версия Tensorflow 1.14
  • Предварительно обученная модель из TF Object Detection API (.pb)
  • Набор данных в следующем формате: [[imgpath,label,xa,ya,xb,yb], ...]
  • Размер изображения ~ 3000x3000
  • Средний размер блока ~ 50x50
  • Всего 100 тыс. Изображений с ~ 1–20 боксами на изображение

Я прочитал учебник TF по загрузке изображений , но я не уверен, относится ли это к моим конкретнымнастройка, учитывая проблему обнаружения (в отличие от классификации).Что я получил от этого, так это использование <a href="https://www.tensorflow.org/api_docs/python/tf/data/Dataset#from_generator" rel="nofollow noreferrer">Dataset.from_generator()</a> или <a href="https://www.tensorflow.org/api_docs/python/tf/data/experimental/CsvDataset" rel="nofollow noreferrer">CsvDataset()</a> для создания набора данных из моего CSV.

Я не могу позволить себе загружать все изображения в память, и так как у меня много таких наборов данных,решение TFRecords кажется неэффективным (я должен был бы сохранить tfrecords для каждого набора данных).

Следующее изображение представляет идею очень высокого уровня:

High level pipeline

Какие функции TF я должен использовать для такого обучающего конвейера и данных?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...