Интересно, какое решение более эффективно при работе с изображениями в облачном хранилище Google с моделями наборов данных tenorflow и keras.
Мое текущее решение предварительно обрабатывает jpg-изображения в заданном формате (image_size * image_size * 3) и записывает CSV-файл с пикселями метки и изображения в одну строку. Затем я использую этот CSV-файл с методом TextLineDataset () из tf.data. Я предпочитаю это решение, а не tf.image.resize (), потому что считаю, что должно быть более эффективно загружать предварительно обработанные пиксели изображения из файла CSV, а не обрабатывать изображение на ходу. Что-то не так с моей логикой? Можете ли вы привести примеры, в которых первое решение более эффективно, чем второе, и наоборот? Я знаю, что чтение данных из облачного хранилища может быть узким местом, но, с другой стороны, чтение jpg-изображений из хранилища будет иметь такую же проблему.
С уважением