Почему Goggle colab cra sh при загрузке данных тренировок - PullRequest
0 голосов
/ 09 февраля 2020

У меня есть папка размером 917 МБ с 38 подпапками с изображениями на моей локальной машине. Я загрузил его на свой гугл-диск в блокнот My Drive / Colab и начал монтировать код python после монтирования диска. Изображения в папке имеют размер 256x256. Я изменил их размер до 128x128, а затем использовал следующий код для загрузки обучающих изображений:

try:
print("[INFO] Loading Training images ...")
root_dir = listdir(Path_DBTrain)


for plant_folder in root_dir :
    plant_disease_folder_list = listdir(f"{Path_DBTrain}")


for plant_disease_folder in plant_disease_folder_list:
    print(f"[INFO] Processing {plant_disease_folder} ...")
    plant_disease_image_list = listdir(f"{Path_DBTrain}/{plant_disease_folder}/")

    for im in plant_disease_image_list:
        image_directory = f"{Path_DBTrain}/{plant_disease_folder}/{im}"
        if image_directory.endswith(".jpg") == True or image_directory.endswith(".JPG") == True or image_directory.endswith(".png") == True:
            image_list_train.append(convert_image_to_array(image_directory))
            label_list_train.append(plant_disease_folder)
print("[INFO] Training Images loading completed")  

, за исключением исключения как e: print (f "Ошибка при загрузке обучающих изображений: {e}")

Path_DBTrain имеет путь к папке в My Drive / Colab Notebooks

Мои вопросы:

1) Почему загрузка обучающих образов занимает много времени? Выполнение этого кода на моем локальном компьютере, который имеет только 8 ГБ ОЗУ

2, не занимает много времени. Почему Google colab использует всю доступную 12 ГБ ОЗУ и вылетает?

3) Если размер папки составляет 917 МБ, как она использует все 12 ГБ ОЗУ?

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...