Оптимизация ОЗУ при чтении большого файла в Python - PullRequest
0 голосов
/ 07 августа 2020

У меня есть нейронная сеть, которая принимает массивы из 1024 двойников и возвращает единственное значение. Я обучил его, и теперь я хочу использовать его на наборе тестовых данных. Файл, на котором я хочу его протестировать, очень большой (8,2 ГБ), и всякий раз, когда я пытаюсь импортировать его в Google Colab, происходит сбой ОЗУ. Я читаю это с помощью read_csv следующим образом: testsignals = pd.read_csv("/content/drive/My Drive/MyFile.txt", delimiter="\n",header=None). Я хотел бы знать, есть ли более эффективный способ чтения в файле или мне просто придется работать с меньшими наборами данных.

Изменить: следуя комментарию Prune, я посмотрел на совет от людей, которые комментировали, и я попробовал это:

import csv
testsignals=[]
with open('/content/drive/MyDrive/MyFile') as csvfile:
  reader=csv.reader(csvfile)
  for line in reader:
    testsignals.append(line)

Но он все равно превышает ОЗУ.

Если кто-нибудь может мне помочь, я был бы очень благодарен!

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...