Dataframe (5 Мб), использующий все доступные оперативные памяти, сбой системы - PullRequest
0 голосов
/ 01 мая 2018

У меня есть этот фрейм данных

sal.info()
<class 'pandas.core.frame.DataFrame'>
RangeIndex: 127606 entries, 0 to 127605
Data columns (total 6 columns):
id     127606 non-null int64
start    127606 non-null object
end      127606 non-null object
cc             127606 non-null float64
ep             58505 non-null float64
ip             58465 non-null float64
dtypes: float64(3), int64(1), object(2)
memory usage: 5.8+ MB

На данный момент у меня есть 5 из 8 ГБ оперативной памяти бесплатно, но как только я запускаю

sal.iloc[1]

Он потребляет всю мою память, и система все время падает. Я не знаю, почему это происходит, так как я с легкостью работал с df в 4 раза больше этого. Это даже не печать первого ряда !!

Если мне повезет, работает прерывание ядра (иначе оно зависает и требуется перезагрузка). Тогда я делаю gc: -

import gc
gc.collect()
out : 4297

Ребята, есть идеи, что происходит и как это решить?

Я на ноутбуке Anaconda Jupyter, версия 1.7, 64 бита, python 3

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...