numpy.ufunc имеет неправильный размер, попробуйте перекомпилировать.даже с последними версиями панда и numpy - PullRequest
0 голосов
/ 23 декабря 2018

Я использую pandas в контейнере, и я получаю следующую ошибку:

Traceback (most recent call last):
  File "/volumes/dependencies/site-packages/celery/app/trace.py", line 374, in trace_task
    R = retval = fun(*args, **kwargs)
  File "/volumes/dependencies/site-packages/celery/app/trace.py", line 629, in __protected_call__
    return self.run(*args, **kwargs)
  File "/volumes/code/autoai/celery/data_template/api.py", line 16, in run_data_template_task
    data_template.run(data_bundle, columns=columns)
  File "/volumes/code/autoai/models/data_template.py", line 504, in run
    self.to_parquet(data_bundle, columns=columns)
  File "/volumes/code/autoai/models/data_template.py", line 162, in to_parquet
    }, parquet_path=data_file.path, directory="", dataset=self)
  File "/volumes/code/autoai/core/datasets/parquet_converter.py", line 46, in convert
    file_system.write_dataframe(parquet_path, chunk, directory, append=append)
  File "/volumes/code/autoai/core/file_systems.py", line 76, in write_dataframe
    append=append)
  File "/volumes/dependencies/site-packages/pandas/core/frame.py", line 1945, in to_parquet
    compression=compression, **kwargs)
  File "/volumes/dependencies/site-packages/pandas/io/parquet.py", line 256, in to_parquet
    impl = get_engine(engine)
  File "/volumes/dependencies/site-packages/pandas/io/parquet.py", line 40, in get_engine
    return FastParquetImpl()
  File "/volumes/dependencies/site-packages/pandas/io/parquet.py", line 180, in __init__
    import fastparquet
  File "/volumes/dependencies/site-packages/fastparquet/__init__.py", line 8, in <module>
    from .core import read_thrift
  File "/volumes/dependencies/site-packages/fastparquet/core.py", line 13, in <module>
    from . import encoding
  File "/volumes/dependencies/site-packages/fastparquet/encoding.py", line 11, in <module>
    from .speedups import unpack_byte_array
  File "__init__.pxd", line 861, in init fastparquet.speedups
ValueError: numpy.ufunc has the wrong size, try recompiling. Expected 192, got 216

Я читаю на другие ответы , что это сообщение появляется, когда pandas компилируется с более новой версией numpyчем тот, который вы установили.Но обновление как панд, так и numpy у меня не сработало.Я попытался выяснить, есть ли у меня несколько версий numpy, но, похоже, pip show numpy показывает последнюю версию.

Кроме того, странным образом это происходит только тогда, когда я развертываюсь локально, а не на сервере.

Есть идеи, как это исправить?Или, по крайней мере, как отлаживать мои версии numpy и pandas (если есть несколько версий, как я могу это проверить)

Я пытался: обновить оба пакета, удалить и переустановить их.Там нет никакой помощи.

Ответы [ 7 ]

0 голосов
/ 12 марта 2019

ну на самом деле моя проблема была решена каким-то образом

 pip uninstall numpy
 pip install numpy

реальный процесс -

➜  ~ pip3 uninstall numpy -y
Uninstalling numpy-1.14.5:
  Successfully uninstalled numpy-1.14.5
➜  ~ pip3 install numpy     
Requirement already satisfied: numpy in /usr/lib/python3/dist-packages (1.16.1)
➜  ~ pip3 uninstall numpy   
Uninstalling numpy-1.16.1:
  Would remove:
    /usr/bin/f2py3
    /usr/bin/f2py3.7
    /usr/lib/python3/dist-packages/numpy
    /usr/lib/python3/dist-packages/numpy-1.16.1.egg-info
Proceed (y/n)? y
  Successfully uninstalled numpy-1.16.1
➜  ~ pip3 install numpy   
Collecting numpy...

, что означает, что проблема может быть в конфликте версий?

0 голосов
/ 19 марта 2019

У меня была та же проблема, что и выше.Моим решением было установить Python 2.7 с официального сайта: https://www.python.org/downloads/release/python-2713/

0 голосов
/ 17 января 2019

У меня возникла та же проблема, и я попробовал все приведенные выше ответы (на момент написания).Единственное, что сработало для меня, это переключение на pyarrow.

Затем я определил двигатель pyarrow при использовании паркета в пандах.Хотя панды должны по умолчанию использовать двигатель pyarrow до fastparquet в соответствии с документацией.

pd.read_parquet('./path', engine='pyarrow')
0 голосов
/ 02 января 2019

TLDR: Если docker добавит:

RUN pip install numpy

до , вы устанавливаете pandas (вероятно, просто ваш pip install -r needs.txt), и он просто будет работать снова.

Я делаю это при сборке панда в альпийском докере и сталкиваюсь с той же проблемой, и она ПРОСТО выскочила (27 декабря 2018 г.) для сборки, которая раньше работала просто отлично.

0 голосов
/ 02 января 2019

У меня была такая же проблема с пандами.Эта проблема была решена с помощью следующего обходного пути,

pip uninstall --yes numpy

easy_install --upgrade numpy
0 голосов
/ 24 декабря 2018

Ответ был таков: fastparquet (пакет, который используется пандами) по какой-то причине использовал старый бинарный файл.

Обновление этого пакета помогло.Я предполагаю, что если кто-то еще столкнется с этой проблемой, попытаться обновить все связанные пакеты (которые используют numpy) будет правильным путем

0 голосов
/ 24 декабря 2018

Убедитесь, что на /volumes/dependencies/site-packages/ установлена ​​правильная версия numpy, и вы ее используете.

Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...