Алекс Гейнор объясняет некоторые проблемы с рассолами в своем выступлении «Соленья для delis, а не для программного обеспечения» , включая безопасность, надежность, удобочитаемость.Я обычно опасаюсь использовать pickle для данных в моих программах на python.Как правило, я предпочитаю передавать свои данные вручную с помощью json или других форматов сериализации, указанных мной вручную.
Ситуация, которая меня интересует, такова: я собрал некоторые данные в своем pythonпрограмма, и я хочу выполнить смущающе параллельное задание несколько раз параллельно.
Насколько мне известно, самая хорошая библиотека распараллеливания для того, чтобы делать это в python прямо сейчас, распределена по dask, за которой следуют joblib -rallel, concurrent.futures и многопроцессорность.
Однако всеиз этих решений используют рассол для сериализации.Учитывая различные проблемы с pickle, я склонен просто отправлять массив json в подпроцесс GNU parallel
.Но, конечно, это похоже на взлом и теряет все прелести Dask.
Можно ли указать другой формат сериализации по умолчанию для моих данных, но продолжать распараллеливание в python, предпочтительно dask, безприбегать к маринаду или гну параллельно?