Я прочитал следующие в документации Dask в разделе известных ограничений:
но я не вижу упоминаний о отказоустойчивости в сравнении с Spark . В настоящее время это «причины, по которым вы можете выбрать Spark» :
- Вы предпочитаете Scala или язык SQL
- У вас в основном JVM
инфраструктура и устаревшие системы
- Вы хотите надежное и надежное решение для бизнеса
- В основном вы занимаетесь бизнес-аналитикой с легким машинным обучением
- Требуется универсальное решение
Мои вопросы:
- Spark на самом деле спроектирован для отказоустойчивости так, как в настоящее время нет Dask?
- Какой тип отказоустойчивости обеспечивает Spark (в теории / на практике), чего нет у Dask, если он есть, или наоборот?