Я использую ядро pyspark внутри jupyterhub и хочу подключить hivellap от spark. Я могу создать сеанс спарк, но когда я пытаюсь выполнить из pyspark_llap import HiveWarehouseSession, он показывает ошибку, модуль не найден pyspark_llap
Та же команда, которую я могу выполнить в python ядре, и она успешно выполнена .
Пожалуйста, предложите, какая конфигурация необходима для импорта HiveWarehouseSession из pyspark_llap внутри ядра pyspark.