Я хотел бы подогнать модель по группам в h2o, используя некоторую функцию распределенного применения.
Я попробовал следующее, но это не работает.Вероятно, из-за того, что я не могу передать объект sc через.
df%>%
spark_apply(function(e)
h2o.coxph(x = predictors,
event_column = "event",
stop_column = "time_to_next",
training_frame = as_h2o_frame(sc, e, strict_version_check = FALSE))
group_by = "id"
)
Я получаю довольно общую ошибку искры, такую как:
error : org.apache.spark.SparkException: Job aborted due to stage failure: Task 0 in stage 23.0 failed 4 times, most recent failure: Lost task 0.3 in stage 23.0 :