Я ищу способ реализации плагина SparkCompute (или SparkSink), который потребляет от нескольких входов .
Глядя на интерфейс, оба плагина SparkCompute
и SparkSink
могут использовать только один.
Это выдержка из io.cdap.cdap.etl.api.batch.SparkCompute
/**
* Transform the input and return the output to be sent to the next stage in the pipeline.
*
* @param context {@link SparkExecutionPluginContext} for this job
* @param input input data to be transformed
* @throws Exception if there is an error during this method invocation
*/
public abstract JavaRDD<OUT> transform(SparkExecutionPluginContext context, JavaRDD<IN> input) throws Exception;
(в сигнатуре метода есть только один JavaRDD<IN>
параметр)
Есть ли способ получить доступ ко всем входам (через SparkExecutionPluginContext context
или что-то подобное)?