У меня есть Mapper (CustomMapper.class) и редуктор (CustomReducer.class) класс, который я хочу использовать в Spark. Я мог бы использовать их в Had oop, создав объект Job и затем установив требуемые классы Mapper и Reducer следующим образом:
Configuration conf = new Configuration();
Job j = new Job(conf, "Adjacency Generator Job");
j.setMapperClass(CustomMapper.class);
j.setReducerClass(CustomReducer.class);
Как я могу добиться того же в Spark, используя Java? Я создал объект java RDD следующим образом:
SparkConf conf=new SparkConf().setAppName("startingSpark").setMaster("local[*]");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String> myFile = sc.textFile(args[0]);
Я не уверен, как связать класс Mapper и Reducer в Spark, используя Java. Любая помощь приветствуется.