Я тестирую Spark с использованием Java и сталкиваюсь с некоторыми проблемами при запуске моей программы с использованием Eclipse.
Тестовый код следующий:
package projet1;
import org.apache.log4j.Level;
import org.apache.log4j.Logger;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
public class projet1 {
public static void main(String[] args) {
System.out.println("Hello world");
System.setProperty("hadoop.home.dir", "/home/user1/Spark_Projects");
Logger.getLogger("org.apache").setLevel(Level.WARN);
SparkConf conf = new SparkConf().setAppName("SiravPg").setMaster("local[*]");
JavaSparkContext sc = new JavaSparkContext(conf);
JavaRDD<String> myRDD = sc.textFile("src/main/ressources/data.txt")
sc.close();
}
}
При запуске этого кода кажется, что eclipse не обнаруживает мою функцию main () и отображает новое окно с просьбой выбрать приложение Java
Java-приложение
PS: "System.out.println (" Hello world ");" работает правильно.