Я читаю ответ от Как локально отлаживать приложение Spark? , вот моя ситуация: win10 + spark 2.3.2 (компиляция с использованием mvn -Pyarn -Phadoop-2.7 -Dhadoop.version=2.7.3 -Phive -Phive-thriftserver -DskipTests clean package
), кластер имел oop из docker , Я выполняю команду в каталоге bin в spark с помощью cmd:
spark-submit --name spark-test --class WordCount --master yarn --deploy-mode cluster --conf spark.driver.extraJavaOptions=-agentlib:jdwp=transport=dt_socket,server=y,suspend=y,address=5005 d:\dev\spark-test.jar /data/data.txt
К сожалению, «Прослушивание транспорта dt_socket по адресу: 5005» не появляется, оно прошло через SparkSubmit до появления некоторых исключений. Я проверяю spark-class2.cmd, он на самом деле выполнил:
java -cp "xx" org.apache.spark.deploy.SparkSubmit --master yarn --deploy-mode cluster --conf "spark.driver.extraJavaOptions=-agentlib:jdwp=transport=dt_socket,server=y,suspend=y,address=5005" --class WordCount --name spark-test d:\dev\spark-test.jar /data/data.txt
так чего мне не хватать?