Я использую Hortonworks Sandbox HDP 2.6.5 и замазку для использования оболочки Linux.Моя ОС - window10.
Я поместил какой-то файл JSON в HDFS и хочу открыть этот файл с помощью pyspark.
Я использую ниже файл python в Linux, набрав "spark-submit example.py""на оболочке
from pyspark.sql import SparkSession
if __name__ == "main":
spark = SparkSession.builder.appName('JSONRead').getOrCreate()
jsonData = spark.read.json('hdfs://localhost/user/maria_dev/example.json')
jsonData.printSchema()
jsonData.createOrReplaceTempView('Users')
userNames = spark.sql('SELECT _id, name, age, email, phone, gender, index from Users')
spark.stop()
Но я получил это сообщение об ошибке
" Вызов с sandbox-hdp.hortonworks.com/172.18.0.2 на локальный хост: 8020 не удалось выполнить исключение соединения "
Я искал эту проблему на stackoverflow, и люди обычно говорили, что имя узла работает на другом порту или не работает.Но я не знаю, как узнать состояние узла имени и как его перезапустить.
Я набрал "sudo service hadoop-hdfs-namenode restart" Но возврат замазки "Модуль hadoop-hdfs-namenode.service не смогбыть найденным. "
Что я могу сделать?Можете ли вы помочь мне, пожалуйста?