Пытаюсь превратить мой проект spark scala в проект spark-java.
У меня есть вход в систему, как указано ниже
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;
class ClassName{
val logger = LoggerFactory.getLogger("ClassName")
...
val dataframe1 = ....///read dataframe from text file.
...
logger.debug("dataframe1.printSchema : \n " + dataframe1.printSchema; //this is working fine.
}
Теперь я пытаюсь написать это в Java 1.8, как показано ниже
public class ClassName{
public static final Logger logger = oggerFactory.getLogger("ClassName");
...
Dataset<Row> dataframe1 = ....///read dataframe from text file.
...
logger.debug("dataframe1.printSchema : \n " + dataframe1.printSchema()); //this is not working
}
Я пробовал несколько способов, но ничего не помогло зарегистрировать printSchema в режиме отладки / информации.
dataframe1.printSchema () // это фактически возвращает void, следовательно, не может присоединиться к строке.
Как на самом деле ведется логирование проектов на уровне производства spark-java?
Каков наилучший подход, которому я должен следовать, чтобы войти в систему отладки?
Как справиться с описанным выше сценарием? то есть log.debug (dataframe1.printSchema ()) в Java?