У нас есть файл журнала .txt, я использовал scala spark, чтобы прочитать файл. файл содержит наборы данных по строкам. Я читаю данные по очереди, как показано ниже
val sc = spark.SparkContext
val dataframe = sc.textFile(/path/to/log/*.txt)
У нас есть файл журнала .txt, я использовал scala spark для чтения файла. файл содержит наборы данных по строкам. я читаю данные по одному, как показано ниже
val sc = spark.SparkContext
val dataframe = sc.textFile(/path/to/log/*.txt)
val get_set_element = s c .textFile (filepath.txt)
val pattern = """(\S+) "([\S\s]+)\" (\S+) (\S+) (\S+) (\S+)""".r
val test = get_set_element.map{ line =>
( for {
m <- pattern.findAllIn(line).matchData
g <- m.subgroups
} yield(g)
).toList
}.
map(l => (l(0), l(1), l(2), l(3), l(4), l(5)))
Я хочу создать DataFrame, чтобы я могу сохранить его в CSV-файл.