Я работаю над классификацией текста в контексте Spark (Java), и у меня возникла проблема с преобразованием HashMap<List<String>, String>
в JavaRDD<LabeledPoint>
или DataFrame
. Ключ HashMap
содержит список слов и значение содержит тип документа. Другая проблема заключается в том, что я не могу создать экземпляр SQLContext
, используя JavaSparkContext
. Спасибо за вашу помощь.