Это может быть немного странным вопросом, потому что я только начинаю с игры.Каков эквивалент...
У меня есть 3 строки для ввода, которые имеют ключ и значения сгруппированы.Теперь нужно...
Я все еще немного борюсь с этими функциями zipWithIndex и фильтрами.У меня есть этот оператор кода,...
Когда я пишу код в Intellij и spark 2.3.0 с master ("local") и выполняю в Intellij, я получаю вывод
Я пытаюсь создать приложение Scala, в котором пользователь может загружать классы, реализующие...
После обновления до Android Studio 3.1 я больше не могу видеть вывод компилятора Scala - все, что я...
Я пытаюсь использовать массив или список tuple2 в качестве столбца в кадре данных.Когда я пытаюсь...
Lookup DF: +--------------------+------------------+ | seller_name| codes|...
Я испытываю нагрузочное тестирование двухстороннего приложения высокой доступности, доступ к...
Я хотел бы написать код, который бы группировал входные данные итератора строки: Iterator[InputRow]...
Моя цель - сопоставить каждое слово в тексте (индекс, строка) со списком, содержащим индексы каждой...
Я обновляю log4j своего рабочего проекта до log4j2 и пытаюсь понять некоторый синтаксис, который...
Я пытаюсь запустить код в этой ссылке, но я получаю следующую ошибку.не уверен, что я делаю...
val df = spark.read.format("csvz") .option("header", "true")
Вот что я пытаюсь сделать class Bar[P](val x: P) { type Foo = P } class Baz[R <: Bar[_]](bar: R)...
Я пытаюсь вернуть список всех столбцов, которые не заполнены ниже в функции.Функция isColumnFull...
Данные состоят из двух столбцов A B A C A D B A B C B D B E C A C B C D C E D A D B D C D E E B E C...
Запрос https://api.github.com/users возвращает список пользователей.Как я могу проанализировать его...
Я использую spark, чтобы соединить таблицу с другой базой данных и couchbase, используя наборы...
Я хочу прочитать файл HQL с несколькими операторами SQL, которые могут иметь некоторые переменные
у меня есть запись в виде строки с 1000 полями с разделителем в виде запятой в кадре данных,...
У меня есть файл в формате Json, который содержит сотни твитов (у всех 5 полей): [...] {...
Я новичок в Spark, и я пытаюсь объединить две таблицы, представленные в кусте из кода Scala: import...
У меня есть тест, который по темпераменту оставляет открытый поток производителя с непрерывной...
Я ищу кого-то, кто предоставил бы рабочий пример использования преобразования Apache beam Combine