У меня есть 2 таблицы Employees (Id, Name), EmployeeSalary (EmployeeId, Designation, Salary).Один...
У меня есть что-то вроде приведенного ниже в искре, из которого я группирую, а затем пытаюсь найти...
Я пытаюсь записать данные в CSV-файл, у меня есть четыре столбца, которые я создал как val...
Git-репозиторий, содержащий проблему, можно найти здесь https://github
Можно ли сохранить SavedModelBundle из Java API? Мой пример использования: Загрузить существующий...
У меня есть запрос, который выполняет некоторые агрегации, которые выглядят так: override def...
У меня есть таблица: id itemNames купоны 1 предмет (foo bar) доступен, мыло true 2 предмет (bar)...
У меня есть строка текста, которая выглядит следующим образом: ...],null,null, ],...
Я изучаю красную книгу scala, опубликованную Мэннингом Реализация List - это класс case: case class...
У меня очень простой локальный модуль, экспортирующий класс.Я хотел бы использовать этот модуль...
Я работаю с фреймом данных. Df выглядит так: root |-- array(data1, data2, data3, data4): array...
Я понимаю, что localCheckpoint удаляет историю, необходимую для восстановления СДР.И cache...
Я пытаюсь составить список файлов в корзине S3 в Databricks в Scala, а затем разделить на...
val trans = df.groupBy("userId").agg(collect_list("movieId") as...
Я новичок в Scala / Spark Streaming и в StackOverflow, поэтому прошу прощения за мое форматирование
Я пытаюсь проверить, существует ли таблица в улье, используя spark 1.6 и scala-кодирование.Я...
Я хочу посмотреть, насколько релевантен входящий твит для моей тестовой статьи. У меня есть набор...
У меня есть это: val asMaps = data.asMaps(classOf[String], classOf[String]) содержит много карт,...
Spark Master и Worker, оба работают в localhost.Я запустил главный и рабочий узел, вызвав команду:...
Я пытаюсь сохранить текстовый файл на граничном узле от spark. , чтобы проверить мой код. Я читаю...
Привет. Я пытаюсь отобразить результаты следующего запроса выбора во вложенный класс дел.Я...
Я выбираю два Column s из Dataframe col1 и col2. df.select((col("a")+col("b"))
Я создал простой набор данных, найдя average.Нашел способ используя tuple с опцией combineByKey
У меня есть эти dataFrames: +----+-------+-----------+...+------+----------------+---------+ |mot1|...