У меня проблемы с пониманием кругового разбиения робина в Spark. Рассмотрим следующий пример. Я...
У меня есть коллекция точек с координатами x и y в формате RDD [Double, Double]. Я хочу найти...
Я пытаюсь получить значение метки времени для 2018-09-04 13: 43: 32.922000, выполнив Timestamp
У меня есть таблица, подобная следующей: +----------+----+--------------+-------------+ |...
Я работаю где пункт из Spark Dataframe. Когда я помещаю строковую переменную в качестве аргумента,...
Я работаю над приложением, которое разрабатывается как для Mac, так и для Windows. Мы генерируем...
Я пишу источник данных, который имеет сходство с реализацией источника данных JDBC в Spark, и я...
Я получаю сообщение об ошибке при компиляции проекта spark. вот файл pom. Я использую scala 2.11.8...
Я работаю с обработкой Scala Stream, у меня есть список событий, и я пытаюсь подсчитать вхождения...
У меня есть кластер с Spark 2.2 и Mesos. Мне нужно запустить на нем чистую версию XGBoost (v0.7)...
Я читаю несколько JSON файлов в кадре данных в Scala. В некоторых файлах отсутствует столбец...
У меня есть хэш-карта, как показано ниже Map(351608084641351 -> List(0.0, 0.0, 1.0, 0.0, 1
например, я хочу выполнить свой код в 2019/01/09 в 22:00, как я могу это сделать? вот мой код, но...
conf = SparkConf().set("spark.port.maxRetries",16) sc = SparkContext(conf=conf) sc
Цель: Дана строка вида val strang = "ab (cde (fgh) ijk) lmn) opq) rs" Сначала я хочу построить...
Я не был уверен, почему логический план не был правильно оценен в этом примере . Я посмотрел более...
Допустим, у меня есть класс case, подобный этому: case class Card(id: UUID, title: String) и класс...
У меня есть несколько csvs с разными заголовками. некоторые из них имеют 12 столбцов, некоторые 14...
Я слежу за https://spark.apache.org/docs/2.3.1/running-on-kubernetes.html. Я запускаю
Следующий пример кода не компилируется с ошибкой, указанной ниже. class Outer { class Inner val...
У меня есть программа Spark, которая преобразует данные тетради кобола в XML, когда я пытаюсь...
Я создал SparkConsumer, чтобы я мог отправить файл CSV в Kafka через Spark Structured Streaming. Я...
Я использую sbt 1.2.8 и sbt-Assembly 0.14.9. Я пытаюсь создать толстый JAR для моего проекта,...
Я пытаюсь запечь очень простой конвейер, который читает поток событий из Kafka (KafkaIO.read) и...
кто-нибудь сталкивался с написанием и чтением потокового воспроизведения в JanusGraph? Я пытаюсь...