Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
1 ответ

Я хочу использовать возможности библиотеки ТМ в sparklyr.Я использовал функцию spark_apply() для...

Karthik S / 26 июня 2018
0 голосов
1 ответ

Я читаю исходный код spark.sql.execution.datasources.jdbc.JDBCRelation. Вот комментарий к исходному...

John Hass / 26 июня 2018
0 голосов
2 ответов

Я хочу спросить, что именно setMaster("local[2]") и Map("test1"->5) означает...

hunny / 26 июня 2018
0 голосов
0 ответов

Мы используем MapR FS со скользящими томами, и необходимо выровнять файлы секционированного...

ChernikovP / 25 июня 2018
0 голосов
0 ответов

У меня есть следующая функция: def timestampConverter(dt: String): Option[Int] = { val timeStamp =...

Tomasz Krol / 25 июня 2018
0 голосов
1 ответ

как обрабатывать недостающие типы объектов JSON при чтении JSON в DF в искре в класс case case...

Vamsi / 25 июня 2018
0 голосов
1 ответ

Обычный искровой фрейм данных позволяет получить доступ к sparksession через df.sparksession class...

Georg Heiler / 25 июня 2018
0 голосов
1 ответ

У меня есть следующий DataFrame df +-----------+-----------+-----------+...

ScalaBoy / 25 июня 2018
0 голосов
1 ответ

У меня есть приложение, написанное для Spark на языке Scala. Мой код приложения готов, и работа...

Prashant / 25 июня 2018
0 голосов
1 ответ

Я работаю над сложным приложением. Из исходных данных мы вычисляем много статистики, например. val...

Rolintocour / 25 июня 2018
0 голосов
2 ответов

Я пытаюсь сохранить потоковые данные в HDFS с помощью SparkStreaming, но он продолжает создавать в...

andani / 25 июня 2018
0 голосов
1 ответ

Я использую следующую версию SQL: test("SparkSQLTest") { val spark = SparkSession

Tom / 25 июня 2018
0 голосов
1 ответ

Я относительно новичок в Spark, но я вижу, как оба метода запускают сеанс искры. Может кто-нибудь...

Miguel A. Friginal / 25 июня 2018
0 голосов
1 ответ
0 голосов
1 ответ

Мне нужно преобразовать следующее выражение scala в python: scala> a.join(b, a("key")...

Gerrie van Wyk / 25 июня 2018
0 голосов
0 ответов

Недавно я использовал spark 2.2 для запроса огромного кластера эластичного поиска с 3 узлами и 1000...

AI Joes / 25 июня 2018
0 голосов
0 ответов

Я пытаюсь использовать Spark для создания экземпляра JanusGraph в RDD.foreachPartition, но я...

tangzy / 25 июня 2018
0 голосов
1 ответ

У меня есть датафрейм, df.show () примерно так: +-----------+-------------------+ |id| name|...

Zhang Xin / 25 июня 2018
0 голосов
2 ответов

Я экспериментировал с картой Spark mapPartitionsWithIndex и столкнулся с проблемами, когда пытается...

Chris Bedford / 25 июня 2018
0 голосов
1 ответ
0 голосов
2 ответов

Каждый подход, который я пробовал, оставляет мне сумму всего столбца.У каждой строки есть массив,...

Thugnificent / 25 июня 2018
0 голосов
1 ответ

В постоянном стремлении к знаниям и просвещению других, я отмечаю, что приведенное ниже утверждение...

thebluephantom / 24 июня 2018
0 голосов
1 ответ

Итак, я понял, что когда нам нужно создать кадр данных, используя пространство ключей Cassandra и...

arcticOak2 / 24 июня 2018
0 голосов
1 ответ

У меня есть несколько файлов .nt (NTriples) в каталоге. Я хочу прочитать каждый набор данных и...

Pardeep Naik / 24 июня 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...