Вопросы с тегом апаша-искра - PullRequest

Вопросы с тегом апаша-искра

0 голосов
1 ответ

Я пытаюсь передать и преобразовать несколько фреймов данных из Scala в Pyspark. когда я пробую его...

andrew / 16 мая 2019
1 голос
1 ответ

Предположим, у меня есть кадр данных, такой как: import org.apache.spark.sql.{Row, DataFrame,...

Stijn / 16 мая 2019
2 голосов
1 ответ

В SQL есть: REFRESH TABLE table_name и в pyspark эквивалент: spark.refreshTable(table_name) Итак,...

Henrique Florêncio / 16 мая 2019
0 голосов
0 ответов

У меня есть кластер ES, из которого я хотел бы извлечь все идентификаторы сеанса (настраиваемое...

user976850 / 16 мая 2019
1 голос
3 ответов

У меня есть потоковое приложение, которое обрабатывает потоковый DataFrame со столбцом «body»,...

t138 / 16 мая 2019
0 голосов
1 ответ

Я использую spark 2.4 и scala 2.11.12, в оболочке spark я столкнулся с очень странной проблемой,...

zjffdu / 16 мая 2019
0 голосов
0 ответов

Учитывая, что 3 машины (с различными аппаратными характеристиками) доступны для использования в...

ottovon / 16 мая 2019
2 голосов
1 ответ

У меня есть схема, где каждая строка содержит несколько столбцов массивов, и я хочу разбить каждый...

Narfanator / 15 мая 2019
0 голосов
1 ответ

Я только начал работу над квалификацией платформы больших данных, и я хотел бы получить предложения...

elgandari / 15 мая 2019
0 голосов
1 ответ

мы установили наш кластер через cdh6.2.используйте pyspark, создайте фрейм данных, затем сохраните...

hangkongwang / 15 мая 2019
3 голосов
2 ответов

У меня есть файл с 20+ столбцами, из которых я хотел бы извлечь несколько.До сих пор у меня есть...

user2235010 / 15 мая 2019
0 голосов
0 ответов

Я всегда получаю ошибки при попытке преобразовать мои данные CSV в паркет. Я предполагаю, потому...

Jiew Meng / 15 мая 2019
0 голосов
0 ответов

Я пытаюсь импортировать данные в Hbase, используя следующую команду hbase org.apache.hadoop.hbase

Abdulkarim Kanaan / 15 мая 2019
1 голос
2 ответов

Я создал несколько строк кода scala для подсчета количества слов в текстовом файле (в Spark)....

Nguyễn Tý / 15 мая 2019
1 голос
1 ответ

Мне нужно извлечь метку времени из столбца значений Я попытался сделать getItem, но ничего не...

drone / 15 мая 2019
0 голосов
1 ответ

Я хочу использовать ((String, String), BigDecimal) RDD в качестве PairRDD, чтобы я мог использовать...

pawinder gupta / 15 мая 2019
0 голосов
0 ответов

Я пытаюсь записать DataFrame в S3 с некоторыми конкретными значениями параметров для форматирования...

Menatron / 15 мая 2019
0 голосов
3 ответов

Мне интересно, есть ли способ объединить конечный результат в один файл при использовании Spark?...

Reza Karami / 15 мая 2019
1 голос
1 ответ

Я изучаю, как работает Spark внутри Databricks. Я понимаю, как тасование вызывает этапы в работе,...

cyniphile / 15 мая 2019
0 голосов
1 ответ

Я пытаюсь прочитать дамп MongoDB в фрейм данных.Дамп в формате JSON, за исключением элемента Date

FAA / 14 мая 2019
0 голосов
0 ответов

Я импортировал данные с помощью sqoop в файл последовательности, и я загружаю эти данные с помощью...

pawinder gupta / 14 мая 2019
0 голосов
0 ответов

Я обрабатываю свои данные с помощью Scala Spark и хочу использовать pySpark / python для дальнейшей...

user2895589 / 14 мая 2019
1 голос
1 ответ

У меня есть этот rdd, содержащий кортежи, и сбор их даст мне список. [x1, x2, x3, x4, x5] Но я хочу...

kiran gali / 14 мая 2019
0 голосов
2 ответов

Я хочу использовать Spark Session в методе python, но получаю ошибку: «SparkContext можно...

Ayush Sharma / 14 мая 2019
3 голосов
2 ответов

Я пытаюсь определить способ фильтрации элементов из WrappedArrays в DF. Фильтр основан на внешнем...

pez_betta / 14 мая 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...