Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
1 ответ

Я получил фрейм данных (df) этого формата. df.show() ******************** X1 | x2 | X3 | ..... | Xn...

user3742120 / 05 февраля 2019
0 голосов
1 ответ

У меня есть сценарий использования, когда я пишу пакетное задание Мне нужно прочитать тему Кафки и...

Praneeth Ramesh / 05 февраля 2019
0 голосов
1 ответ

Я ищу, чтобы сохранить весь Dataframe в цикле foreachpartition на Cassandra. Я знаю, что могу...

sourabh kumar / 04 февраля 2019
0 голосов
3 ответов

Имеется источник данных с полями: product_id - product - start_time - end_time Я пытаюсь построить...

Vzzarr / 04 февраля 2019
0 голосов
0 ответов

Я выполняю запрос для генерации искрового фрейма данных. val a= hc.sql("describe extended...

Svk / 04 февраля 2019
0 голосов
0 ответов

Я обрабатываю около 10 дней данных, которые делю на основе даты, и использую опцию df write...

Arun / 04 февраля 2019
0 голосов
0 ответов

Я пытаюсь разбить мой основной Dataframe (dfData) на умноженные полу Dataframe без повторного...

Maor Aharon / 04 февраля 2019
0 голосов
1 ответ

Я пытаюсь выяснить, какой из приведенных ниже лучше при выборе данных из моей исходной таблицы в...

arun sumbria / 04 февраля 2019
0 голосов
1 ответ

Учитывая следующий набор данных: | title | start | end | bla | 10 | 30 Я хотел бы найти разницу...

JBoy / 04 февраля 2019
0 голосов
1 ответ

Я хочу выполнить сессионную обработку потока кликов для фрейма данных spark.Давайте загрузим фрейм...

Vijay Muvva / 04 февраля 2019
0 голосов
1 ответ

У меня небольшой SQL-запрос, который прекрасно работает в SQL, но тот же запрос работает в кусте,...

Girish Bhat M / 04 февраля 2019
0 голосов
1 ответ

Я последовал за публикацией StackOverflow о возврате максимума столбца, сгруппированного по другому...

AltShift / 04 февраля 2019
0 голосов
1 ответ

У меня есть два кадра данных в Pyspark, которые сливаются около двух дней.Первый - около 6 000 000...

Joe B / 03 февраля 2019
0 голосов
0 ответов

В Spark SQL есть ли способ сделать глобальное сравнение без учета регистра строк?т.е. при...

Sam / 03 февраля 2019
0 голосов
1 ответ

Я хочу сделать краткое руководство по Apache Spark .Я хотел бы использовать рабочий лист Scala в...

Salim Fadhley / 03 февраля 2019
0 голосов
1 ответ

Я пытаюсь переместить данные из GP в HDFS, используя Scala & Spark. val execQuery = "select *...

Metadata / 03 февраля 2019
0 голосов
1 ответ

Spark использует Map Reduce для внутреннего использования?(своя собственная карта уменьшения) Когда...

Enrique Benito Casado / 03 февраля 2019
0 голосов
1 ответ

У меня типичная ситуация для использования функции Windows для Spark 2.1.0.Ниже приведен пример...

ChikuMiku / 03 февраля 2019
0 голосов
2 ответов

Я пытаюсь взять столбец в Spark (используя pyspark) со строковыми значениями, такими как «A1», «C2»...

schmidtbit / 03 февраля 2019
0 голосов
1 ответ

Когда я использую DATE_FORMAT для 31 декабря, 2018 год меняется на 2019. Может ли кто-нибудь помочь...

Dinesh J / 02 февраля 2019
0 голосов
2 ответов

Я пытаюсь преобразовать некоторый код Pandas в Spark для масштабирования.myfunc - это оболочка для...

Steven / 02 февраля 2019
0 голосов
0 ответов

Я новичок в программировании Spark, и мне нужно выполнить некоторые тесты для функций sampleByKey и...

Misha AM / 01 февраля 2019
0 голосов
0 ответов

У меня есть банка с искрой, в которой есть код, соединяющий базу данных оракула, улей и кассандру.Я...

Shailaja Koppishetty / 01 февраля 2019
0 голосов
1 ответ

Наличие этой странной проблемы с PySpark.Кажется, что он пытается применить схему для предыдущего...

Knifa / 01 февраля 2019
0 голосов
2 ответов

Я работаю с PySpark над огромным набором данных, где я хочу отфильтровать фрейм данных на основе...

Sotos / 01 февраля 2019
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...