Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
1 ответ

Я хочу использовать GlueMetaStore с spark.sql. Для этого я настроил кластер EMR (5.16) и установил...

mad / 11 сентября 2018
0 голосов
1 ответ

Я определил функцию в PySpark, которая - def add_ids(X): schema_new = X.schema

Clock Slave / 11 сентября 2018
0 голосов
1 ответ

Учитывая набор данных, как вы видите в приведенном ниже коде (df), я должен иметь возможность...

sujit / 11 сентября 2018
0 голосов
2 ответов

Я хочу сравнивать Prev.data с текущими данными по месяцам.У меня есть данные, как показано ниже....

lakshmiprathyusha / 11 сентября 2018
0 голосов
1 ответ

Spark версия: 2.2.0.cloudera2 Обычно мы регистрируем временную таблицу следующим образом: dataframe

D.Eric / 11 сентября 2018
0 голосов
0 ответов

Мы запускаем приложение Spark в кластере Amazon EMR. Наш код принимает данные JSON, преобразует их...

JOSE MANUEL RAMIREZ LEON / 10 сентября 2018
0 голосов
0 ответов
0 голосов
1 ответ

У меня есть следующий DataFrame df в PySpark. import pyspark.sql.functions as func df = spark\

Markus / 10 сентября 2018
0 голосов
0 ответов
0 голосов
1 ответ

У меня есть файл данных в формате json, одно из его полей существует в виде строки, а также типа...

indra / 10 сентября 2018
0 голосов
1 ответ

Я запускаю ниже искровой SQL-запрос в Intellij Maven IDE, SELECT seq_no, amount, (select max(b

Kumar / 10 сентября 2018
0 голосов
1 ответ

Я пытаюсь получить данные из базы данных Oracle и поместить их в AWS S3 , используя Apache Spark 2

Rinaz Belhaj / 10 сентября 2018
0 голосов
1 ответ

Недавно я разработал приложение Spark Streaming с использованием Scala и Spark. В этом приложении я...

Krishna / 10 сентября 2018
0 голосов
0 ответов

Я использую Spark 2.3.0 и у меня есть два фрейма данных. Первый, df1, имеет схему: root |-- time:...

rabejens / 10 сентября 2018
0 голосов
2 ответов

В настоящее время я пытаюсь выяснить, как передать аргумент формата String в функцию pyspark...

bublitz / 10 сентября 2018
0 голосов
1 ответ

это мой простой код. spark.sql("select * from default.some_table") при использовании...

HyungRyuk / 10 сентября 2018
0 голосов
1 ответ

У меня есть набор данных журнала событий, например: | patient | timestamp | event_st | extra_info |...

Juan Gonzalez / 10 сентября 2018
0 голосов
0 ответов

У меня есть DataFrame, у которого есть столбец id, который используется для соединения с другими...

Daniel Melemed / 10 сентября 2018
0 голосов
3 ответов

Моя функция get_data возвращает кортеж: два целых значения. get_data_udf = udf(lambda id:...

Markus / 09 сентября 2018
0 голосов
1 ответ

У меня следующая ситуация: У меня есть датафрейм с массивом в качестве схемы. Теперь я хочу...

Sedir Mohammed / 09 сентября 2018
0 голосов
1 ответ

Вот последняя схема, которую я пытаюсь достичь с помощью Spark SQL |-- references: array (nullable...

Fauzan / 09 сентября 2018
0 голосов
2 ответов

Мне нужно преобразовать DataFrame, в котором один из столбцов состоит из списка кортежей, каждый...

ivan_bilan / 09 сентября 2018
0 голосов
0 ответов

Я хочу запустить recoverPartitions для таблиц, которые могут иметь или не иметь разделы. Прямо...

MichaelChirico / 09 сентября 2018
0 голосов
0 ответов

Например, у меня есть такой набор данных test = spark.createDataFrame([ (0, 1, 5,...

cqcn1991 / 09 сентября 2018
0 голосов
1 ответ
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...