Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
4 ответов

У меня есть набор таблиц кустов на основе Avro, и мне нужно прочитать данные из них.Поскольку...

Vinay Kumar / 30 мая 2018
0 голосов
1 ответ

У меня есть датафрейм, как показано ниже private val sample = Seq( (1, "A B C D E"), (1,...

Mohan / 30 мая 2018
0 голосов
0 ответов

У меня есть следующий код: - def writeToCassandra(cassandraConnector: CassandraConnector) = new...

Pinnacle / 30 мая 2018
0 голосов
0 ответов

У меня есть фрейм данных со следующей схемой: - scala> final_df.printSchema root |--...

Vinitkumar / 30 мая 2018
0 голосов
1 ответ

У меня есть базовое понимание искры, и я пытаюсь найти что-то, что может помочь мне достичь...

Keyur Jain / 30 мая 2018
0 голосов
1 ответ

У меня очень большой CSV-файл, поэтому я использовал spark и загрузил его в фрейм данных spark. Мне...

A.HADDAD / 30 мая 2018
0 голосов
1 ответ

У меня есть таблица в улье с приведенной ниже схемой emp_id: int emp_name: string Я создал фрейм...

abhijeet bedagkar / 30 мая 2018
0 голосов
1 ответ

Вот моя схема root |-- DataPartition: string (nullable = true) |-- TimeStamp: string (nullable =...

Shailendra / 30 мая 2018
0 голосов
0 ответов

У меня есть следующее data.frame в spark import findspark findspark.init() from pyspark.sql import...

quant / 30 мая 2018
0 голосов
0 ответов

У меня есть сильная статистика для расчета с искрой.Из фрейма данных необходимо вычислить около 50...

Rolintocour / 30 мая 2018
0 голосов
3 ответов

Я работаю над проектом и имею дело с некоторыми вложенными датами JSON со сложной схемой /...

fletchr / 30 мая 2018
0 голосов
2 ответов

У меня есть требование, когда кадр данных сортируется по col1 (метка времени), и мне нужно...

gagan singh / 29 мая 2018
0 голосов
1 ответ

Вот мой фрейм входных данных DataPartition TimeStamp OrganizationId SegmentId...

Shailendra / 29 мая 2018
0 голосов
1 ответ

Я использую Spark SQL и UDF используется для вычисления столбца типа ArrayType Какой тип вывода...

Yann Moisan / 29 мая 2018
0 голосов
0 ответов

У меня есть набор данных с двумя столбцами col1 и col2 типа массива переменной длины.col1 имеет имя...

Hassan Ali / 29 мая 2018
0 голосов
1 ответ

Я создаю DataSet следующим образом: SparkSession spark = JavaSparkSessionSingleton

Vikas Gite / 28 мая 2018
0 голосов
1 ответ

Сначала я задаю свой вопрос на этой странице: Spark CountVectorizer возвращает udt вместо вектора...

Vince Robatel / 28 мая 2018
0 голосов
3 ответов

Мое требование - привести все типы данных Decimal в DataFrame к String.Логика отлично работает с...

Vinitkumar / 28 мая 2018
0 голосов
1 ответ

У меня есть следующее data.frame в spark import findspark findspark.init() from pyspark.sql import...

quant / 28 мая 2018
0 голосов
2 ответов

Я пытаюсь записать в MongoDB из spark, для пробного использования я запускаю оболочку spark 2...

Vinitkumar / 28 мая 2018
0 голосов
1 ответ

Я пытаюсь поиграть с параметром spark.memory.storageFraction , чтобы уменьшить объем памяти,...

Hagai / 28 мая 2018
0 голосов
0 ответов
0 голосов
1 ответ

У меня есть датафрейм, который содержит около 100 тыс. Записей.Теперь я хочу записать этот кадр...

Rajendra Jangir / 28 мая 2018
0 голосов
1 ответ

Мне нужно проверить условие, если ReasonCode равен "YES", а затем использовать ProcessDate в...

RaAm / 28 мая 2018
0 голосов
1 ответ

Я попытался включить Spark cbo, установив свойство в spark-shell spark.conf.set("spark.sql.cbo

RockSolid / 28 мая 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...