Вопросы с тегом апаш-искровой SQL - PullRequest

Вопросы с тегом апаш-искровой SQL

0 голосов
2 ответов

Я пытаюсь GPG зашифровать столбец данных в искровом фрейме FName df = spark

Umi / 18 ноября 2018
0 голосов
0 ответов

Я использую Spark-Sql для запроса таблиц Кассандры. В Cassandra я разделил свои данные с временным...

f.ald / 18 ноября 2018
0 голосов
1 ответ

Я читаю файл CSV через PySpark. Это файл с разделителями кареткой. Имеет 5 столбцов. Мне нужно...

Sri / 18 ноября 2018
0 голосов
2 ответов

У меня ниже двух наборов данных. code,name IN,India US,United States UK,United Kingdom SG,Singapore...

stacksr / 18 ноября 2018
0 голосов
0 ответов

Рассмотрим следующий DF: df = spark.createDataFrame( [ Row( x='a', y=[ {'f1': 1...

gr8one / 17 ноября 2018
0 голосов
0 ответов

Я сейчас работаю в Azure Databricks. У меня есть один консолидированный спарк-фрейм с такими...

Grevioos / 17 ноября 2018
0 голосов
1 ответ

По какой-то причине, когда я выполняю код .wriestream.format (json) .option (Path). У меня есть...

Mak / 17 ноября 2018
0 голосов
1 ответ

Я создаю приложение Spark SQL, которое использует тему Kafka, преобразует некоторые данные, а затем...

Tsar Bomba / 17 ноября 2018
0 голосов
0 ответов

У меня есть искровое задание, которое будет периодически отправляться для выполнения какой-либо...

palla chat / 17 ноября 2018
0 голосов
0 ответов

Существует структура JSON с форматом ниже.Как извлечь поля col1 и col2. root |-- F1: array...

Mohan / 16 ноября 2018
0 голосов
1 ответ

Мы используем Apache Spark для выполнения ETL каждые 2 часа. Иногда Spark оказывает большое...

Gowthaman V / 16 ноября 2018
0 голосов
1 ответ

Я сейчас ссылаюсь на Spark в книге действий, в которой я сталкивался с использованием одного и того...

user2815076 / 16 ноября 2018
0 голосов
4 ответов

У меня есть фрейм данных Pyspark, как: +--------+-------+-------+ | col1 | col2 | col3 |...

PRASHANT KUMAR GUPTA / 16 ноября 2018
0 голосов
1 ответ

В моем приложении я читаю 40 ГБ текстовых файлов, которые полностью распределены по 188 файлам. Я...

SUDARSHAN / 16 ноября 2018
0 голосов
0 ответов

У меня есть приложение, которое использует около 20 RDD для выполнения необходимых вычислений.Можно...

Dusan Vasiljevic / 16 ноября 2018
0 голосов
0 ответов

Я пытаюсь выполнить запрос, использующий Spark SQL, из блокнота Zeppelin, подключенного к AWS Glue....

Spandan Brahmbhatt / 16 ноября 2018
0 голосов
1 ответ

Я не уверен, почему первое ("traitvalue") в запросе кадра выходных данных работает ниже. Что...

pradeep aru / 15 ноября 2018
0 голосов
1 ответ

Я использую pyspark для преобразования данных в xml-файл.Ниже приведен мой примерный фрейм данных...

Nabarun Chakraborti / 15 ноября 2018
0 голосов
1 ответ

Предположим, у меня есть фрейм данных Spark с именем trades, который имеет в своей схеме несколько...

Simone Colucci / 15 ноября 2018
0 голосов
0 ответов

Моя проблема в этом.У меня есть пользовательский фрейм данных, созданный из записей netflow,...

Matěj Nemec / 15 ноября 2018
0 голосов
1 ответ

У меня есть этот DataFrame в PySpark: [Row(id='487', value=35185, time=datetime

Doman / 15 ноября 2018
0 голосов
0 ответов

Есть два стола Hive. Обе эти таблицы используют формат файла Parquet. Таблица A - с 5 столбцами...

Hemant Gupta / 15 ноября 2018
0 голосов
1 ответ

У меня есть один API, который выполняет операцию удаления на фрейме данных, как показано ниже def...

user3607698 / 15 ноября 2018
0 голосов
2 ответов

У меня есть приложение, которое пытается прочитать группу csv из директории кластера и записать их...

Pnutz / 15 ноября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...