Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
1 ответ

Я видел много таких сообщений об ошибке сериализации.Но я новичок в этом. Есть...

Kamal Kishore / 21 декабря 2018
0 голосов
1 ответ

Я использую кадры данных для чтения данных из файлов паркета и создания временного представления и...

Maneesh Jodge / 21 декабря 2018
0 голосов
1 ответ

Я столкнулся с одной проблемой при выполнении spark sql поверх потоковой обработки spark. Я не...

BigD / 21 декабря 2018
0 голосов
1 ответ

Я попробовал простой пример на spark 2.1cloudra2: val flightData2015 = spark .read

yuxh / 21 декабря 2018
0 голосов
0 ответов

У меня есть логика в классе Java, которая имеет метод и конструктор.Мне нужно создать UDF для этого...

Venu / 21 декабря 2018
0 голосов
1 ответ

Я обновил DSE 5.1 ​​до DSE 6.7.Мы используем аналитический узел с поддержкой spark для заданий...

Rahul Jain / 21 декабря 2018
0 голосов
1 ответ

Я прочитал руководство по программированию Spark о передаче функций и удивляюсь, что происходит,...

Minh Thai / 21 декабря 2018
0 голосов
1 ответ

Я хочу применить алгоритм случайного леса к фрейму данных, состоящему из трех столбцов, а именно...

Dipawesh Pawar / 21 декабря 2018
0 голосов
0 ответов

Я установил Hadoop, SPARK, PIG и Hive. Как настроить веб-интерфейс Ambari для существующих...

krishna guptha / 21 декабря 2018
0 голосов
2 ответов

Мне нужно написать некоторое регулярное выражение для проверки состояния в искре при выполнении...

user3607698 / 21 декабря 2018
0 голосов
0 ответов

Мой livy.pyspark работает отлично, но livy.sparkr не работает с df

andrew shved / 21 декабря 2018
0 голосов
0 ответов
0 голосов
0 ответов

У меня есть кластер c4.4x20 в режиме 20 для запуска искрового задания.Каждый узел - это 16 vCore,...

Abhi / 21 декабря 2018
0 голосов
1 ответ

Разве промежуточные переменные не кэшируются автоматически? Например: df = spark.read.csv ('file

marz / 20 декабря 2018
0 голосов
1 ответ

У меня возникла проблема во время потоковой передачи искры.Я получаю пустые записи после того, как...

BigD / 20 декабря 2018
0 голосов
0 ответов

У меня таблица клиентов в mysql, как показано ниже mysql> describe customers;...

Sumit Pawar / 20 декабря 2018
0 голосов
1 ответ

Я работаю с объектом JSON и хочу преобразовать object.hours в реляционную таблицу, основанную на...

Jason / 20 декабря 2018
0 голосов
3 ответов

Интересно, могу ли я сменить операторов на работу, уже представленную Flink.Предположим, у меня...

Felipe / 20 декабря 2018
0 голосов
0 ответов

Я использую логистическую регрессию PySpark, пытаясь отсортировать коэффициенты, чтобы я мог...

sparkly / 20 декабря 2018
0 голосов
2 ответов

У меня есть папка на HDFS, которая содержит 10 файлов CSV.Каждый файл CSV содержит 10000 строк и 17...

Nik / 20 декабря 2018
0 голосов
2 ответов

Как я могу запросить вложенный тип массива, используя объединения, используя набор данных Spark? В...

Shashank V C / 20 декабря 2018
0 голосов
0 ответов

У меня есть таблица с несколькими сотнями полей.Больше чем максимально допустимое количество полей...

adrian / 20 декабря 2018
0 голосов
1 ответ

Итак, в одной из наших тем о kafka есть около 100 ГБ данных.Мы запускаем потоковую передачу с...

Chandan Bhattad / 20 декабря 2018
0 голосов
1 ответ

В соответствии с документацией искровой документации, * Для использования этой функции есть два...

A Learner / 20 декабря 2018
0 голосов
4 ответов

Я использую SQLContext для чтения в CSV-файле следующим образом: val csvContents = sqlContext.read

covfefe / 20 декабря 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...