Вопросы с тегом апаш-искра - PullRequest

Вопросы с тегом апаш-искра

0 голосов
0 ответов

Я использую набор инструментов hortonworks и пытаюсь проанализировать данные json, поступающие из...

John / 01 ноября 2018
0 голосов
1 ответ

Я использую бегущий искровой разрядник в качестве бегунка трубопровода в Apache Beam и обнаружил...

jithu / 01 ноября 2018
0 голосов
0 ответов

Я хотел бы перераспределить данные с RDD[LabeledPoint] на K разделов и использовать раздел K для...

user1269298 / 01 ноября 2018
0 голосов
2 ответов

Сервер Spark Thrift пытается загрузить полный набор данных в память перед передачей через JDBC, на...

Triffids / 01 ноября 2018
0 голосов
0 ответов

У меня есть список файлов (миллионы маленьких файлов), Я хочу обработать их кусками (100K за раз),...

DarkSpark / 01 ноября 2018
0 голосов
1 ответ

Я сталкиваюсь со специфической проблемой при тестировании производительности моего кода pyspark. Я...

Sandeep Kumar Roy / 01 ноября 2018
0 голосов
1 ответ

Я собираюсь попробовать EMR и впредь изучать документацию прямо сейчас. Я немного смущен процессом...

MaatDeamon / 01 ноября 2018
0 голосов
0 ответов

Я новичок в интеграции Spark и Kafka и столкнулся со странной проблемой. Код отлично работает на...

Bab / 01 ноября 2018
0 голосов
1 ответ

У меня есть фрейм данных, где каждая строка содержит префикс, указывающий на местоположение в S3. Я...

Liz Bennett / 01 ноября 2018
0 голосов
0 ответов

Я ломал голову, пытаясь заставить это регулярное выражение работать. После долгого поиска в Google...

luvrock / 01 ноября 2018
0 голосов
2 ответов

Ниже мой фрейм данных: val myDF= spark.sql("select company, comp_id from my_db.my_table")...

srini / 01 ноября 2018
0 голосов
2 ответов

У меня есть потоковые данные JSON, структуру которых можно описать с помощью класса case ниже case...

Hasif Subair / 31 октября 2018
0 голосов
1 ответ

Я пытаюсь измерить время обучения и прогнозирования алгоритмов классификации MLlib. Сейчас я...

Dawid Kunert / 31 октября 2018
0 голосов
3 ответов

Учитывая приведенный ниже фрейм данных, я хотел разбить столбец чисел на массив из 3 символов на...

Shadab Shariff / 31 октября 2018
0 голосов
0 ответов

У меня около 60 миллионов записей по 10К продукции, связанной с заказами и данными о доставке. Я...

user3476463 / 31 октября 2018
0 голосов
0 ответов

При чтении большого количества файлов орков из HDFS в каталоге spark не запускаются никакие задачи...

Giri / 31 октября 2018
0 голосов
0 ответов
0 голосов
1 ответ
0 голосов
1 ответ

У меня есть требование получить условие where, переданное пользователем в качестве аргументов...

Shyam / 31 октября 2018
0 голосов
1 ответ

У меня есть работа Spark, которая: Считывает данные из hdfs Проводит ли интенсивное преобразование...

ArtemArapov / 31 октября 2018
0 голосов
0 ответов

Объединяются ли данные в каждом разделе? Как мы все знаем, если использовать redubyKey , данные...

Shaokai Li / 31 октября 2018
0 голосов
3 ответов
0 голосов
1 ответ

Я только начал работать над искрой и начинаю. Q. Предположим, что мы передали небольшую таблицу, и...

Dhruv / 31 октября 2018
0 голосов
1 ответ

Я использую coalesce (1) для записи набора записей в корзину s3 в процессе csv. который занимает...

Sandeep kushwaha / 31 октября 2018
0 голосов
2 ответов

Я использую toPandas () для DataFrame, который не очень большой, но я получаю следующее исключение:...

Hao / 31 октября 2018
Добро пожаловать на сайт PullRequest, где вы можете задавать вопросы и получать ответы от других членов сообщества.
...