С Scala , как я могу преобразовать Iterable[t] в Future[Seq[T]]? В основном я хочу прочитать все...
Я пытался разобрать содержимое из файла .docx и столкнулся с проблемами val file : File = new...
У нас есть одно приложение, в котором мы используем файлы конфигурации, и у них есть поля в виде...
Я использую язык scala для определения 2 операторов: :++ и ++:, которые служат точным зеркалом друг...
У меня есть следующий кадр данных: +-----------+ | f1 | +-----------+ |[a,b,c] | |[e,f,g] | |[h,i]...
Я пытаюсь запустить искровой код, который будет читать таблицу в базе данных postgres и вставлять...
Я тренирую модель случайного леса в Spark 2.3, используя StringIndexer, OneHotEncoderEstimator и...
Моя проблема в том, что я работаю с DataFrame и хочу: 1) Получить один столбец с val column =...
С типами SAM у нас может быть: trait Sam { def foo(i: Int): String } val sam : Sam = _.toString Что...
Есть ли хорошие способы установить connection-init-sql в finagle-mysql?как SET SESSION...
У меня есть структура кода, подобная следующей. trait Document { def name: String @transient lazy...
Я искал альтернативу для SQL-запроса в Spark Scala, в частности, Мой запрос ниже: CAST( COLUMN as...
Вот некоторый код для кошек Scala, использующий IO Monad : import java.util.concurrent
Я пытаюсь достичь следующих двух целей. a.Вызов нескольких HTTP-API в виде одного API на раздел b
Я натолкнулся на загадочную, но интересную кодовую конструкцию, которую я сократил до небольшого...
Образец DF: var someDF = Seq( (1, "2017-12-02 03:04:00"), (1, "2017-12-02...
У меня есть два фрейма данных, которые я объединяю с помощью объединения.После выполнения...
У меня есть существующие паркет (скажем, p1) для чтения в информационный кадр, а затем после...
Предположим, что функция зациклена для получения числового результата.Цикл останавливается либо при...
Поскольку мы можем использовать изменяемый объект в качестве широковещательной переменной в spark,...
Согласно документации аккумуляторов в искре: Обратите внимание, что задачи на рабочих узлах не...
У меня есть требование, при котором я должен читать файлы паркета в разных каталогах в HDFS
У меня есть небольшой вопрос об этом куске кода (который не компилируется): def avg(seq: Seq[Int]):...
У меня есть набор данных, скажем, DS. DS.printSchema() root |-- BRAND: string (nullable = true) |--...
В настоящее время я использую spark-submit --master yarn --deploy-mode cluster для запуска своих...