Я читаю события от кинезиса в моем приложении Flink. события в формате protobuf. если я использую...
Я использую Apache beam. Я протестировал две версии моего конвейера: одну с боковым вводом (разных...
В Spark три знакомых мне варианта развертывания кластера (не локальных): Автономный Mesos Пряжа...
Я надеюсь получить рекомендации по настройке --environment_config при запуске демо-версии Beam...
Я использую Flink версии 1.8. Основная конфигурация следующая: env.java.opts: -Djavax.net.ssl
Я пишу пакетное задание с Apache Flink, используя DataSet API. Я могу прочитать текстовый файл,...
Я пытаюсь отправить потоковые данные, прочитанные из Kafka, принять и преобразовать, а затем...
Мы выполняем пакетное задание на flink, которое считывает данные из GCS и выполняет некоторую...
TL; DR: Какое на данный момент лучшее решение для гарантии порядка событий во времени во Flink? Я...
У меня есть таблица Flink со следующими столбцами: final String[] hNames = {"mID",...
Код ниже работает локально, но не в кластере. Он зависает на GroupReduceFunction и не завершается...
Я импортировал данные из CSV-файла в Flink Java. Один из атрибутов, который мне пришлось...
Как вы знаете, архитектура Kappa - это своего рода упрощение архитектуры Lambda. Каппа не нуждается...
Я долго пытался настроить приложение flink, которое создает Datastream<Tuple3<Integer, java
Моя проблема требует много исходных наборов данных, применяя к ним преобразования для получения...
Я работаю в автономном кластере. Все серверы могут запускать taskmanager.sh. Мой кластер...
Мне нужно запустить Flink Job на пряжу, и работа должна подключиться к hbaseПоэтому я настраиваю...
reduce: функция принимает накопленное значение и следующее значение, чтобы найти некоторую агрегацию
Я пытаюсь построить конвейер Flink, который читает из API Twitter в реальном времени и пишет в...
Я пишу пакетное задание Flink и добавляю много print () в мой DateSet<> для отладки.Затем...
Я предоставляю пользователям интерфейс Flink SQL, поэтому я не могу использовать интерфейс Table...
У меня есть DataSet типа: scala> userDs res162: org.apache.flink.api.scala.DataSet[org.apache
Есть ли конкретный пример рабочего процесса, который возможен в Fink, который невозможен в Spark 2
Я использую кластер EMR с 3 узлами m5.xlarge (1 master, 2 core) и установленным Flink 1.8 (emr-5.24
У нас есть пакетные конвейеры, записывающие файлы (в основном csv) в корзину s3.Некоторые из этих...