Предположим, что в моей теме уже есть 10 данных, и теперь я начинаю с того, что мой потребитель...
Я принимаю поток данных во Flink. Для каждого «экземпляра» этих данных у меня есть временная метка....
У меня кластер Flink, работающий внутри AWS EMR. Я пытаюсь развернуть мой пакетный файл JAR в...
Я хочу знать, как проверить окно. Например, окно wordcount : DataStream<Tuple3<String, Long,...
Работа My Flink (1.6) прослушивает поток и выполняет некоторую агрегацию. Я хочу собрать показатели...
Я пытаюсь загрузить некоторые файлы Avro с S3 с помощью Flink. Но я получаю ошибку ниже, не уверен,...
Я пытаюсь прочитать большой файл с пользовательским форматом .fvecs из HDFS и в DataSet. Данные...
Я пытаюсь преобразовать этот код jave в scala: DataSet<Tuple3<Long, String, String>>...
У меня есть потоковое приложение Flink, которому требуется возможность «приостановить» и «отменить»...
Что я делаю, это: 1. Скачайте flink-1.6.1-bin-scala_2.11.tgz и распакуйте 2.открыть затмение,...
Я хочу знать некоторые механизмы, связанные с keyedstream.Код выглядит следующим образом:...
Я хотел бы создать DataSet (или DataStream) из коллекции классов дел, содержащих Option значения.В...
Моя команда оценивает Flink для нескольких случаев использования, когда мы рассматриваем очень...
Мы получаем исключение при настройке flink в кластере Azure HDInsights. ./bin/yarn-session.sh -n 4...
У меня есть экземпляр Nifi в докере на виртуальной машине с открытыми портами: 8080 и 10000. На...
У меня задание на миг, подобное этому: DataStream<SomeObject> input1 = environment
Разве невозможно сериализовать классы, которые не являются POJO в apache flink?У меня есть...
У меня есть 2 потока данных (например) ts | device | custId | temp 1 | 'device1'| 1 | 10...
Это мой код: def saveToOpenTSDB(rows: Iterator[String], url: String) { val requestConfig:...
У меня проблема: я записываю отсортированные (по определенному ключу, например, метка времени)...
У меня процесс потоковой передачи в основном выглядит следующим образом Stream(Int, Boolean, Int)
Я использую flink table api, используя kafka в качестве источника ввода и json в качестве схемы...
У меня есть потоковое задание с использованием windows . Моя цель - сгруппировать записи по их...
Интересно, есть ли у кого-нибудь опыт с пометкой рыбы? * Выполняется партия Flink. * Подобно тому,...
Мне нужно выполнить задание Flink для извлечения записей из базы данных с заданным интервалом и...