Я пытался остановить работу через остановку миганием flink stop [jobid] Однако CLI выдает ошибку и...
Я бы хотел обработать None как ключевой случай, когда я применяю RichMapFunction к потоку с ключами
Я использую flink 1.6 и получаю случайные проблемы с тайм-аутом при отправке работы в менеджере...
У меня есть потоковое приложение EventTime, которое использует библиотеку CEP для базового...
Я запустил отслеживание задержки и передал /jobs/metrics REST API.Получена следующая информация:...
Согласно здесь , я включил JMX Exporter и смог подключиться к нему, чтобы увидеть некоторые...
Мы подписываемся на данные в реальном времени с сервера AMPS [CRANK UP THE AMPS] в качестве...
У меня есть DataStream, в котором есть разные поля, которые я хочу, чтобы keyBy выполнял...
У нас есть кластер с Hadoop и YARN на AWS EMR с одним ядром и одним мастером, каждый с 4 vCores, 32...
Я пытаюсь реализовать редукцию WindowedStream, например, так: .keyBy(t -> t.key)
Я впервые играю с flink (1.6, 1.7) и использую данные из архива github на https://www.gharchive
У меня есть поток данных от Kafka: stream .keyBy("key") .window(<tumbling window of 5...
Совершенно новый, чтобы мигать. пытался реализовать простое bucketingSink файл создан, но остается...
У меня есть DataStream от Kafka, который имеет 2 возможных значения для поля в MyModel.MyModel -...
Я тестирую время события и водяной знак во Флинке.Ниже мой код. object WatermarkTest { def...
Согласно документации Flink существует два измерения, влияющих на количество ресурсов, доступных...
Я реализовал расширенную функцию приемника, которая выполняет некоторые сетевые вызовы для каждого...
Я пытаюсь записать файл паркета как сток, используя AvroParquetWriter.Файл создан, но имеет длину 0...
У меня есть работа Flink, в которой я использую logback в качестве основы для логирования.Помимо...
У меня задание flink (выполняется на AWS EMR), которое использует другую зависимость maven, и эта...
Я исследую Флинк больше недели.Мы потребляем события от Kafka и хотим, чтобы события принадлежали...
У меня есть база данных с таблицами T1 (идентификатор, имя, возраст) и T2 (идентификатор, тема)
У меня есть непрерывные данные JSONArray, созданные для темы Kafka, и я хочу обработать записи с...
Я использую Apache Flink в проекте фондового рынка для расчета текущего изменения цены.Формула:...
Вариант использования: с использованием EventTime и извлеченной метки времени из записей из Kafka....