Приложение Читает из темы кафки.Каждое сообщение должно быть уникальным (дубликаты игнорируются)...
Я применяю пользовательскую функцию flatMap к DataStream во Flink и хочу записать исключения,...
Added Depedency Pom Details : <dependencies> <dependency> <groupId>org.apache
В doc написано: Чтобы включить отслеживание задержки, вы должны установить для...
Я видел, что остальные API Flink использует vertexid много мест .Что это значит и как мне его...
, когда моя программа Flink находится в режиме времени события, приемник не получит последнюю строку...
Я хочу знать подробный процесс восстановления после сбоя flink. В автономном режиме я предполагаю,...
Для одного из наших вариантов использования нам нужно повторить некоторые вычисления на основе...
Я пытаюсь преобразовать поток данных без использования окна, предоставленного Flink. Мой код...
У меня есть проект Spring Boot Gradle, который использует журнал LogBack. Я хочу, чтобы он...
Я пытаюсь использовать KeyedStream с Tuple для обработки различных типов Tuple, включая Tuple6
Я использую стратегию перезапуска по умолчанию для своих заданий, и она отлично работает в случае...
Может случиться, что данные, поступающие в задание Flink, вызывают исключение либо из-за ошибки в...
Когда я пытаюсь записать в коллекцию OUT в операторе flatMap, я получаю исключение недопустимого...
Я реализовал ProcessFunction, которая использует кеш Guava для фильтрации потока входящих событий
Как работает UDFS в Flink SQL? Я обеспокоен эффективностью, поскольку вычислительные возможности в...
Как настоятельно рекомендуется в документации, я хочу добавить uid к своим операторам во Flink с...
Привет, я новичок в Flink. Я пытаюсь прочитать текстовый файл, и когда я его распечатываю, он...
Мой поток ввода type=1, time=10, start=123, other params type=2, time=11, start=123, other params...
Я настроил Apache Flink для отправки метрик Прометею через файл conf/flink-conf.yaml: metrics
Я настроил Flink для предоставления метрик JMXReporter, как говорится здесь . Я также настроил...
Для чтения Avro данных из Kafka у нас есть AvroDeserializationSchema. Но как насчет письма?
Я использую разъем Apache Flinke 1.7.2 RabbitMQ: https://ci.apache
Мы используем BucketingSink для записи сжатого файла (разделенного "\ n") в hdfs. Однако, как...
Я рассчитываю максимальное значение простого пара, и результат: (S1,1000, S1, значение: 999) (S1...