Я использую потоковую искру и читаю потоки из Кафки.Прочитав этот поток, я добавляю его на карту Hazelcast.
Проблема в том, что мне нужно отфильтровать значения с карты сразу после чтения потока из Кафки.
Я использую приведенный ниже код для распараллеливания значений карты.
List<MyCompObj> list = CacheManager.getInstance().getMyMap().values().stream().collect(Collectors.toList());
JavaRDD<MyCompObj> myObjRDD = sparkContext.parallelize(list);
Но в этой логике я использую JavaRDD в другой, которая называется JavaInputDStream.foreachRDD, и это вызывает проблемы с сериализацией.
Первый вопрос: как я могу запустить свое искровое задание с помощьюуправляемый событиями?
С другой стороны, я просто хочу узнать мнение о запланированных заданиях зажигания.Какова наилучшая практика, чтобы запланировать задание на искру, чтобы выполнить его в определенное время?