Если я правильно понимаю, вы хотите прочитать события из Hive и нажать на Кафку.У меня нет опыта работы с обработчиками хранилищ, но я бы предпочел написать соответствующий код для вывода в Kafka, а затем передать эти события в Hadoop / Hive.
В Kafka есть инфраструктура, называемая Kafka Connect, которая выполняет запись во внешние системы. Confluent написал такой Connector для HDFS, который предлагает поддержку Hive, обновляя метасторское хранилище Hive всякий раз, когда файл записывается в HDFS.
Не записывая обработчик хранилища, вы можете попробовать использовать соединитель JDBC Source или иным образом Spark / Flink, чтобы прочитать эти данные из Hive и протолкнуть их в Kafka.
Обычно Hadoop является местом назначения событий CDC, а не его источником.Главным образом, потому что это просто медленный запрос ... Если вы хотите создавать события на вставках, обычно требуется некоторое сканирование таблицы, так что генерация событий из Cassandra / Hbase может быть лучшим вариантом