Как правило, вы делаете это наоборот (Kafka для HDFS / Hive).
Но вы можете попробовать использовать плагин Kafka Connect JDBC для чтения из таблицы Hive по расписанию, который преобразует строки в сообщения Kafka со структурированным значением ключа.
В противном случае я бы переоценил другие инструменты, потому что Hive работает медленно. Couchbase или Cassandra предлагают гораздо лучшие функции CDC для приема внутрь Kafka. Или переписать исходные приложения, которые для начала были вставлены в Hive, а не писать сразу в Kafka, из которого вы, например, можете присоединиться к другим темам.