В настоящее время я использую один кластер Had oop из 10 узлов (1 узел имени и 9 узлов данных), в котором работают Hbase, Hive, Kafka, Zookeeper и другие эхо-системы Had oop. Теперь я хочу получить данные из RDBMS и сохранить их в HDFS в режиме реального времени. Можем ли мы сделать это, используя Confluent Source Connector и HDFS2 Sink Connector в одном кластере, или мне нужен отдельный кластер для Kafka Connect?