Доступно несколько решений, которые вам может потребоваться выбрать в соответствии с архитектурными требованиями или настройкой развертывания.
Дебезий:
Дебезий является распределенной платформой, развернутой через Apache Kafka Connect, которая может помочь в постоянном мониторинге различных баз данных вашей системы и позволяет приложениям транслировать каждое изменение на уровне строк в том же порядке, в котором они были зафиксированы в базе данных. Он превращает ваши существующие базы данных в потоки событий, благодаря чему приложения могут видеть и соответственно реагировать на каждое изменение уровня строки в базах данных.
Kafka Connect - это инфраструктура и среда выполнения для реализации и эксплуатации коннекторов источника, таких как Debezium, которые вводят данные в Kafka и коннекторы приемника, которые распространяют данные из тем Kafka в другие системы.
В случае MySQL, Разъем Дебезиума *1016* может помочь в мониторинге и записи всех изменений на уровне строк в базах данных на сервере MySQL. Все события для каждой таблицы записываются в отдельную топику Kafka c, и клиентские приложения могут читать разделы Kafka, соответствующие таблицам базы данных, в которых он заинтересован, и реагировать на каждое событие уровня строки, которое оно видит в этих темах. в соответствии с требованием.
Как только интересующие вас данные будут доступны в темах, можно использовать соединитель *1020* Kafka Connect HDFS Sink для экспорта данных из тем Kafka в файлы HDFS различных типов. форматирует в соответствии с вашим вариантом использования или требованием и интегрируется с Hive и когда он включен. Этот разъем помогает приложению периодически запрашивать данные у Apache Kafka и записывать их в HDFS . Этот соединитель также автоматически создает внешнюю секционированную таблицу Hive для каждого Kafka topi c и обновляет таблицу в соответствии с доступными данными в HDFS.
Демон Максвелла:
Демон Maxwell - это приложение CD C (Change Data Capture), которое читает MySQL binlogs (события из базы данных MyQ SQL) и записывает обновления строк как JSON на Kafka или другие потоковые платформы. Как только интересующие вас данные становятся доступны в темах kafka, можно использовать коннектор Kafka Connect HDFS Sink для экспорта данных из тем Kafka в файлы HDFS.
NiFi :
Apache NiFi помогает автоматизировать обмен данными между системами. Apache NiFi CD C (изменение сбора данных) также использует MySQL журналы бинов (через CaptureChange MySQL) для создания копии таблицы и обеспечения ее синхронизации c с изменениями уровня строки в источнике. Этот inturn может использоваться NiFi PutHDFS для записи данных в HDFS.