мы настроили kafka connect jdbc для чтения данных из db2 и публикации в теме kafka, и мы используем один из столбцов типа timestamp как timestamp.column.name, но я вижу, что kafka connect не публикует никаких данных в теме kafkaдаже если они не получают новые данные после установки kafka connect, это огромные данные в DB2, так что по крайней мере они должны публиковаться в теме kaka, но этого также не происходит, ниже моей конфигурации источника коннектора
{
"name": "next-error-msg",
"config": {
"connector.class": "io.confluent.connect.jdbc.JdbcSourceConnector",
"tasks.max": "1",
"connection.url": "DB_DATA_SOURCE_URL",
"connection.user": "DB_DATA_SOURCE_USERNAME",
"connection.password": "DB_DATA_SOURCE_PASSWORD",
"schema.pattern": "DB_DATA_SCHEMA_PATTERN",
"mode": "timestamp",
"query": "SELECT SEQ_I AS error_id, SEND_I AS scac , to_char(CREATE_TS,'YYYY-MM-DD-HH24.MI.SS.FF6') AS create_timestamp, CREATE_TS, MSG_T AS error_message FROM DB_ERROR_MEG",
"timestamp.column.name": "CREATE_TS",
"validate.non.null": false,
"topic.prefix": "DB_ERROR_MSG_TOPIC_NAME"
}
}
я сомневаюсь, почему он не читает данные, и он должен читать существующие данные, уже присутствующие в БД, но этого не происходит, это то, что мне нужно настроить или добавить дополнительно?