В Kafka Confluent, как мы можем использовать upsert, используя источник в качестве CSV-файла, при использовании pk.mode=record_key
для составного ключа в таблице MySQL? Режим upsert работает при использовании pk.mode=record_values
. Есть ли необходимость в дополнительной настройке?
Я получаю эту ошибку, если пытаюсь использовать pk.mode=record_key
. Ошибка - вызвано: org.apache.kafka.connect.errors.ConnectException
: нужен только один столбец PK, поскольку схема ключей для записей является примитивным типом. Ниже моя конфигурация разъема мойки JDB C:
{
"name": "<name>",
"config": {
"connector.class": "io.confluent.connect.jdbc.JdbcSinkConnector",
"tasks.max": "1",
"topics": "<topic name>",
"connection.url": "<url>",
"connection.user": "<user name>",
"connection.password": "*******",
"insert.mode": "upsert",
"batch.size": "50000",
"table.name.format": "<table name>",
"pk.mode": "record_key",
"pk.fields": "field1,field2",
"auto.create": "true",
"auto.evolve": "true",
"max.retries": "10",
"retry.backoff.ms": "3000",
"mode": "bulk",
"key.converter": "org.apache.kafka.connect.storage.StringConverter",
"value.converter": "io.confluent.connect.avro.AvroConverter",
"value.converter.schemas.enable": "true",
"value.converter.schema.registry.url": "http://localhost:8081"
}
}