KSQL UDF: DataException: Структурные схемы не совпадают - PullRequest
0 голосов
/ 10 ноября 2019

Я пытаюсь создать поток как избранный (CSAS), поток создается успешно, но когда я пытался отправить сообщения, я получаю следующее исключение.

Caused by: org.apache.kafka.connect.errors.DataException: Struct schemas do not match.
    at org.apache.kafka.connect.data.ConnectSchema.validateValue(ConnectSchema.java:247)
    at org.apache.kafka.connect.data.Struct.put(Struct.java:216)
    at io.confluent.ksql.serde.GenericRowSerDe$GenericRowSerializer.serialize(GenericRowSerDe.java:116)
    at io.confluent.ksql.serde.GenericRowSerDe$GenericRowSerializer.serialize(GenericRowSerDe.java:93)
    at org.apache.kafka.common.serialization.Serializer.serialize(Serializer.java:62)
    at org.apache.kafka.streams.processor.internals.RecordCollectorImpl.send(RecordCollectorImpl.java:162)
    at org.apache.kafka.streams.processor.internals.RecordCollectorImpl.send(RecordCollectorImpl.java:102)
    at org.apache.kafka.streams.processor.internals.SinkNode.process(SinkNode.java:89)

Ниже приведен основной потоксведения о постоянном потоке и функции udf из ksql-cli не уверены, почему схема не совместима, как вы можете видеть ниже, у потока processed есть поле с именем article, схема которого точно такая же, как и у возвращенногозначение из функции UDF, я что-то здесь упускаю.

ksql> create stream main_stream ( article struct< _id VARCHAR, title VARCHAR, text VARCHAR, action VARCHAR, url VARCHAR, feed_id VARCHAR, mode VARCHAR, score INTEGER, published_at VARCHAR, retrieved_at VARCHAR> ) with  (KAFKA_TOPIC='articles', value_format='JSON');

ksql> create stream processed as select  test(article) article from main_stream;

ksql> describe processed;

Name                 : processed
 Field   | Type
-------------------------------------------------------------------------------------------------------------------------------------------------------------
 ROWTIME | BIGINT           (system)
 ROWKEY  | VARCHAR(STRING)  (system)
 ARTICLE | STRUCT<_ID VARCHAR(STRING), RAW_TITLE VARCHAR(STRING), RAW_TEXT VARCHAR(STRING), PROCESSED_TITLE VARCHAR(STRING), PROCESSED_TEXT VARCHAR(STRING)>
-------------------------------------------------------------------------------------------------------------------------------------------------------------
For runtime statistics and query details run: DESCRIBE EXTENDED <Stream,Table>;


ksql> show queries;

 Query ID      | Kafka Topic | Query String
--------------------------------------------------------------------------------------------------------------------------------------------------------------
 CSAS_processed_20 | processed       | CREATE STREAM processed WITH (REPLICAS = 1, PARTITIONS = 1, KAFKA_TOPIC = 'processed') AS SELECT TEST(MAIN_STREAM.ARTICLE) "ARTICLE"
FROM MAIN_STREAM MAIN_STREAM;
--------------------------------------------------------------------------------------------------------------------------------------------------------------

ksql> describe function test;

Name        : TEST
Overview    : test udf
Type        : scalar
Jar         : /Users/ktawfik/libs/custom-udf.jar
Variations  :

    Variation   : TEST(article STRUCT<_ID VARCHAR, TITLE VARCHAR, TEXT VARCHAR, ACTION VARCHAR, URL VARCHAR, FEED_ID VARCHAR, MODE VARCHAR, SCORE INT, PUBLISHED_AT VARCHAR, RETRIEVED_AT VARCHAR>)
    Returns     : STRUCT<_ID VARCHAR, RAW_TITLE VARCHAR, RAW_TEXT VARCHAR, PROCESSED_TITLE VARCHAR, PROCESSED_TEXT VARCHAR>
    Description : test
    article     : A complete article object

Также ниже кода UDF, который я использовал

@Udf(description = "test",
                    schema = "struct< _id VARCHAR, raw_title VARCHAR, raw_text VARCHAR, processed_title VARCHAR, processed_text VARCHAR>")
    public Struct processDocument(
            @UdfParameter(
                    schema = "struct< _id VARCHAR, title VARCHAR, text VARCHAR, action VARCHAR, url VARCHAR, feed_id VARCHAR, mode VARCHAR, score INTEGER, published_at VARCHAR, retrieved_at VARCHAR>",
                    value = "article",
                    description = "A complete article object") Struct struct) {

        Schema ARTICLE_SCHEMA = SchemaBuilder.struct()
                .field("_id", Schema.STRING_SCHEMA)
                .field("raw_title", Schema.STRING_SCHEMA)
                .field("raw_text", Schema.STRING_SCHEMA)
                .field("processed_title", Schema.STRING_SCHEMA)
                .field("processed_text", Schema.STRING_SCHEMA)
                .build();


Struct proStruct = new Struct(ARTICLE_SCHEMA);
        proStruct.put("_id", "1234");
        proStruct.put("raw_title", "RAW_TITLE___1234");
        proStruct.put("raw_text", "RAW_TEXT___1234");
        proStruct.put("processed_title", "TITLE____1234");
        proStruct.put("processed_text", "TEXT____1234");
        System.out.println(proStruct);
// Struct{_id=1234,raw_title=RAW_TITLE___1234,raw_text=RAW_TEXT___1234,processed_title=TITLE____1234,processed_text=TEXT____1234}
        return proStruct;

    }

1 Ответ

0 голосов
/ 11 ноября 2019

Мне удалось выяснить проблему и решить ее, в основном это тот факт, что движок KSQL переводит поля схемы в верхний регистр, следовательно, когда я отправляю поля нижним регистром, он не может их сопоставить, что неочистить в документах.

Исправление заключается в том, что я должен иметь:

  1. Все поля в программно определенном SCHEMA в верхнем регистре, AS WELL AS, поле схемы в @UDF аннотация.
  2. Все поля в программно определенной схеме должны точно соответствовать всем полям (именам и типам) в поле схемы в аннотации @UDF.

Коднаконец-то выглядело так:

@Udf(description = "test",
                    schema = "struct< _ID VARCHAR, RAW_TITLE VARCHAR, RAW_TEXT VARCHAR, PROCESSED_TITLE VARCHAR, PROCESSED_TEXT VARCHAR>")
    public Struct processDocument(
            @UdfParameter(
                    schema = "struct< _id VARCHAR, title VARCHAR, text VARCHAR, action VARCHAR, url VARCHAR, feed_id VARCHAR, mode VARCHAR, score INTEGER, published_at VARCHAR, retrieved_at VARCHAR>",
                    value = "article",
                    description = "A complete article object") Struct struct) {

        Schema ARTICLE_SCHEMA = SchemaBuilder.struct()
                .field("_ID", Schema.STRING_SCHEMA)
                .field("RAW_TITLE", Schema.STRING_SCHEMA)
                .field("RAW_TEXT", Schema.STRING_SCHEMA)
                .field("PROCESSED_TITLE", Schema.STRING_SCHEMA)
                .field("PROCESSED_TEXT", Schema.STRING_SCHEMA)
                .build();


Struct proStruct = new Struct(ARTICLE_SCHEMA);
        proStruct.put("_ID", "1234");
        proStruct.put("RAW_TITLE", "RAW_TITLE___1234");
        proStruct.put("RAW_TEXT", "RAW_TEXT___1234");
        proStruct.put("PROCESSED_TITLE", "TITLE____1234");
        proStruct.put("PROCESSED_TEXT", "TEXT____1234");
        System.out.println(proStruct);
        return proStruct;

    }
...