Kafka Connect-HDFS with Hive Integration - SchemaProjectorException - Schema version requerired

       我创建了一个pipeline,如下所示:
(1)将tweets流数据写入Kafka的topic
(2)Confluent的HDFS Sin将tweets流写入到HDFS,并定义Hive表的集成。

       如果我不启用Hive integration时,一切都可以正常运行。但是启用时,会报如下错误:

org.apache.kafka.connect.errors.SchemaProjectorException: Schema version required for BACKWARD compatibility

       这个错误的原因是我使用了错误的Converter,比如要使用Avro,但是我使用了Json。

    原文作者:阿猫阿狗Hakuna
    原文地址: https://www.jianshu.com/p/c29ffe99ab16
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞