(1) 的方式相当于一个shade之后的包,会把所有compile的依赖都打进去。 (2) 的方式的话,你需要自己手工添加所有这个connector的依赖,比如你提到的kafka-clients。 而且,kafka-clients本身的依赖如果你没有打到kafka-clients这个包里面的话,那你也需要把 那些compile依赖也都放进来。所以相当于手工做了一遍maven的依赖处理,而且要想全部都 放进来,应该会有很多。
如果你对kafka-clients有修改,建议自己重新依赖自己修改后的kafka-clients打包一个kafka-sql-connector-kafka 赵一旦 <hinobl...@gmail.com> 于2020年9月28日周一 下午5:51写道: > > 看了下pom,在flink-sql-connector-kafka中依赖了flink-connector-kafka-**,该包又依赖了flink-connector-kafka-base-**以及kafka-client。 > 然后flink-sql-connector-kafka做了shade。 > > 所以看下来,我的那个(1)和(2)理论上效果是一样的。 > ———————————————————————————————————————————————————————— > > 顺便讲下,我kafka-clients更换了ssl证书读取方式,用于支持hdfs等分布式协议(直接复用了flink-core中的filesystem实现)。 > > 赵一旦 <hinobl...@gmail.com> 于2020年9月28日周一 下午5:42写道: > > > > 这个不是很懂,(1)flink-connector-kafka_2.11-1.11.2.jar+flink-connector-kafka-base_2.11-1.11.2.jar+kafka-clients-0.11.0.3.jar > > 和(2)flink-sql-connector-kafka**.jar是啥区别呢? > > > > 使用(1)可以不?因为我的kafka-clients部分是调整了源码的。 > > > > Leonard Xu <xbjt...@gmail.com> 于2020年9月28日周一 下午4:36写道: > > > >> Hi > >> benchao的回复是的对的, > >> 你用SQL client 时, 不需要datastream connector的jar包,直接用SQL connector 对应的jar包 > >> flink-*sql*-connector-kafka***.jar就行了,把你添加的其他jar包都删掉。 > >> > >> > >> > 相关lib包: > >> > flink-connector-kafka_2.12-1.10.2.jar > >> > kafka-clients-0.11.0.3.jar > >> > >> 祝好 > >> Leonard > > > > > -- Best, Benchao Li