@Kurt,
这个是符合预期的。为了防止和用户code中可能的Kafka依赖发生冲突。
On Mon, Feb 25, 2019 at 10:28 AM Kurt Young wrote:
> kafka的包看路径是shade过的,这是符合预期的吗? @Becket
>
> Best,
> Kurt
>
>
> On Mon, Feb 25, 2019 at 9:56 AM 张洪涛 wrote:
>
> >
> >
> > sql-client.sh 的启动参数首先在classpath里面会包含kafka相关的jar 另外会有--jar
> > 包含所有connector的jar
确认一下standalone cluster 和 sql client 用的是同一份 flink/blink bin
印象中两者不一致会有一些奇怪的问题。
On Mon, Feb 25, 2019 at 9:56 AM 张洪涛 wrote:
>
>
> sql-client.sh 的启动参数首先在classpath里面会包含kafka相关的jar 另外会有--jar
> 包含所有connector的jar
>
>
> 这些jars在sql-client提交job时候会上传到cluster的blob store 但是很奇怪为啥找不到
>
>
> 00:00:06 /usr/lib/
kafka的包看路径是shade过的,这是符合预期的吗? @Becket
Best,
Kurt
On Mon, Feb 25, 2019 at 9:56 AM 张洪涛 wrote:
>
>
> sql-client.sh 的启动参数首先在classpath里面会包含kafka相关的jar 另外会有--jar
> 包含所有connector的jar
>
>
> 这些jars在sql-client提交job时候会上传到cluster的blob store 但是很奇怪为啥找不到
>
>
> 00:00:06 /usr/lib/jvm/java-1.8.0-openjdk/bin/ja
能不能看一下运行sql-client.sh的运行参数。具体做法是:
运行sql-client.sh
ps | grep sql-client
查看一下其中是不是有这个 flink-connector-kafka-0.11 的 jar.
Jiangjie (Becket) Qin
On Fri, Feb 22, 2019 at 6:54 PM 张洪涛 wrote:
>
>
> 是包含这个类的
>
>
> jar -tf flink-connector-kafka-0.11_2.11-*.jar | grep Crc32C
>
> org/apache/flink/kafka011/