问题已解决
需要在FLink home的lib中引入kafka connector jar包
-
Thanks!
Jacob
--
Sent from: http://apache-flink.147419.n8.nabble.com/
Thank you for your reply!
您所说的kafka connector 是*flink-connector-kafka_2.11*
这个依赖吗?这个是Datastream所用的依赖,我在pom中已经引入了* flink-sql-connector-kafka_2.11*依赖了。
我试了引入* flink-connector-kafka_2.11*,但还是会报错的。
-
Thanks!
Jacob
--
Sent from: http://apache-flink.147419.n8.nabble.com/
Thank you for your reply!
您所说的kafka connector 是* flink-connector-kafka_2.11*
这个依赖吗?这个是Datastream所用的依赖,我在pom中已经引入了 *flink-sql-connector-kafka_2.11*依赖了。
我试了引入* flink-connector-kafka_2.11*,但还是会报错的。
-
Thanks!
Jacob
--
Sent from: http://apache-flink.147419.n8.nabble.com/
Hi Jacob,
Maybe you miss the kafka connector dependency in your pom,
you could refer to this url :
https://ci.apache.org/projects/flink/flink-docs-release-1.11/dev/table/connectors/kafka.html
Best,
LakeShen
Jacob <17691150...@163.com> 于2021年6月1日周二 上午9:54写道:
> Dear All,
>
> 我在使用Flink
Dear All,
我在使用Flink SQL消费kafka并写入hive时报错,代码和报错信息如下
其中,Flink 版本为1.11.2,kafka connector使用的是flink-sql-connector-kafka。
搜索了很久,依然没有解决,相同的sql语句在flink sql clients可以执行,但在Java代码中,提交到hadoop集群后就报错如下:
请指教
*Java Code*
TableResult tableResult = tableEnvironment.executeSql("DROP TABLE IF EXISTS