Hi,
确实,connector包太多,DataStream 和 Table 分两套的问题,format的包也需要用户导入问题,确实比较困扰用户。
社区也在讨论flink打包方案[1]来降低用户接入成本。
祝好,
Leonard Xu
[1]http://apache-flink-mailing-list-archive.1008284.n3.nabble.com/DISCUSS-Releasing-quot-fat-quot-and-quot-slim-quot-Flink-distributions-tc40237.html#none
Hi,
> 对了还有个问题,我之前看文档使用 `flink-connector-kafka_2.11`一直都无法运行,后来看别人也遇到这道这个问题,改成
> `flink-sql-connector-kafka-0.11`
> 才可以运行,这两个有什么区别,如果不一样的话,对于 table API 最好标明一下用后者
flink-connector-kafka_2.11 是dataStream API编程使用的
flink-sql-connector-kafka-0.11_2.11 是 Table API & SQL
对了还有个问题,我之前看文档使用 `flink-connector-kafka_2.11`一直都无法运行,后来看别人也遇到这道这个问题,改成
`flink-sql-connector-kafka-0.11`
才可以运行,这两个有什么区别,如果不一样的话,对于 table API 最好标明一下用后者
macia kk 于2020年5月25日周一 上午10:05写道:
> built.sbt
>
> val flinkVersion = "1.10.0"
> libraryDependencies ++= Seq(
> "org.apache.flink" %%
built.sbt
val flinkVersion = "1.10.0"
libraryDependencies ++= Seq(
"org.apache.flink" %% "flink-streaming-scala" % flinkVersion ,
"org.apache.flink" %% "flink-scala" % flinkVersion,
"org.apache.flink" %% "flink-statebackend-rocksdb" % flinkVersion,
"org.apache.flink" %
Hi,
你使用的kafka connector的版本是0.11的吗?报错看起来有点像版本不对
Best,
Leonard Xu
> 在 2020年5月25日,02:44,macia kk 写道:
>
> 感谢,我在之前的邮件记录中搜索到了答案。我现在遇到了新的问题,卡主了好久:
>
> Table API, sink to Kafka
>
>val result = bsTableEnv.sqlQuery("SELECT * FROM " + "")
>
>bsTableEnv
> .connect(
>new
感谢,我在之前的邮件记录中搜索到了答案。我现在遇到了新的问题,卡主了好久:
Table API, sink to Kafka
val result = bsTableEnv.sqlQuery("SELECT * FROM " + "")
bsTableEnv
.connect(
new Kafka()
.version("0.11") // required: valid connector versions are
.topic("aaa") // required: topic
有人帮我看下这个问题吗,谢谢
[image: image.png]
[image: image.png]
org.apache.flink.client.program.ProgramInvocationException: The main
method caused an error: findAndCreateTableSource failed.
Caused by: org.apache.flink.table.api.NoMatchingTableFactoryException:
Could not find a suitable table factory for