佳豪您好,

针对您所关心的一方连接器 Flink 版本兼容性情况,快速确认了一下现状:

Kunni 老师正在推进支持 Flink 2.x 的 JDBC 和 Kafka Connector 
新版本发布(FLINK-36659、FLINK-37142)[1][2],MongoDB connector 也已经于上个月发布了支持 Flink 1.20 
的 2.0.0 版本[3]。关于其他第一方连接器的版本更新情况,您也可以参阅去年 10 月 15 日 d...@flink.apache.org 邮件列表中 
Kunni 老师发起的关于“[DISCUSS] Flink external connector bump version”的讨论。

至于 CDC 连接器的情况,目前最新发布版本(Flink CDC 3.3.0)基于 Flink 1.20.1 开发,并通过端到端测试保证与 Flink 
1.19 的兼容性。Flink CDC 连接器不会为每个支持的 Flink 版本分别打包 jar,而是通过添加兼容性垫片的方式,使用单一 jar 
包同时支持多个 Flink 版本。鉴于 Flink 2.x 对内部 API 进行了大幅修改,要以现有的模式提供同时支持 Flink 1.x 和 2.x 
的发布版本工作量可能比较庞大,社区目前也没有相关讨论或计划。

综上所述,您所依赖的连接器矩阵在 Flink 1.20.1 版本基线上基本可用,或即将可用;而对 Flink 2.x 版本的支持仍处于早期阶段。

祝好!
Xiqian

[1] https://issues.apache.org/jira/browse/FLINK-36659
[2] https://issues.apache.org/jira/browse/FLINK-37142
[3] 
https://mvnrepository.com/artifact/org.apache.flink/flink-connector-mongodb-parent/2.0.0-1.20.0


> 2025年4月3日 11:23,陈佳豪 <jagec...@yeah.net> 写道:
> 
> 尊敬的社区,
> 
> 我目前正在尝试使用较新版本的Apache Flink(2.0和1.20.1),但遇到了不同类型连接器的版本兼容性问题。具体来说:
> 
> Flink 2.0版本CDC连接器缺失:
> 
> 目前找不到适用于Flink 2.0的CDC连接器版本
> 是否有官方计划发布支持Flink 2.0的CDC连接器版本?
> 
> Flink 1.20.1版本通用连接器缺失:
> 
> 多个常用连接器(如JDBC、MongoDB等)尚未发布对应Flink 1.20.1的版本
> 这些连接器的最高版本似乎仍然是针对Flink 1.19开发的
> 使用低版本连接器是否可行?有什么风险和注意事项?
> 
> 我的当前环境:
> 
> 正在评估升级至Flink 2.0或1.20.1
> 需要的连接器:MySQL-CDC、JDBC、MongoDB、Kafka等其他连接器
> 当前数据流:从关系型数据库提取数据,经过处理后其他异构数据库中
> 测试环境中已遇到连接异常和兼容性警告

回复