[ANNOUNCE] Apache Flink CDC 3.1.1 released

2024-06-18 文章 Qingsheng Ren
! Regards, Qingsheng Ren

[ANNOUNCE] Apache Flink CDC 3.1.0 released

2024-05-17 文章 Qingsheng Ren
! Regards, Qingsheng Ren

Re: [ANNOUNCE] Apache Flink 1.18.0 released

2023-10-26 文章 Qingsheng Ren
Congratulations and big THANK YOU to everyone helping with this release! Best, Qingsheng On Fri, Oct 27, 2023 at 10:18 AM Benchao Li wrote: > Great work, thanks everyone involved! > > Rui Fan <1996fan...@gmail.com> 于2023年10月27日周五 10:16写道: > > > > Thanks for the great work! > > > > Best, > >

[ANNOUNCE] Starting with Flink 1.18 Release Sync

2023-04-03 文章 Qingsheng Ren
Hi everyone, As a fresh start of the Flink release 1.18, I'm happy to share with you that the first release sync meeting of 1.18 will happen tomorrow on Tuesday, April 4th at 10am (UTC+2) / 4pm (UTC+8). Welcome and feel free to join us and share your ideas about the new release cycle! Details of

Re: flink1.15中kafka source、sink对kafka-client的版本要求是否可降低

2022-06-26 文章 Qingsheng Ren
Hi, 目前 Kafka connector 会依赖于高版本 kafka-clients 的一些 API,而且 sink 端为支持 exactly-once 语义使用了反射。Flink 社区考虑到 Kafka client 本身保证了较好后向兼容性,因此不再提供使用旧版本 client 的 Kafka connector,针对 5 年前发布的 Kafka 0.11 版本进行适配也不太现实。 祝好, 庆盛 > On Jun 23, 2022, at 19:37, yidan zhao wrote: > > 如题,我想问下相关了解的同学,目前只是升级 kafka-client

Re: Flink消费kafka实时同步到MongoDB出现丢数据

2022-06-26 文章 Qingsheng Ren
Hi, Flink Kafka connector 会在 checkpoint 完成后将位点提交至 Kafka broker,但是 Flink 并不会依赖于提交到 Kafka broker 上的位点做故障恢复,而是使用 checkpoint 中存储的位点恢复。 关于丢失数据个人建议可以先从小数据量开始复现问题,然后从 source 至 sink 再排查。 祝好, 庆盛 > On Jun 26, 2022, at 11:54, casel.chen wrote: > > mysql cdc -> kafka -> mongodb > 写了一个flink >

Re: Flink-1.15.0 消费kafka提交offset失败?

2022-06-26 文章 Qingsheng Ren
Hi, 这个是 Apache Kafka consumer 的一个已知问题,参见 FLINK-28060 [1] 和 KAFKA-13840 [2]。 [1] https://issues.apache.org/jira/browse/FLINK-28060 [2] https://issues.apache.org/jira/browse/KAFKA-13840 祝好, 庆盛 > On Jun 27, 2022, at 09:16, RS wrote: > > Hi, >

Re: Kafka source 检测到分区变更时发生 WakeupException

2022-05-24 文章 Qingsheng Ren
Hi, 感谢反馈,看上去是一个 bug。可以在 Apache JIRA [1] 上新建一个 ticket 吗? [1] https://issues.apache.org/jira > On May 25, 2022, at 11:35, 邹璨 wrote: > > flink版本: 1.14.3 > 模块:connectors/kafka > 问题描述: > 我在使用kafka分区动态发现时发生了WakeupException,导致Job失败。异常信息如下 > > 2022-05-10 15:08:03 > java.lang.RuntimeException: One

Re: flink jdbc connector不支持source

2022-04-10 文章 Qingsheng Ren
Hi, JDBC connector 是支持 source 的,应该是没有将最新的文档同步翻译成中文,可以参考一下英文文档 [1]。 [1] https://nightlies.apache.org/flink/flink-docs-release-1.13/docs/connectors/table/jdbc/ 祝好 > On Apr 10, 2022, at 11:07, casel.chen wrote: > > 现有一个场景是需要用flink一次性批量将某个mysql库下指定表(不同schema)同步到hudi表里面,查了一下官网flink jdbc >

Re: 一些关于flink rabbitmq connector的疑问

2021-10-29 文章 Qingsheng Ren
Hi Ken, Thanks for reaching out and sorry for making confusion! Like Leonard mentioned we definitely honor every connector in Flink community. And under the situation that we have more and more connectors to maintain and limited guys and resources focusing on connector-wise issues, some

Re: java.lang.LinkageError: loader constraint violation

2021-10-28 文章 Qingsheng Ren
你好, 可以检查一下 Flink 集群的 lib 目录下是不是同时存在 Kafka 相关的类,从异常来看应该是有类冲突。 -- Best Regards, Qingsheng Ren Email: renqs...@gmail.com On Oct 28, 2021, 10:44 AM +0800, casel.chen , wrote: > flink作业提交报如下异常,请问root cause是什么?要怎么修复呢? > > > > Caused by: java.lang.LinkageError: loader constraint vi

Re: 回复:回复:Re: 在开启checkpoint后如何设置offset的自动提交以方便监控

2021-10-27 文章 Qingsheng Ren
你好! 如果使用的是基于 FLIP-27 实现的 KafkaSource,可以配置 enable.auto.commit = true 和 auto.commit.interval.ms = {commit_interval} 使 KafkaSource 按照指定的时间间隔自动提交 offset。基于 SourceFunction 的 FlinkKafkaConsumer 在 checkpoint 开启时不支持自动提交,只能在 checkpoint 时提交位点。 -- Best Regards, Qingsheng Ren Email: renqs...@gmail.com

Re: Flink job消费kafka 失败,无法拿到offset值

2021-04-22 文章 Qingsheng Ren
level 配置为 DEBUG 或 TRACE,在日志中获取到更多的信息以帮助排查。 希望有所帮助! [1]  https://www.confluent.io/blog/kafka-client-cannot-connect-to-broker-on-aws-on-docker-etc/ — Best Regards, Qingsheng Ren 在 2021年4月14日 +0800 PM12:13,Jacob <17691150...@163.com>,写道: > 有一个flink job在消费kafka topic消息,该topic存在于kafka两个

Re: kafka数据源jar包使用异常

2021-04-08 文章 Qingsheng Ren
Hi, 从错误来看是在作业 JAR 里面缺少了 Flink Kafka connector 相关的类。可以确认一下 JAR 包里面是否把 Flink Kafka connector 相关的类打进去了,在 Maven POM 依赖中引用了 Kafka connector 并不意味着一定会被打进作业 JAR 中。 -- Best Regards, Qingsheng Ren Real-time Computing Department, Alibaba Cloud Alibaba Group Email: renqs...@gmail.com 在 2021年4月7日 +0800