Hi
跟重启作业没关系哈,你需要自定义写入 kafka 的分区策略。


Best
JasonLee


---- 回复的原邮件 ----
| 发件人 | casel.chen<casel_c...@126.com> |
| 发送日期 | 2022年09月26日 23:21 |
| 收件人 | user-zh@flink.apache.org<user-zh@flink.apache.org> |
| 主题 | flink cdc + kafka场景下增加kafka分区数问题 |
flink cdc 
消费mysql写到kafka场景下一开始数据量不大给的分区数可能只有3,后面业务数据量上来了需要添加分区数,例如12。那么问题来了,如何确保同一条记录的数据变更历史发到同一个kafka分区以确保下游消费的顺序性?重启作业好像也不能解决这个问题吧?

回复