flink cdc 消费mysql写到kafka场景下一开始数据量不大给的分区数可能只有3,后面业务数据量上来了需要添加分区数,例如12。那么问题来了,如何确保同一条记录的数据变更历史发到同一个kafka分区以确保下游消费的顺序性?重启作业好像也不能解决这个问题吧?
- flink cdc + kafka场景下增加kafka分区数问题 casel.chen
- Re: flink cdc + kafka场景下增加kafka分区数问题 yidan zhao
- Re:Re: flink cdc + kafka场景下增加kafka分区数问题 casel.chen
- 回复:flink cdc + kafka场景下增加kafka分区数问题 JasonLee