之前是如何实现的,通过 kafka 的record key?

casel.chen <casel_c...@126.com> 于2022年9月26日周一 23:21写道:
>
> flink cdc 
> 消费mysql写到kafka场景下一开始数据量不大给的分区数可能只有3,后面业务数据量上来了需要添加分区数,例如12。那么问题来了,如何确保同一条记录的数据变更历史发到同一个kafka分区以确保下游消费的顺序性?重启作业好像也不能解决这个问题吧?

回复