回复: Re:flink exactly once 写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?
你好. 但是下一次cp发起之时, kafka transaction 已经超时失败了, sink端precommit之前,写入到kafka的数据, 是不是就丢失了? 发件人: Xuyang 发送时间: 2022年11月1日 23:08 收件人: user-zh@flink.apache.org 主题: Re:flink exactly once 写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢? Hi, 应该会等到下一次做cp的时候再提交 在 2022-11-01 17:13:22,"郑 致远" 写道: >大佬们好. >flink exactly once 写kafka,如果flink >checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢? >kafka的transaction因为超时,abort后, 会导致abort之前写kafka的数据,丢失吗?
Re:flink exactly once 写kafka,如果checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢?
Hi, 应该会等到下一次做cp的时候再提交 在 2022-11-01 17:13:22,"郑 致远" 写道: >大佬们好. >flink exactly once 写kafka,如果flink >checkpoint超时了导致kafka的transaction在commit之前也超时了, flink会怎么处理呢? >kafka的transaction因为超时,abort后, 会导致abort之前写kafka的数据,丢失吗?