我们这个任务的operator没有分配uid,之前也没有分配uid但是从cp恢复过好几次都成功了 就这次没有成功

宇 <freeman52...@qq.com> 于2020年8月14日周五 下午1:57写道:

> 有没有可能是没分配uid,然后dag发生了变化,导致的恢复不了状态
>
>
>
> ---原始邮件---
> 发件人: "Yang Peng"<yangpengklf...@gmail.com&gt;
> 发送时间: 2020年8月14日(周五) 中午1:02
> 收件人: "user-zh"<user-zh@flink.apache.org&gt;;
> 主题: Flink任务写入kafka 开启了EOS,statebackend为rocksdb,任务反压source端日志量堆积从cp恢复失败
>
>
> Hi,咨询各位一个问题我们有个任务,statebackend为rocksdb
>
> 增量执行cp,flink读取kafka经过处理然后写入到kafka,producer开启了EOS,最近发现任务有反压,source端日志量有积压,然后准备改一下资源分配多加一些资源(没有修改并行度,代码未做修改)从cp恢复任务,任务被cancel之后然后从cp恢复发现起不来了连续两次都不行,由于客户端日志保存时间太短当时没来得及去查看客户端日志,所以没有找到客户端日志,

回复