Re: flink1.12.0 HA on k8s native运行一段时间后jobmanager-leader产生大量ConfigMap问题

2021-01-18 文章 Yang Wang
看着是Watch的时候报错了,你的K8s环境是怎么样的,如果Pod和K8s APIServer的网络状况不是很稳定会导致这个问题的 我这边在minikube和阿里云的ACK集群都做过测试,长时间运行(超过一周)并没有出现too old resource version等引起的JM重启 鉴于好几个人都反馈有这样的问题,会在1.12的下个bug fix(1.12.2)版本修复一下 Best, Yang macdoor 于2021年1月18日周一 上午9:45写道: > 您好,我刚刚开始使用 flink 1.12.1 HA on > k8s,发现jobmanager大约半小时左右会

Re: flink1.12.0 HA on k8s native运行一段时间后jobmanager-leader产生大量ConfigMap问题

2021-01-17 文章 macdoor
您好,我刚刚开始使用 flink 1.12.1 HA on k8s,发现jobmanager大约半小时左右会restart,都是这种错误,您遇到过吗?谢谢! 2021-01-17 04:52:12,399 INFO org.apache.flink.runtime.jobmaster.slotpool.SlotPoolImpl [] - Suspending SlotPool. 2021-01-17 04:52:12,399 INFO org.apache.flink.runtime.jobmaster.JobMaster [] - Close

Re: flink1.12.0 HA on k8s native运行一段时间后jobmanager-leader产生大量ConfigMap问题

2020-12-27 文章 Yang Wang
感谢使用K8s的HA mode,你用的是Session模式还是Application模式 * 如果是Application模式,那在flink job达到terminal state(FAILED, CANCELED, SUCCEED)时会自动清理掉所有HA相关的ConfigMap,你可以在webui上面cancel任务或者用flink cancel,然后观察一下,应该不会有残留的 * 如果是Session模式,你提交了很多任务,每个job都会对应一个ConfigMap的,这个ConfigMap的内容会在任务结束以后清理,但ConfigMap还存在,已经有一个ticket[1]来跟进Ses

flink1.12.0 HA on k8s native运行一段时间后jobmanager-leader产生大量ConfigMap问题

2020-12-27 文章 tao7
大家好,我使用native k8s方式部署flink1.12 HA到k8s一段时间后,jobmanager-leader产生了大量的ConfigMap,这些ConfigMaps都是正常需要的吗?大家都是如何清理和维护的呢? -- Sent from: http://apache-flink.147419.n8.nabble.com/