这种一般是因为APIServer那边有问题导致单次的ConfigMap renew lease annotation的操作失败,Flink默认会重试的
如果你发现因为这个SocketTimeoutException原因导致了任务Failover,可以把下面两个参数调大 high-availability.kubernetes.leader-election.lease-duration: 60s high-availability.kubernetes.leader-election.renew-deadline: 60s Best, Yang On Tue, Mar 12, 2024 at 11:38 AM kellygeorg...@163.com < kellygeorg...@163.com> wrote: > 有没有高手指点一二???在线等 > > > > ---- 回复的原邮件 ---- > | 发件人 | kellygeorg...@163.com | > | 日期 | 2024年03月11日 20:29 | > | 收件人 | user-zh<user-zh@flink.apache.org> | > | 抄送至 | | > | 主题 | flink operator 高可用任务偶发性报错unable to update ConfigMapLock | > jobmanager的报错如下所示,请问是什么原因? > Exception occurred while renewing lock:Unable to update ConfigMapLock > > Caused by:io.fabric8.kubernetes.client.Kubernetes Client > Exception:Operation:[replace] for kind:[ConfigMap] with name:[flink task > xxxxxx- configmap] in namespace:[default] > > > Caused by: Java.net.SocketTimeoutException:timeout > > > > > > >