dear all:
如题,我在调用RestClusterClient#cancel(JobID jobId)方法取消作业时,get不到结果,但作业能正常停止。
用future.get()会报错如下:
Number of retries has been exhausted.
用future.get(10, TimeUnit.SECONDS)会报错timeout.
调用#cancelWithSavepoint(...)和#stopWithSavepoint(...)就没问题,可以正常获取到结果,不报错。
目前发现,
1.10.0有问题,
1.14.0没有上述问题。
作业
dear all:
如题,我在调用RestClusterClient#cancel(JobID jobId)方法取消作业时,get不到结果,但作业能正常停止。
用future.get()会报错如下:
Number of retries has been exhausted.
用future.get(10, TimeUnit.SECONDS)会报错timeout.
调用#cancelWithSavepoint(...)和#stopWithSavepoint(...)就没问题,可以正常获取到结果,不报错。
目前发现,
1.10.0有问题,
1.14.0没有上述问题。
作
时间设长没有用,不限时都会报错。
回复的原邮件
| 发件人 | 何凯飞<18703416...@163.com> |
| 日期 | 2021年12月09日 15:07 |
| 收件人 | user-zh@flink.apache.org |
| 抄送至 | |
| 主题 | Re: flink1.10.0-RestClusterClient cancel job, 报错 |
有尝试过将 timeout 时间设置长一点嘛? 比如3 min
有尝试过将 timeout 时间设置长一点嘛? 比如3 min
dear all:
如题,我在调用RestClusterClient#cancel(JobID jobId)方法取消作业时,get不到结果,但作业能正常停止。
用future.get()会报错如下:
Number of retries has been exhausted.
用future.get(10, TimeUnit.SECONDS)会报错timeout.
调用#cancelWithSavepoint(...)和#stopWithSavepoint(...)就没问题,可以正常获取到结果,不报错。
作业运行于cdh yarn集群,版本2.6.0
作业部署,per-j