Hi, guanyq. 关于问题1:在提交./bin/flink run -m yarn-cluster如何不让这个appid递增? 这个appid的自增策略并不是根据Flink负责生成,如果有必要,你可以对hadoop-yarn进行调研,并做出你的结论。
关于问题2 ./bin/flink run -m yarn-cluster提交任务后。cancel掉job,如何在提交到这个appid上? 我是否可以理解为,flink yarn-session模式的集群更适合你的作业需求呢?因为在问题中提到的提交方式为per-job,job关闭后,Flink即关闭集群。 可参考: https://ci.apache.org/projects/flink/flink-docs-release-1.10/ops/deployment/yarn_setup.html#start-flink-session Best, Roc Marshal 在 2020-06-28 09:09:43,"guanyq" <dlgua...@163.com> 写道: >问题1 > >./bin/flink run -m >yarn-cluster每次提交是都会产生一个新的APP-ID如:application_1567067657620_0254 > >当yarn application -kill application_1567067657620_0254后, > >在提交./bin/flink run -m yarn-cluster如何不让这个appid递增? > >问题2 > >./bin/flink run -m yarn-cluster提交任务后。cancel掉job,如何在提交到这个appid上? > >