cpu request和limit不同会有什么影响吗?会不会pod竞争不过被kill掉?

















在 2021-12-20 11:36:02,"Jeff" <zilong0...@126.com> 写道:
>升级版本没有用的,我用的是flink 
>1.13.2也遇到这个问题,原因是它request与limit相同,所以后来我改了它的源代码,你可以参考一下:https://github.com/jeff-zou/flink.git
>  ,我主要是改了KubernetesUtils.java这个类,利用external resource传入参数来替换request
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>在 2021-12-18 09:15:06,"casel.chen" <casel_c...@126.com> 写道:
>>所用flink版本是1.12.5,部署作业到native k8s设置的不管是 kubernetes.taskmanager.cpu 还是 
>>kubernetes.jobmanager.cpu 最终在k8s yaml文件中显示的cpu 
>>request和limit都是一样的。这会导致作业的CPU使用率很低,因为我们发现作业刚启动的时候所需要的CPU资源要远远高于作业实际运行起来的CPU资源,二者可能相差近5倍左右。如果设置的cpu较低的话,作业启动需要花费很长时间。
>>如何才能够提高作业CPU使用率呢?可以直接修改k8s 
>>yaml文件将request设置得高一些,而limit设置低一些吗?还有更好的办法吗?升级Flink版本有望解决么?

回复