flink on native kubernetes如何使用 affinity 配置软互斥?即同一个作业的不同pod分布在不同的节点node上














在 2022-12-05 19:51:02,"casel.chen" <casel_c...@126.com> 写道:
>我司flink作业运行在k8s集群上,日前发现有一些k8s集群节点的网络io在某些时间段超过了告警阈值180MB/s,最多达到430MB/s,最少的只有4MB/s,导致新作业无法部署到网络负载高的节点上,哪怕cpu和内存还有很多剩余。
>目前我想的办法是利用节点亲和性手动从负载高的节点上迁移出那些耗网络io高的作业pod到负载低的节点,但是过一段时间又会出现类似的问题,请问:
>1. 有什么办法可以彻底消除这种网络负载不均衡问题么?
>2. k8s能否根据pod网络io负载进行合理调度吗?

回复