flink内存泄漏有什么排查的指标或者工具吗? 比如大致定位泄漏的位置之类的。
> 在 2022年9月19日,下午5:41,yidan zhao <hinobl...@gmail.com> 写道: > > 那你代码检查下有没有内存泄露呢。 > > 杨扬 <yangya...@cupdata.com> 于2022年9月19日周一 11:21写道: >> >> 还有一个现象,观察到 >> taskHeap内存占用在逐步升高,作业刚启动的时候占用在10%左右,一周后增加至25%左右,两周后增加至50%左右,上述指的是GC后观察到的内存占用值。两周后计算算子几乎一直100%busy状态,端到端延迟已经达到了10s左右,作业已经不可用需要重启了。 >> >> >> >> >>> 在 2022年9月15日,下午8:58,yidan zhao <hinobl...@gmail.com> 写道: >>> >>> 本身低延迟一定程度上就是靠“资源低利用率”实现的。资源高利用率情况,就是尽可能满负荷够用就行的意思。 >>> >>> yidan zhao <hinobl...@gmail.com> 于2022年9月15日周四 20:57写道: >>>> >>>> 资源足够,busy 50%+,延迟如果也可接受的话,其实就不算问题。2s延迟不算高。 >>>> >>>> 杨扬 <yangya...@cupdata.com> 于2022年9月15日周四 20:02写道: >>>>> >>>>> 目前并发度已经设定为25,每个slot内存为4G,已经使用100G内存,峰值流量10000TPS左右,资源是足够的吧? >>>>> >>>>> >>>>> >>>>> >>>>>> 在 2022年9月15日,下午7:27,yidan zhao <hinobl...@gmail.com> 写道: >>>>>> >>>>>> busy那就提升并发度看看效果? >>>>>> >>>>>> 杨扬 <yangya...@cupdata.com <mailto:yangya...@cupdata.com>> 于2022年9月15日周四 >>>>>> 14:51写道: >>>>>> 各位好! >>>>>> 目前有一flink作业,大致分为3个阶段: >>>>>> 读取kafka中数据(1个source,并行度3)-> 进行数据筛选和条件判断(没有窗口操作,并行度25)-> >>>>>> 结果写入kafka(20多个sink,每个sink并行度3)。可参考附件图片。 >>>>>> >>>>>> 目前存在的问题是:作业在运行一段时间后,中间25并行度的一系列计算算子会变为busy状态(会达到50%以上),端到端的信息延迟增加,偶尔延迟会达到2秒以上。此时作业日志并没有报错、异常、告警等信息。 >>>>>> >>>>>> >>>>>> 上述问题因为没有日志异常告警信息,本人有些无从下手解决。猜测是否因为sink数据量太多且每个sink并行度都是3会导致中间25个并行度的一系列算子和sink之间的交互产生大量shuffle引起?望各位大佬帮忙分析一下这个问题 >>>>>> >>>>>> >>>>>> >>>>>> ======================================================= >>>>>> 此邮件已由 Deep Discovery Email Inspector 进行了分析。 >>>>> >>> >>> ======================================================= >>> 此邮件已由 Deep Discovery Email Inspector 进行了分析。 >> > > ======================================================= > 此邮件已由 Deep Discovery Email Inspector 进行了分析。