Hi, 目前对RocksDB使用的内存是没有严格限制住的,可以参考这个 ticket:
https://issues.apache.org/jira/browse/FLINK-15532
如果要定位到内存使用情况,可以先看一些粗的Metrics:
https://nightlies.apache.org/flink/flink-docs-master/docs/deployment/config/#rocksdb-native-metrics
如果要再细致定位到单 instance 内部 RocksDB 的详细内存使用情况,可能需要用 malloc
的prof工具了,比如Jemalloc的Jeprof:
https://github.com/jemalloc/jemalloc/wiki/Use-Case%3A-Heap-Profiling

On Wed, Jun 7, 2023 at 4:58 PM crazy <2463829...@qq.com.invalid> wrote:

> Hi, 大佬们好,
> &nbsp; &nbsp; &nbsp;请教下有个应用使用的flink1.13.5 on
> yarn,状态后端用的是rocksdb,任务运行一段时间就会内存超用,把overhead调大一些好像能缓解一些,请问有描述这类问题的相关issue吗?如何定位是哪部分内存超了呢?感谢
>
>
> crazy
> 2463829...@qq.com
>
>
>
> &nbsp;



-- 
Best,
Hangxiang.

回复