配置一下 RocksDB 的native metrics,看下block cache以及 write buffer的实际使用内存。
另外,Flink中一个state会使用一个RocksDB的column family,而write buffer和block cache是一套column 
family 一套,所以你的operator 内的state数目多,slot内的keyed operator多,都会导致内存成倍增长


[1] 
https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/config.html#rocksdb-native-metrics

祝好
唐云
________________________________
From: bradyMk <zhbm...@126.com>
Sent: Monday, December 7, 2020 17:05
To: user-zh@flink.apache.org <user-zh@flink.apache.org>
Subject: Re: 答复: flink使用RocksDB增量checkpoints,程序运行一段时间报出:超出物理内存

Hi~

可是我这边write buffer以及block cache等参数设置的都不大,都远远小于我分给tm的内存,可为什么还会报超出内存的错误呢?



-----
Best Wishes
--
Sent from: http://apache-flink.147419.n8.nabble.com/

回复