配置一下 RocksDB 的native metrics,看下block cache以及 write buffer的实际使用内存。 另外,Flink中一个state会使用一个RocksDB的column family,而write buffer和block cache是一套column family 一套,所以你的operator 内的state数目多,slot内的keyed operator多,都会导致内存成倍增长
[1] https://ci.apache.org/projects/flink/flink-docs-release-1.11/ops/config.html#rocksdb-native-metrics 祝好 唐云 ________________________________ From: bradyMk <zhbm...@126.com> Sent: Monday, December 7, 2020 17:05 To: user-zh@flink.apache.org <user-zh@flink.apache.org> Subject: Re: 答复: flink使用RocksDB增量checkpoints,程序运行一段时间报出:超出物理内存 Hi~ 可是我这边write buffer以及block cache等参数设置的都不大,都远远小于我分给tm的内存,可为什么还会报超出内存的错误呢? ----- Best Wishes -- Sent from: http://apache-flink.147419.n8.nabble.com/