是的,分片比较大,有一万七千多个分片
jm内存目前是2g,我调整到4g之后还是会有这么问题,我在想如果我一直调整jm内存,后面增量的时候内存会有所浪费,在flink官网上找到了flink堆内存的相关参数,但是对这个不太了解,不知道具体该怎么调试合适,麻烦帮忙看一下如下图这些参数调整那个合适呢?
flink官网地址为:
https://nightlies.apache.org/flink/flink-docs-release-1.19/docs/deployment/memory/mem_setup_jobmanager/
| Component | Configuration options | Description |
| JVM Heap | jobmanager.memory.heap.size | JVM Heap memory size for job
manager. |
| Off-heap Memory | jobmanager.memory.off-heap.size | Off-heap memory size for
job manager. This option covers all off-heap memory usage including direct and
native memory allocation. |
| JVM metaspace | jobmanager.memory.jvm-metaspace.size | Metaspace size of the
Flink JVM process |
| JVM Overhead | jobmanager.memory.jvm-overhead.min
jobmanager.memory.jvm-overhead.max
jobmanager.memory.jvm-overhead.fraction | Native memory reserved for other JVM
overhead: e.g. thread stacks, code cache, garbage collection space etc, it is a
capped fractionated component of the total process memory
|
在 2024-04-09 11:28:57,"Shawn Huang" <hx0...@gmail.com> 写道:
从报错信息看,是由于JM的堆内存不够,可以尝试把JM内存调大,一种可能的原因是mysql表全量阶段分片较多,导致SourceEnumerator状态较大。
Best,
Shawn Huang
wyk <wyk118...@163.com> 于2024年4月8日周一 17:46写道:
开发者们好:
flink版本1.14.5
flink-cdc版本 2.2.0
在使用flink-cdc-mysql采集全量的时候,全量阶段会做checkpoint,但是checkpoint的时候会出现oom问题,这个有什么办法吗?
具体报错如附件文本以及下图所示: