非常感谢回复!

Flink 版本是使用的 1.12.0,通过
https://github.com/apache/flink-docker/tree/master/1.12/scala_2.12-java11-debian
编译的Docker 镜像,然后外层又安装的python3环境生成最终的镜像。(不知道为什么我发的邮件到平台上后会少一部分,我又单独在平台编辑了一下)。

之前邮件的剩余内容是:
JVM Metaspace Max大小是默认的 256 MB,每次跑这个 Batch 的统计任务后用量就会增加十几M,这样最后就OOM了。 
Flink 通过 Docker 运行的 1.12 版本,配置基本都是默认的,JVM这些没有额外设置什么。 
任务的内容比较简单,查询一张Mysql的表,然后统计几个数据,SQL里用了 COUNT() FILTER () 这种语句,结果写入 Kafka。 
代码中 使用 pipeline.jars 添加了所需要的 Mysql 和 Kafka 连接所需的 jar 包。 
使用Blink的Batch mode,env_setting =
EnvironmentSettings.new_instance().in_batch_mode().use_blink_planner().build() 
整体和官方例子差不多,所以不太清楚是哪里有问题。希望能帮助分析下原因。

好的,我尝试 jstack / jmap看看是否能定位到原因。



--
Sent from: http://apache-flink.147419.n8.nabble.com/

Reply via email to