什么版本的Flink,有试过旧版本么。另外,生成的程序规定的max parallelism和恢复作业的max parallelism相同么?
祝好
唐云
From: 张美玲 <18813152...@163.com>
Sent: Tuesday, April 27, 2021 16:08
To: user-zh@flink.apache.org
Subject: 使用processor api生成savepoints,运行后报的错误
2021-04-2715:59:18
java.lang.Exception: Exce
Hi,
你可以参阅文档 [1] :
由于 RocksDB 的 JNI API 构建在 byte[] 数据结构之上, 所以每个 key 和 value 最大支持 2^31 字节。 重要信息:
RocksDB 合并操作的状态(例如:ListState)累积数据量大小可以超过 2^31 字节,但是会在下一次获取数据时失败。这是当前 RocksDB
JNI 的限制。
[1]
https://ci.apache.org/projects/flink/flink-docs-release-1.12/zh/ops/state/state_backends.html#rocksdbstatebac
我也想知道 flink 在对 kafka 消息进行 join 时,是否对按主键分区有要求,KSQL有强制性的要求
--
Sent from: http://apache-flink.147419.n8.nabble.com/