Re: 使用processor api生成savepoints,运行后报的错误

2021-05-05 文章 Yun Tang
什么版本的Flink,有试过旧版本么。另外,生成的程序规定的max parallelism和恢复作业的max parallelism相同么? 祝好 唐云 From: 张美玲 <18813152...@163.com> Sent: Tuesday, April 27, 2021 16:08 To: user-zh@flink.apache.org Subject: 使用processor api生成savepoints,运行后报的错误 2021-04-2715:59:18 java.lang.Exception: Exce

Re: 流跑着跑着,报出了rocksdb层面的错误 Error while retrieving data from RocksDB

2021-05-05 文章 Yun Tang
Hi, 你可以参阅文档 [1] : 由于 RocksDB 的 JNI API 构建在 byte[] 数据结构之上, 所以每个 key 和 value 最大支持 2^31 字节。 重要信息: RocksDB 合并操作的状态(例如:ListState)累积数据量大小可以超过 2^31 字节,但是会在下一次获取数据时失败。这是当前 RocksDB JNI 的限制。 [1] https://ci.apache.org/projects/flink/flink-docs-release-1.12/zh/ops/state/state_backends.html#rocksdbstatebac

Re: Upsert kafka 作为 source 的几个问题

2021-05-05 文章 macdoor
我也想知道 flink 在对 kafka 消息进行 join 时,是否对按主键分区有要求,KSQL有强制性的要求 -- Sent from: http://apache-flink.147419.n8.nabble.com/