452     
COMPLETED
103/103 2021-04-22 17:29:12     2021-04-22 17:29:12     325ms   4.40 MB 0 B 
(5.39 KB)
451     
COMPLETED
103/103 2021-04-22 17:28:12     2021-04-22 17:28:12     122ms   4.43 MB 9.36 KB 
(15.2
KB)
450     
COMPLETED
103/103 2021-04-22 17:27:12     2021-04-22 17:27:12     124ms   4.43 MB 0 B 
(5.39 KB)
449     
COMPLETED
103/103 2021-04-22 17:26:12     2021-04-22 17:26:12     112ms   4.48 MB 0 B 
(5.39 KB)
448     
COMPLETED
103/103 2021-04-22 17:25:12     2021-04-22 17:25:12     117ms   4.35 MB 0 B 
(5.39 KB)
447     
COMPLETED
103/103 2021-04-22 17:24:12     2021-04-22 17:24:12     113ms   4.41 MB 113 B 
(5.71
KB)
446     
COMPLETED
103/103 2021-04-22 17:23:12     2021-04-22 17:23:12     108ms   4.42 MB 9 B 
(5.86 KB)
445     
COMPLETED
103/103 2021-04-22 17:22:12     2021-04-22 17:22:12     130ms   4.47 MB 0 B 
(5.39 KB)
444     
COMPLETED
103/103 2021-04-22 17:21:12     2021-04-22 17:21:12     155ms   4.35 MB 0 B 
(5.39 KB)
443     
COMPLETED
103/103 2021-04-22 17:20:12     2021-04-22 17:20:12     119ms   4.45 MB 19.0 KB 
(46.1
KB)


flink1.12.2使用rocksdb作为后端存储时,发现ck size不断变大,我使用的是interval join
按理是不断失效的,应该在某个值附近摆动,同样的程序换成使用 fsstatebackend时发现就一直维持在几百k附近 不会一直变大。
请问这个是什么原因呢? 本来采取fsstatebackend,结果发现 运行一段时间(比如几个小时后)就会突然出现ck
失败,5分钟内无法完成ck超时,看日志并不是作业报错,只是单纯的 报以下错误:

Checkpoint 19 of job dd7b3ab0ec365d23c5dfa25dcf53a730 expired before complet
java.util.concurrent.CancellationException: null

请教大佬,求解答!



--
Sent from: http://apache-flink.147419.n8.nabble.com/

回复