Hi,你好: 如果这些delay的数据在窗口计算之后才收到,那么会被Flink丢弃,但是你可以借助 allowedlateness 和 Side Output 把这部分delay的数据筛选出来,然后在进行处理。
在 2019-05-13 15:35:33,"Kobeli" <liyup...@qq.com> 写道: >hello flink watermark的问题 >flink job使用event time聚合指标, source是多分区的kafka,如果一个分区的数据由于某个原因(比如under-replica), >flink job不能消费这个partition的实时消息(只能消费kafka这个分区低水位的消息)。 >其它分区正常,由其它分区计算watermark, >过了很久,有问题的partition恢复正常,滞留的消息比watermark晚,会不会造成不计算这些晚到的消息? >如果这样,怎么解决?