Hi,你好:
如果这些delay的数据在窗口计算之后才收到,那么会被Flink丢弃,但是你可以借助 allowedlateness 和 Side Output 
把这部分delay的数据筛选出来,然后在进行处理。








在 2019-05-13 15:35:33,"Kobeli" <liyup...@qq.com> 写道:
>hello flink watermark的问题
>flink job使用event time聚合指标, source是多分区的kafka,如果一个分区的数据由于某个原因(比如under-replica), 
>flink job不能消费这个partition的实时消息(只能消费kafka这个分区低水位的消息)。
>其它分区正常,由其它分区计算watermark, 
>过了很久,有问题的partition恢复正常,滞留的消息比watermark晚,会不会造成不计算这些晚到的消息? 
>如果这样,怎么解决?

回复