如果使用 FlinkKafkaConsumer010 的话,可以调用 FlinkKafkaConsumer010#setRateLimiter(new GuavaFlinkConnectorRateLimiter().setRate) https://github.com/apache/flink/blob/fe3613574f76201a8d55d572a639a4ce7e18a9db/flink-connectors/flink-connector-kafka-0.10/src/main/java/org/apache/flink/streaming/connectors/kafka/FlinkKafkaConsumer010.java#L353
PS: 目前最新版本已经将 FlinkKafkaConsumer010, FlinkKafkaConsumer011 都删除了,只留一个Consumer,目前没有可以设置的入口,可关注 issue[1]. [1]https://issues.apache.org/jira/browse/FLINK-18740 Best, Hailong 在 2020-12-10 16:23:46,"zhao liang" <zhao...@gmail.com> 写道: >我这里有个场景是这样的,kafka里已经有一段时间的数据,读取的时候会一股脑的都读进来,我想模拟数据是刚进来的状态,比如数据是5秒一条,我就5秒钟读1条 > >发件人: Danny Chan <danny0...@apache.org> >日期: 星期四, 2020年12月10日 10:44 >收件人: user-zh@flink.apache.org <user-zh@flink.apache.org> >主题: Re: flink 1.12如何使用RateLimiter >您好 请问是什么场景呢 ?限速的目的是什么 ? > >18757141558 <18757141...@163.com> 于2020年12月9日周三 下午6:49写道: > >> 在源码中找到 FlinkConnectorRateLimiter 和 GuavaFlinkConnectorRateLimiter >> kafka相关的类中没有找到这些配置 >> 请问如何在api中使用RateLimiter(不修改源码方式)