不好意思没看清楚,我说的是sql哈。datastream api的话我记得很早就支持了。
赵一旦 <hinobl...@gmail.com> 于2020年12月18日周五 下午7:31写道: > 从1.12开始支持。之前只能通过多张表union成一个view方式实现。 > > bradyMk <zhbm...@126.com> 于2020年12月18日周五 下午3:53写道: > >> Hi,想请教一下大家: >> >> >> 最近通过flink_taskmanager_job_task_operator_KafkaConsumer_records_consumed_rate指标发现, >> flink某个任务消费一个topic A 竟然比消费topic A,B,C,D一起的指标要高, >> 也就是我四个topic每秒消费的数据竟然还没其中一个topic每秒消费的数据高, >> 所以想请问:flink1.9.1 支持一个 source 指定消费多个 topics么? >> 我的代码如下: >> val A= params.getProperty("kafka.scene.data.topic") >> val B= params.getProperty("kafka.scene.log.topic") >> val C= params.getProperty("kafka.event.topic") >> val D= params.getProperty("kafka.log.topic") >> import scala.collection.JavaConverters._ >> val topics = List[String](sceneDataTopic, sceneLogTopic, eventTopic, >> sdkLog).asJava >> env .addSource(new FlinkKafkaConsumer011(topics, new >> JSONKeyValueDeserializationSchema(false), kafkaPro)) >> >> >> >> >> ----- >> Best Wishes >> -- >> Sent from: http://apache-flink.147419.n8.nabble.com/ >> >