不好意思没看清楚,我说的是sql哈。datastream api的话我记得很早就支持了。

赵一旦 <hinobl...@gmail.com> 于2020年12月18日周五 下午7:31写道:

> 从1.12开始支持。之前只能通过多张表union成一个view方式实现。
>
> bradyMk <zhbm...@126.com> 于2020年12月18日周五 下午3:53写道:
>
>> Hi,想请教一下大家:
>>
>>
>> 最近通过flink_taskmanager_job_task_operator_KafkaConsumer_records_consumed_rate指标发现,
>> flink某个任务消费一个topic A 竟然比消费topic A,B,C,D一起的指标要高,
>> 也就是我四个topic每秒消费的数据竟然还没其中一个topic每秒消费的数据高,
>> 所以想请问:flink1.9.1 支持一个 source 指定消费多个 topics么?
>> 我的代码如下:
>>     val A= params.getProperty("kafka.scene.data.topic")
>>     val B= params.getProperty("kafka.scene.log.topic")
>>     val C= params.getProperty("kafka.event.topic")
>>     val D= params.getProperty("kafka.log.topic")
>>     import scala.collection.JavaConverters._
>>     val topics = List[String](sceneDataTopic, sceneLogTopic, eventTopic,
>> sdkLog).asJava
>>     env .addSource(new FlinkKafkaConsumer011(topics, new
>> JSONKeyValueDeserializationSchema(false), kafkaPro))
>>
>>
>>
>>
>> -----
>> Best Wishes
>> --
>> Sent from: http://apache-flink.147419.n8.nabble.com/
>>
>

回复