根据 keyGroup 的实现特性,并发度最好是 2 的 n 次方。

在 2020-12-28 10:38:23,"赵一旦" <hinobl...@gmail.com> 写道:
>是否有必要将并行度设置为128的约数我意思是。
>
>Shengkai Fang <fskm...@gmail.com> 于2020年12月28日周一 上午10:38写道:
>
>> hi, 如果热点是某个key的数据量较大造成的,那么re-partition依旧无法解决这个问题。
>> 个人认为最好的解决办法是基于window的 mini-batch 以及 local-global agg,社区正在解这类问题,可以关注下[1]
>>
>> [1]https://issues.apache.org/jira/browse/FLINK-19604
>>
>> 赵一旦 <hinobl...@gmail.com> 于2020年12月28日周一 上午10:31写道:
>>
>> > 还有个问题。对于window算子来说,keyBy的partition的最大并行度会设置为下游算子的最大并行度。
>> >
>> >
>> 然后假设我window的并行度为30,那么默认情况window的最大并行度是128。我在想,如果按照平均考虑,这种情况是不是从机制上就已经有大概率会导致数据倾斜了呢?设置成32对于128才可以均衡不是吗。
>> >
>> > Shengkai Fang <fskm...@gmail.com> 于2020年12月27日周日 下午3:46写道:
>> >
>> > > 可以通过该配置[1]来设置
>> > >
>> > > [1]
>> > >
>> > >
>> >
>> https://ci.apache.org/projects/flink/flink-docs-master/dev/table/config.html#table-exec-resource-default-parallelism
>> > >
>> > > 赵一旦 <hinobl...@gmail.com> 于2020年12月27日周日 下午12:44写道:
>> > >
>> > > > 了解下多少数据量呀,128的并发其实很高了感觉。
>> > > >
>> > > > guaishushu1...@163.com <guaishushu1...@163.com> 于2020年12月26日周六
>> > 下午5:39写道:
>> > > >
>> > > > >     Flink
>> > > > >
>> > > >
>> > >
>> >
>> SQL中Source和sink可以通过修改connector配置实现并发度配置,而其他算子的并发度都是根据Source并发度来设置的,这样最多是128个并发度。但是有些算子做聚合等处理,128并发明显不够这个应该怎么解决呢?支持通过配置设置其他算子并发度吗?
>> > > > >
>> > > > >
>> > > > >
>> > > > > guaishushu1...@163.com
>> > > > >
>> > > >
>> > >
>> >
>>

回复