好的,已经贴了sql片段
在 2024-03-08 11:02:34,"Xuyang" 写道:
>Hi, 你的图挂了,可以用图床或者直接贴SQL
>
>
>
>
>--
>
>Best!
>Xuyang
>
>
>
>
>在 2024-03-08 10:54:19,"iasiuide" 写道:
>
>
>
>
>
>下面的sql片段中
>ods_ymf
你好,我们用的是1.13.2和1.15.4版本的,看了下flink ui,这两种版本针对下面sql片段的lookup执行计划中的关联维表条件是一样的
在 2024-03-08 11:08:51,"Yu Chen" 写道:
>Hi iasiuide,
>方便share一下你使用的flink版本与jdbc connector的版本吗?据我所了解,jdbc
>connector在FLINK-33365[1]解决了lookup join条件丢失的相关问题。
>
>[1] https://issues.apache.org/jira
'
AND a.divide_fee_amt > 0
) dat
WHERE
trans_date = DATE_FORMAT (CURRENT_TIMESTAMP, '-MM-dd')
AND CHAR_LENGTH(member_id) > 1;
在 2024-03-08 10:54:19,"iasiuide" 写道:
下面的sql片段中
ods_ymfz_prod_sys_divide_order 为kafka source表
dim_ymfz_prod_sys_trans_lo
下面的sql片段中
ods_ymfz_prod_sys_divide_order 为kafka source表
dim_ymfz_prod_sys_trans_log 为mysql为表
dim_ptfz_ymfz_merchant_info 为mysql为表
flink web ui界面的执行计划片段如下:
[1]:TableSourceScan(table=[[default_catalog, default_database,
ods_ymfz_prod_sys_divide_order, watermark=[-(CASE(IS