回复: flink 1.13.0 中cumulate window 使用

2021-06-03 Thread
方需要根据key 在数据库里面进行update 操作,使用CUMULATE WINDOW 可以实现吗?该怎么用这个SQL? | | 邹云鹤 | | kevinyu...@163.com | 签名由网易邮箱大师定制 在2021年5月28日 11:51,Leonard Xu 写道: Hi, Cumulate window 是基于 window TVF 语法的,和之前的 groupWindowFunction 不一样, 你可以参考 [1] Window TVF 也支持了 tumble window, hop window, 并且性能更优,session window 预计会在1.14支持

回复: flink 1.13.0 中cumulate window 使用

2021-06-03 Thread
大佬, 你好 | | 邹云鹤 | | kevinyu...@163.com | 签名由网易邮箱大师定制 在2021年5月28日 11:52,邹云鹤 写道: 好的,我再研究下。 | | 邹云鹤 | | kevinyu...@163.com | 签名由网易邮箱大师定制 在2021年5月28日 11:51,Leonard Xu 写道: Hi, Cumulate window 是基于 window TVF 语法的,和之前的 groupWindowFunction 不一样, 你可以参考 [1] Window TVF 也支持了 tumble window, hop window, 并且性能更

回复: flink 1.13.0 中cumulate window 使用

2021-05-27 Thread
好的,我再研究下。 | | 邹云鹤 | | kevinyu...@163.com | 签名由网易邮箱大师定制 在2021年5月28日 11:51,Leonard Xu 写道: Hi, Cumulate window 是基于 window TVF 语法的,和之前的 groupWindowFunction 不一样, 你可以参考 [1] Window TVF 也支持了 tumble window, hop window, 并且性能更优,session window 预计会在1.14支持, session window 有需要可以使用老的语法。 Best, Leonard [1

flink 1.13.0 中cumulate window 使用

2021-05-27 Thread
insert into `test_out` select a.uid, 'dt', max(a.age) from `test_in` as a group by uid, cumulate(PROCTIME(), interval '1' minute, interval '1' hour); hello, 各位大佬, flink 1.13.0 中流式作业中该怎么使用cumulate window呢?我用上面的SQL 貌似是不行, 有没有使用过的大佬给点建议? | | 邹云鹤 | | kevinyu...@163.com | 签名由网易邮箱大师定制

回复:Flink 1.11 SQL作业中调用UDTF 出现“No match found for function signature ”异常

2020-07-07 Thread
好的 | | 邹云鹤 | | 邮箱:kevinyu...@163.com | 签名由 网易邮箱大师 定制 在2020年07月07日 23:27,Benchao Li 写道: 我感觉这应该是新版本的udf的bug,我在本地也可以复现。 已经建了一个issue[1] 来跟进。 [1] https://issues.apache.org/jira/browse/FLINK-18520 邹云鹤 于2020年7月7日周二 下午9:43写道: > > > hi all > 本人基于Flink 1.11 SNAPSHOT 在 Flink sql 作业中使用 U

Flink 1.11 SQL作业中调用UDTF 出现“No match found for function signature ”异常

2020-07-07 Thread
es.java:550) 之前在flink 1.10 里面使用是正常的, 问下各位大佬有没有在flink 1.11 遇到过这个错误, 麻烦提供一下帮助。 | | 邹云鹤 | | kevinyu...@163.com | 签名由网易邮箱大师定制

回复: flink sql提交读取hive的批作业出现 异常“scala MatchError : MAP”

2020-05-18 Thread
好的,我试下 | | 邹云鹤 | | kevinyu...@163.com | 签名由网易邮箱大师定制 在2020年5月19日 12:44,Jingsong Li 写道: 经过了一些讨论后,Map来当做aggregate的key可能是一个不好的事情。SQL标准上并不支持。 Hi, 你可以考虑使用cast来绕过,比如: select str_to_map(map_str), ... from (select cast(mapCol as varchar) as map_str, ... from inputT) group by map_str; Best, Jingsong Lee

回复: flink sql提交读取hive的批作业出现 异常“scala MatchError : MAP”

2020-05-18 Thread
itCompiler.java:215) at org.codehaus.janino.UnitCompiler$16.visitMethodInvocation(UnitCompiler.java:4421) at org.codehaus.janino.UnitCompiler$16.visitMethodInvocation(UnitCompiler.java:4394) at org.codehaus.janino.Java$MethodInvocation.accept(Java.java:5062) |

flink sql提交读取hive的批作业出现 异常“scala MatchError : MAP”

2020-05-18 Thread
hashcodeForType的代码,发现确实没有匹配MAP类型,后面我自己加了一行匹配MAP代码,作业可以正常提交了, 如下: 但是运行过程中在sortAggreate 过程中又出现了 , "BaseMap not found method 'compareTo' "的异常,导致作业挂掉; 问下各位大佬 这个是否是flink的一个 bug, 还是有什么地方使用不当导致的问题呢?? | | 邹云鹤 | | kevinyu...@163.com | 签名由网易邮箱大师定制