Re: Flink 1.9 Blink planner 时间字段问题

2019-09-05 文章 Jark Wu
可能是因为你在 schema 中把 eventTime 声明成了 timestamp 类型,你可以声明成 long 试试。 .field("_rowtime", Types.LONG()) > 在 2019年9月5日,15:11,hb <343122...@163.com> 写道: > > 实际应用中, 时间字段最常用的就是Long类型的毫秒时间戳, 难道这个不支持么.

?????? Re: Re: flink1.9??blinkSQL??????udf??TIMESTAMP????????

2019-09-05 文章 ????
override getResultType public TypeInformation

答复: Re: 如何优化flink内存?

2019-09-05 文章 戴嘉诚
对,我这边使用的也是相同的操作 发件人: 陈赋赟 发送时间: 2019年9月5日 16:08 收件人: user-zh@flink.apache.org 主题: Re:Re: 如何优化flink内存? HI 我在项目中有遇到过类似的情况,我说下我的想法和思路。 伊始是需要统计90天事件窗口中用户浏览事件总数,如果是在近30天内有浏览事件则累加1次,在30天内没有浏览事件但在 30天 ~ 90天内有其他浏览事件则记0次(需求比较奇葩),我们使用了滑动窗口(长度90天 步长1天

如何统计数据处理延迟Delay情况

2019-09-05 文章 陈赋赟
HI ALL 目前想对Flink Job添加一个统计数据处理延迟情况的Metric,目前的想法是拿到数据携带的时间(Event Time)于当前节点的时间(System.getCurrentTime)相减,得出的值即数据延迟处理的时间,但不确定这个想法是否正确且可行,求各位大佬提供思路和想法~

Re:Re: 如何优化flink内存?

2019-09-05 文章 陈赋赟
HI 我在项目中有遇到过类似的情况,我说下我的想法和思路。 伊始是需要统计90天事件窗口中用户浏览事件总数,如果是在近30天内有浏览事件则累加1次,在30天内没有浏览事件但在 30天 ~ 90天内有其他浏览事件则记0次(需求比较奇葩),我们使用了滑动窗口(长度90天 步长1天 数据进来实时trigger触发计算)因为需要拿到窗口的结束时间所以一开始是用windowProcessFunction去做的聚合统计,这意味着90个窗口每个窗口里都需要缓存着全部的数据而不是一个聚合汇总数据,在线上跑了两天后发现checkpoint

?????? Re: Re: flink1.9??blinkSQL??????udf??TIMESTAMP????????

2019-09-05 文章 ????
---- ??:"user-zh@flink.apache.org Jingso"

Re:回复: Flink 1.9 Blink planner 时间字段问题

2019-09-05 文章 hb
实际应用中, 时间字段最常用的就是Long类型的毫秒时间戳, 难道这个不支持么. 在 2019-09-05 14:06:08,"pengcheng...@bonc.com.cn" 写道: >FLINK 应该不能把输入的eventTime的long类型转成SQL_TIMESTAMP类型 > > >发件人: hb >发送时间: 2019-09-05 14:24 >收件人: user-zh >主题: Flink 1.9 Blink planner 时间字段问题 >代码里定义了kafka connectorDescriptor , 从kafka读取json格式数据, 生成Table

Re: Re: flink1.9.0对DDL的支持

2019-09-05 文章 pengcheng...@bonc.com.cn
谢谢你的回答,Wesley Peng.只能在CLI里Create view 还是太不灵活了,期待1.10. 发件人: Wesley Peng 发送时间: 2019-09-05 11:52 收件人: user-zh 主题: Re: flink1.9.0对DDL的支持 Hi on 2019/9/5 11:23, pengcheng...@bonc.com.cn wrote: > 请教一下, 1.flink1.9.0的table API/sql是不是还没有支持Create view? from the official documentation of flink 1.9:

Flink 1.9 Blink planner 时间字段问题

2019-09-05 文章 hb
代码里定义了kafka connectorDescriptor , 从kafka读取json格式数据, 生成Table schema .field("_rowtime", Types.SQL_TIMESTAMP()) .rowtime( new Rowtime() .timestampsFromField("eventTime") .watermarksPeriodicBounded(1000)) kafka输入: {"eventTime": 10, "id":1,"name":"hb"} 会报错, 输入 {"eventTime":

Re: Re: flink1.9中blinkSQL对定义udf的TIMESTAMP类型报错

2019-09-05 文章 JingsongLee
override getResultType方法,返回Types.SQL_TIMESTAMP. 这样应该可以绕过。 1.10会修复这个问题。 Best, Jingsong Lee -- From:守护 <346531...@qq.com> Send Time:2019年9月5日(星期四) 12:11 To:user-zh@flink.apache.org JingsongLee ; user-zh Subject:回复: Re:

答复: 如何优化flink内存?

2019-09-05 文章 戴嘉诚
对,你可以自己再state中维持一整天的数据,让后根据时间戳来删除过期数据来替换滑动窗口 发件人: Yifei Qi 发送时间: 2019年9月5日 13:42 收件人: user-zh@flink.apache.org 主题: Re: 如何优化flink内存? 你的意思是自己去实现滑动窗口的功能么? 戴嘉诚 于2019年9月4日周三 下午10:51写道: > 这里我建议你是用key process然后在里面用state来管理和聚集数据,这样会节省很大一部分内存 > > Yifei Qi 于2019年9月4日 周三20:07写道: > > > 大家好: > > > > > >