Re: SQL DDL怎样使用Long类型的时间戳作为事件时间

2020-05-13 文章 fanchuanpo-163
> 在 2020年5月14日,上午11:12,zzh...@foxmail.com 写道: > > 非常感谢Benchao Li,使用UDF测试通过,SQL示例如下: > > CREATE TABLE session_login ( > ,deal_time BIGINT > ,deal_time_obj as DY_FROM_UNIXTIME(deal_time*1000) > ,WATERMARK FOR deal_time_obj AS deal_time_obj - INTERVAL '60' SECOND > )WITH( > ..

Re: Re: SQL DDL怎样使用Long类型的时间戳作为事件时间

2020-05-13 文章 zzh...@foxmail.com
非常感谢Benchao Li,使用UDF测试通过,SQL示例如下: CREATE TABLE session_login (     ,deal_time BIGINT     ,deal_time_obj as DY_FROM_UNIXTIME(deal_time*1000)     ,WATERMARK FOR deal_time_obj AS deal_time_obj - INTERVAL '60' SECOND )WITH(   .. ) 其中DY_FROM_UNIXTIME负责将long转成timestamp类型 oliver zhang,云长 zzh...@fo

Re: SQL DDL怎样使用Long类型的时间戳作为事件时间

2020-05-13 文章 Benchao Li
你可以通过计算列写一个udf把long转成timestamp类型,在这个计算列上定义watermark就可以了。 zzh...@foxmail.com 于2020年5月14日周四 上午10:02写道: > Hi,all > kafka消息中存在消息的时间是Long类型,既有也有秒值,毫秒值, > 我的问题是: > 1、对于Long类型的时间数据,Flink SQL DDL现在怎样定义,才能使用WATERMARK > 2、如果没有,后期是否有相应的规划 > > 测试版本:Flink 1.10 > > > 在Flink 1.10中测试SQL如下: > CREATE TABLE se

SQL DDL怎样使用Long类型的时间戳作为事件时间

2020-05-13 文章 zzh...@foxmail.com
Hi,all     kafka消息中存在消息的时间是Long类型,既有也有秒值,毫秒值, 我的问题是: 1、对于Long类型的时间数据,Flink SQL DDL现在怎样定义,才能使用WATERMARK 2、如果没有,后期是否有相应的规划 测试版本:Flink 1.10 在Flink 1.10中测试SQL如下: CREATE TABLE session_login (     deal_time TIMESTAMP(3)     ,aaVARCHAR     ,WATERMARK FOR deal_time AS deal_time - INTERVAL '60' SECOND  )

回复: 1.10 使用 flinkSQL 的row_number()函数实现top1 出现数组越界,求助社区大佬

2020-05-13 文章 1101300123
好的,期待修复,项目快上线了,有点慌,自己也在看相关片段代码 在2020年5月14日 09:43,刘大龙 写道: Hi, 云邪已经确认这是一个bug,开了issue来跟进这个问题 https://issues.apache.org/jira/browse/FLINK-17625 -原始邮件- 发件人: 1101300123 发送时间: 2020-05-14 09:19:41 (星期四) 收件人: "user-zh@flink.apache.org" 抄送: 主题: 1.10 使用 flinkSQL 的row_number()函数实现top1 出现数组越界,求助社区大

Re: 1.10 使用 flinkSQL 的row_number()函数实现top1 出现数组越界,求助社区大佬

2020-05-13 文章 刘大龙
Hi, 云邪已经确认这是一个bug,开了issue来跟进这个问题 https://issues.apache.org/jira/browse/FLINK-17625 > -原始邮件- > 发件人: 1101300123 > 发送时间: 2020-05-14 09:19:41 (星期四) > 收件人: "user-zh@flink.apache.org" > 抄送: > 主题: 1.10 使用 flinkSQL 的row_number()函数实现top1 出现数组越界,求助社区大佬 > > 有没有人看到这个邮件?大概跑10小时左右数据就会出现; > 困扰了好几天 >

1.10 使用 flinkSQL 的row_number()函数实现top1 出现数组越界,求助社区大佬

2020-05-13 文章 1101300123
有没有人看到这个邮件?大概跑10小时左右数据就会出现; 困扰了好几天 我的SQL语句如下,部分字段省略 select a.contact_id, ... a.code_contact_channel from ( select contact_id, service_no, ... code_contact_channel, row_number() over(partition by contact_id,service_no order by operate_time desc) as rn from

[CVE-2020-1960] Apache Flink JMX information disclosure vulnerability

2020-05-13 文章 Chesnay Schepler
CVE-2020-1960: Apache Flink JMX information disclosure vulnerability Severity: Medium (CVSS:3.1/AV:L/AC:H/PR:L/UI:N/S:U/C:H/I:L/A:H) Vendor: The Apache Software Foundation Versions Affected: Flink 1.1.0 to 1.1.5 Flink 1.2.0 to 1.2.1 Flink 1.3.0 to 1.3.3 Flink 1.4.0 to 1.4.2 Flink 1.5.0 to 1.5.6

[ANNOUNCE] Apache Flink 1.10.1 released

2020-05-13 文章 Yu Li
The Apache Flink community is very happy to announce the release of Apache Flink 1.10.1, which is the first bugfix release for the Apache Flink 1.10 series. Apache Flink® is an open-source stream processing framework for distributed, high-performing, always-available, and accurate data streaming a

flink1.10 ddl metric 不显示

2020-05-13 文章 了不起的盖茨比
ddl任务,将sql写在代码里面提交运行,web不显示任何指标数据,比如接收了多少数据等。是我哪没有进行配置吗?job正常运行结果的。

回复: 在使用flink1.7.2写入ES6的时候,有时会报错:request retries exceeded max retry timeout [30000]

2020-05-13 文章 了不起的盖茨比
log展示超时,如果确认不是超时问题,再次查看taskmanager的log,是否有内存溢出导致无法连接es问题,或者插入时候有bug,导致了不断新类产生,metaspace溢出。 -- 原始邮件 -- 发件人: aven.wu https://www.elastic.co/guide/en/elasticsearch/reference/master/tune-for-indexing-speed.html 另外,es写入失败可以自定义一个 ActionRequestFailureHandler,你可以加入失败队列或

回复: 在使用flink1.7.2写入ES6的时候,有时会报错:request retries exceeded max retry timeout [30000]

2020-05-13 文章 aven . wu
Hi 根据你的情况,flink 写入ES 超时,一般是ES吞吐不足造成的,可以看一下官方的建议 https://www.elastic.co/guide/en/elasticsearch/reference/master/tune-for-indexing-speed.html 另外,es写入失败可以自定义一个 ActionRequestFailureHandler,你可以加入失败队列或者重试等等。 希望可以帮助到你。 Best Aven 发件人: Yangze Guo 发送时间: 2020年5月13日 16:21 收件人: user-zh@flink.apache.org 主题: R

Re: 在使用flink1.7.2写入ES6的时候,有时会报错:request retries exceeded max retry timeout [30000]

2020-05-13 文章 Yangze Guo
您好,请问您的日志中有没有如语句 - Failed Elasticsearch bulk request: - Failed Elasticsearch item request: 如果有,可以提供一下 从错误上看,应该是和es交互超时了,检查一下网络连通情况,或者将timeout调大,具体方法见文档[1] esSinkBuilder.setRestClientFactory( restClientBuilder -> { restClientBuilder.setDefaultHeaders(...) restClientBuilder.setMaxRetryTi

回复: Re:flink10读取kafka报错

2020-05-13 文章 pengchenglin
昨晚解决了,暂时还没查清原因,解决方式把createTemporaryTable 方法换成之前过时的那个方法registerTableSource,别的不用动。 pengchengl...@163.com 发件人: PCL 发送时间: 2020-05-12 23:39 收件人: user-zh 主题: Re:回复:flink10读取kafka报错 感谢回复! 这个很神奇的是,执行sqlquery就没问题 /*Table tb1 =tableEnv.sqlQuery("select sum(amount),TUMBLE_END(proctime, INTERVAL '5