> 在 2020年5月14日,上午11:12,zzh...@foxmail.com 写道:
>
> 非常感谢Benchao Li,使用UDF测试通过,SQL示例如下:
>
> CREATE TABLE session_login (
> ,deal_time BIGINT
> ,deal_time_obj as DY_FROM_UNIXTIME(deal_time*1000)
> ,WATERMARK FOR deal_time_obj AS deal_time_obj - INTERVAL '60' SECOND
> )WITH(
> ..
非常感谢Benchao Li,使用UDF测试通过,SQL示例如下:
CREATE TABLE session_login (
,deal_time BIGINT
,deal_time_obj as DY_FROM_UNIXTIME(deal_time*1000)
,WATERMARK FOR deal_time_obj AS deal_time_obj - INTERVAL '60' SECOND
)WITH(
..
)
其中DY_FROM_UNIXTIME负责将long转成timestamp类型
oliver zhang,云长
zzh...@fo
你可以通过计算列写一个udf把long转成timestamp类型,在这个计算列上定义watermark就可以了。
zzh...@foxmail.com 于2020年5月14日周四 上午10:02写道:
> Hi,all
> kafka消息中存在消息的时间是Long类型,既有也有秒值,毫秒值,
> 我的问题是:
> 1、对于Long类型的时间数据,Flink SQL DDL现在怎样定义,才能使用WATERMARK
> 2、如果没有,后期是否有相应的规划
>
> 测试版本:Flink 1.10
>
>
> 在Flink 1.10中测试SQL如下:
> CREATE TABLE se
Hi,all
kafka消息中存在消息的时间是Long类型,既有也有秒值,毫秒值,
我的问题是:
1、对于Long类型的时间数据,Flink SQL DDL现在怎样定义,才能使用WATERMARK
2、如果没有,后期是否有相应的规划
测试版本:Flink 1.10
在Flink 1.10中测试SQL如下:
CREATE TABLE session_login (
deal_time TIMESTAMP(3)
,aaVARCHAR
,WATERMARK FOR deal_time AS deal_time - INTERVAL '60' SECOND
)
好的,期待修复,项目快上线了,有点慌,自己也在看相关片段代码
在2020年5月14日 09:43,刘大龙 写道:
Hi,
云邪已经确认这是一个bug,开了issue来跟进这个问题
https://issues.apache.org/jira/browse/FLINK-17625
-原始邮件-
发件人: 1101300123
发送时间: 2020-05-14 09:19:41 (星期四)
收件人: "user-zh@flink.apache.org"
抄送:
主题: 1.10 使用 flinkSQL 的row_number()函数实现top1 出现数组越界,求助社区大
Hi,
云邪已经确认这是一个bug,开了issue来跟进这个问题
https://issues.apache.org/jira/browse/FLINK-17625
> -原始邮件-
> 发件人: 1101300123
> 发送时间: 2020-05-14 09:19:41 (星期四)
> 收件人: "user-zh@flink.apache.org"
> 抄送:
> 主题: 1.10 使用 flinkSQL 的row_number()函数实现top1 出现数组越界,求助社区大佬
>
> 有没有人看到这个邮件?大概跑10小时左右数据就会出现;
> 困扰了好几天
>
有没有人看到这个邮件?大概跑10小时左右数据就会出现;
困扰了好几天
我的SQL语句如下,部分字段省略
select
a.contact_id,
...
a.code_contact_channel
from
(
select
contact_id,
service_no,
...
code_contact_channel,
row_number() over(partition by contact_id,service_no order by operate_time
desc) as rn
from
CVE-2020-1960: Apache Flink JMX information disclosure vulnerability
Severity: Medium
(CVSS:3.1/AV:L/AC:H/PR:L/UI:N/S:U/C:H/I:L/A:H)
Vendor:
The Apache Software Foundation
Versions Affected:
Flink 1.1.0 to 1.1.5
Flink 1.2.0 to 1.2.1
Flink 1.3.0 to 1.3.3
Flink 1.4.0 to 1.4.2
Flink 1.5.0 to 1.5.6
The Apache Flink community is very happy to announce the release of Apache
Flink 1.10.1, which is the first bugfix release for the Apache Flink 1.10
series.
Apache Flink® is an open-source stream processing framework for
distributed, high-performing, always-available, and accurate data streaming
a
ddl任务,将sql写在代码里面提交运行,web不显示任何指标数据,比如接收了多少数据等。是我哪没有进行配置吗?job正常运行结果的。
log展示超时,如果确认不是超时问题,再次查看taskmanager的log,是否有内存溢出导致无法连接es问题,或者插入时候有bug,导致了不断新类产生,metaspace溢出。
-- 原始邮件 --
发件人: aven.wu https://www.elastic.co/guide/en/elasticsearch/reference/master/tune-for-indexing-speed.html
另外,es写入失败可以自定义一个 ActionRequestFailureHandler,你可以加入失败队列或
Hi
根据你的情况,flink 写入ES 超时,一般是ES吞吐不足造成的,可以看一下官方的建议
https://www.elastic.co/guide/en/elasticsearch/reference/master/tune-for-indexing-speed.html
另外,es写入失败可以自定义一个 ActionRequestFailureHandler,你可以加入失败队列或者重试等等。
希望可以帮助到你。
Best
Aven
发件人: Yangze Guo
发送时间: 2020年5月13日 16:21
收件人: user-zh@flink.apache.org
主题: R
您好,请问您的日志中有没有如语句
- Failed Elasticsearch bulk request:
- Failed Elasticsearch item request:
如果有,可以提供一下
从错误上看,应该是和es交互超时了,检查一下网络连通情况,或者将timeout调大,具体方法见文档[1]
esSinkBuilder.setRestClientFactory(
restClientBuilder -> {
restClientBuilder.setDefaultHeaders(...)
restClientBuilder.setMaxRetryTi
昨晚解决了,暂时还没查清原因,解决方式把createTemporaryTable 方法换成之前过时的那个方法registerTableSource,别的不用动。
pengchengl...@163.com
发件人: PCL
发送时间: 2020-05-12 23:39
收件人: user-zh
主题: Re:回复:flink10读取kafka报错
感谢回复!
这个很神奇的是,执行sqlquery就没问题
/*Table tb1 =tableEnv.sqlQuery("select sum(amount),TUMBLE_END(proctime,
INTERVAL '5
14 matches
Mail list logo