请发送任意内容的邮件到 user-zh-unsubscr...@flink.apache.org 地址来取消订阅来自
user-zh@flink.apache.org
邮件组的邮件,你可以参考[1][2]
管理你的邮件订阅。
Best,
Xuannan
[1]
https://flink.apache.org/zh/community/#%e9%82%ae%e4%bb%b6%e5%88%97%e8%a1%a8
[2] https://flink.apache.org/community.html#mailing-lists
On Tue, Mar 12, 2024 at 2:04
退订
多谢多谢
回复的原邮件
| 发件人 | Weihua Hu |
| 日期 | 2023年06月14日 12:32 |
| 收件人 | user-zh@flink.apache.org |
| 抄送至 | |
| 主题 | Re: (无主题) |
>
> 这个状态变量是否需要用transient来修饰
ValueState 再 Rich fuction 的 open 方法中被初始化,不应该被序列化和反序列化,建议使用 transient 来修饰。
但实际上自定义函数的序列化、反序列化只在任务部署阶段执行,而且初始状态下 ValueState 的值是 n
>
> 这个状态变量是否需要用transient来修饰
ValueState 再 Rich fuction 的 open 方法中被初始化,不应该被序列化和反序列化,建议使用 transient 来修饰。
但实际上自定义函数的序列化、反序列化只在任务部署阶段执行,而且初始状态下 ValueState 的值是 null,所以不使用 transient
关键字也不会有太大的影响。
以及什么情况下flink代码中需要用transient来修饰变量,什么情况下不用transient来修饰
理解自定义函数的序列化、反序列化是在任务部署阶段执行之后,这个问题就比较好回答了。 如果你的变量在是函数的
在flink处理函数中定义一个状态变量,比如private ValueState
vs;这个状态变量是否需要用transient来修饰,为什么呢?以及什么情况下flink代码中需要用transient来修饰变量,什么情况下不用transient来修饰?请大家指教
退订
退订
退订
Hi, 退订请发送任意消息至 user-zh-unsubscr...@flink.apache.org
--
Best!
Xuyang
在 2022-06-09 16:12:11,"zehir.tong" 写道:
>退订
退订
退订
退订的同学,请发送任意邮件到 user-zh-unsubscr...@flink.apache.org。
BEST,
Shengkai
王健 <13166339...@163.com> 于2022年4月15日周五 14:40写道:
> 退订
退订
退订
退订
Hi!
退订中文邮件列表请发送任意内容的邮件到 user-zh-unsubscr...@flink.apache.org,其他邮件列表退订邮箱参见
https://flink.apache.org/community.html#mailing-lists
戴巍(R&D) 于2021年9月7日周二 下午2:36写道:
> 退订
>
退订
退订
On Wed, 4 Aug 2021 at 18:28, 洗你的头 <1264386...@qq.com.invalid> wrote:
> 退订
退订
用的是perjob的模式,版本是1.12.1,因为我读的是hbase的数据,用的流的模式,是不是数据读完之后任务不会结束啊。下面是我的提交命令:./flink-1.12.1/bin/flink
run -t yarn-per-job -m yarn-cluster -ynm historyPhotosConstientHandle -ys 8
-yjm 4096 -ytm 10240 -c
com.chinaunicom.audit.photo.history.handle.AuditPhotoHistoryNumberHandleApp
/mnt/sd02/tglf005/devs
嗨,你使用的是session还是perJob的作业?哪个flink版本?有详细的日志吗?一般不退户,可能是master卡在了哪里,比如我们遇到过卡在handler或者异步执行有问题。
田磊 于2021年6月20日周日 上午11:14写道:
>
> 我用flink跑hbase的数据,flink的界面显示任务已经finished,正在running的任务为0。而yarn的界面显示正在running的状态,一直都结束不了,需要手动kill,是什么情况啊。
>
>
> | |
> totorobabyfans
> |
> |
> 邮箱:totorobabyf...@163.com
> |
>
如果使用flink run 指令启动任务,加-d 指令。作业执行结束后会退出app。
--
Sent from: http://apache-flink.147419.n8.nabble.com/
我用flink跑hbase的数据,flink的界面显示任务已经finished,正在running的任务为0。而yarn的界面显示正在running的状态,一直都结束不了,需要手动kill,是什么情况啊。
| |
totorobabyfans
|
|
邮箱:totorobabyf...@163.com
|
签名由 网易邮箱大师 定制
发送到 user-zh-unsubscr...@flink.apache.org 而不是 user-zh@flink.apache.org
Best,
Jingsong
On Tue, Jun 15, 2021 at 12:32 PM 1049961436 <1049961...@qq.com> wrote:
> 退订
--
Best, Jingsong Lee
退订
您好:
在一个app应用程序中,如果我用flink自定义source读hbase里面的表,处理完之后再通过sink更新到hbase里面,这样会不会出现冲突,有没有可能从source里面来的数据是已经处理过的数据。还有一种情况是第一个程序走完一套逻辑将数据更新到hbase中,同时另外一套程序从这张表中自定义source将数据再更新到该表中,会不会出现冲突呢。
| |
totorobabyfans
|
|
邮箱:totorobabyf...@163.com
|
签名由 网易邮箱大师 定制
退订
退订
| |
陈海剑
|
|
邮箱:13469958...@163.com
best regards
|
签名由 网易邮箱大师 定制
在yarn模式下提交flink任务总是报没有这个东西是为啥啊
org.apache.flink.metrics.MetricGroup.addGroup(Ljava/lang/String;Ljava/lang/String;)Lorg/apache/flink/metrics/MetricGroup;
| |
mao18698726900
|
|
邮箱:mao18698726...@163.com
|
签名由 网易邮箱大师 定制
退订
退订
| |
mao18698726900
|
|
邮箱:mao18698726...@163.com
|
签名由 网易邮箱大师 定制
退订
guoyb <861277...@qq.com> 于2021年4月6日周二 下午5:57写道:
> To remove your address from the list, send a message to:
>
>
>
> ---原始邮件---
> 发件人: "郭华威" 发送时间: 2021年4月6日(周二) 下午5:52
> 收件人: "user-zh@flink.apache.org" 主题: 回复:(无主题)
>
>
> 请问如何退订
>
> 在2021年04月06日 16:37,郭华威 写道:
> 退订
To remove your address from the list, send a message to:
请问如何退订
在2021年04月06日 16:37,郭华威 写道:
退订
退订
退订
退订
| |
hello
|
|
yangx...@163.com
|
Signature is customized by Netease Mail Master
在2021年04月06日 11:46,郭华威 写道:
退订
退订
退订
| |
高耀军
|
|
邮箱:18221112...@163.com
|
签名由 网易邮箱大师 定制
TD
| |
于林之下
|
|
邮箱:sishengqikuo...@163.com
|
签名由 网易邮箱大师 定制
各位大佬,在做远程提交任务到flink的standalone模式,抛以下异常
Caused by: java.lang.RuntimeException: java.lang.InterruptedException
at org.apache.flink.util.ExceptionUtils.rethrow(ExceptionUtils.java:277)
at
org.apache.flink.api.java.ExecutionEnvironment.executeAsync(ExecutionEnvironment.java:981)
at
cn.encdata.cloud.d
退订
| |
gfjia
|
|
邮箱:gfjia_t...@163.com
|
签名由 网易邮箱大师 定制
>
>
>
>
> -- 原始邮件 --
> 发件人:
> "user-zh"
>
> 发送时间: 2020年8月17日(星期一) 中午12:32
> 收件人: "user-zh@flink.apache.org"
> 主题: (
hi,社区的小伙伴,大家好!我有一个应用场景,想请教下大家有没有遇过,有什么好的方案。
场景就是:按照user和day的维度统计订单表里的有效订单数,同时存在历史的订单状态随时可能被更新,比如可能当前把2个月前的订单状态置未true,所以没法根据历史结果预统计,翻译称sql就是select
user,day,count(*) from table where state = true group by
user,day;目前我已经用flink-sql-cdc-connector实现了,但是有一个问题就是state,因为按user day组合
那么如果全部状态都保存后期回越来越大,但是如
恭喜!
罗显宴 <15927482...@163.com> 于2020年7月23日周四 上午1:14写道:
> 感谢shizk233大佬,我这个问题终于得到解决,我主要是通过全窗口加mapstate实现的
> best
> shizk233
>
>
> | |
> 罗显宴
> |
> |
> 邮箱:15927482...@163.com
> |
>
> 签名由 网易邮箱大师 定制
>
> 在2020年07月21日 15:04,罗显宴 写道:
> hi,我想到解决办法了,可以用全局window,我一直以为是要分区在做窗口运算其实可以直接用timewindowAll来算,然后用状态保存就够了
感谢shizk233大佬,我这个问题终于得到解决,我主要是通过全窗口加mapstate实现的
best
shizk233
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由 网易邮箱大师 定制
在2020年07月21日 15:04,罗显宴 写道:
hi,我想到解决办法了,可以用全局window,我一直以为是要分区在做窗口运算其实可以直接用timewindowAll来算,然后用状态保存就够了
val result = num.timeWindowAll(Time.seconds(20))
//.trigger(ContinuousEvent
hi,我想到解决办法了,可以用全局window,我一直以为是要分区在做窗口运算其实可以直接用timewindowAll来算,然后用状态保存就够了
val result = num.timeWindowAll(Time.seconds(20))
//.trigger(ContinuousEventTimeTrigger.of(Time.seconds(20)))
.process(new
ProcessAllWindowFunction[IncreaseNumPerHour,IncreasePerHour,TimeWindow] {
private var itemStat
hi,
我觉得你说的是对的,我刚才没有理解trigger,我以为trigger当成一个1小时窗口的20分钟的小窗口了,其实我要的结果就是每20分钟有多少个窗口比如当前20分钟有A类型、B类型和C类型三个窗口,那么输出就是3,后来20分钟有A类型、B类型和D类型的结果,那么A类型和B类型是重复的只有D不是重复的,结果为4
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由网易邮箱大师定制
在2020年7月21日 13:58,shizk233 写道:
Hi,
首先统一一下表述,当前只有1小时的滚动窗口,不存在20分钟的窗口,trigger只是输出结果,trig
Hi,
首先统一一下表述,当前只有1小时的滚动窗口,不存在20分钟的窗口,trigger只是输出结果,trigger的间隔和窗口大小无关。
按目前的设计,在11-12点的窗口里,输入x条类型A的数据,agg都记为1条,但1小时窗口会触发3次20s的trigger,
也就是会最多输出3条(A类型,12点)的数据(同一个1小时窗口,WindowEnd都是12点)。
这3条数据进入MapState后,写下了((A类型,12点),1)的记录并都注册了12点+1的timer,
那么timer在12点的时候会输出的结果就是(12点,1)。
如果12-13点里,A类型做相同的输入,MapState新
好的,
输入:
心功能不全和心律失常用药,1,时间戳
心功能不全和心律失常用药,1,时间戳
抗利尿剂,1,时间戳
血管收缩剂,1,时间戳
血管紧张素II受体拮抗剂,1,时间戳
这里的时间戳就是eventtime了
比如前三条是在一个20秒窗口中,所以应该分为两个窗口:
心功能不全和心律失常用药和抗利尿剂,但是我是计数药物的种类的
所以不管窗口有多少元素我还是置为1,所以输出的接口就是窗口之和,即为2
接下来20秒都多了2个窗口而且和前面的医药种类不一样,所以在原来基础上再加2
输出4
即输出:
2020-7-20 19:00:00,2
2020-7-20 19:00:20,4
Hi,
有点不太理解,能举个例子说明一下result那部分你预期的输入(几条sample 数据就行)和期望的输出结果吗
Best,
shizk233
罗显宴 <15927482...@163.com> 于2020年7月21日周二 上午11:29写道:
> hi,
>
> CountAgg是对一个窗口进行聚合,而一个窗口中的元素都是根据医药类别category分区而来的,都是一样的,所以我做累加就直接置为1了,你的意思是让我在CuontAgg上做累加吗
>
>
> | |
> 罗显宴
> |
> |
> 邮箱:15927482...@163.com
> |
> 签名由网易邮箱大师定制
hi,
CountAgg是对一个窗口进行聚合,而一个窗口中的元素都是根据医药类别category分区而来的,都是一样的,所以我做累加就直接置为1了,你的意思是让我在CuontAgg上做累加吗
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由网易邮箱大师定制
在2020年7月21日 11:10,shizk233 写道:
Hi,
我猜是因为设的1小时滚动窗口,WindowFunction里拿到的WindowEnd就是1小时的END,
而acc其实没有变化,也就是每隔20s触发拿到的结果是一样的,在MapState里也会忽略重复值。
你可以让acc做个累
Hi,
我猜是因为设的1小时滚动窗口,WindowFunction里拿到的WindowEnd就是1小时的END,
而acc其实没有变化,也就是每隔20s触发拿到的结果是一样的,在MapState里也会忽略重复值。
你可以让acc做个累加,然后结果输出里把acc的值带上看看。
Best,
shizk233
罗显宴 <15927482...@163.com> 于2020年7月20日周一 下午8:44写道:
>
> 大佬,不好意思,可能图片看不到,我把代码发一次,刚学习flink半个月,好多不懂,希望大佬莫嫌烦
> 罗显宴
> 邮箱:15927482...@163.com
>
>
大佬,不好意思,可能图片看不到,我把代码发一次,刚学习flink半个月,好多不懂,希望大佬莫嫌烦
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由网易邮箱大师定制
在2020年7月20日 20:38,罗显宴<15927482...@163.com> 写道:
不好意思,刚才发的快,没来得及解释,
这里aggregate算子主要做了一个预聚合,把窗口的个数置为一,然后用windowResult输出结果,然后对窗口分区,最后用mapState处理递增
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由网易邮箱大师定制
在2020
不好意思,刚才发的快,没来得及解释,
这里aggregate算子主要做了一个预聚合,把窗口的个数置为一,然后用windowResult输出结果,然后对窗口分区,最后用mapState处理递增
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由网易邮箱大师定制
在2020年7月20日 14:09,罗显宴<15927482...@163.com> 写道:
不是,是连续累计,比如我在某个医药网站上爬取有关药物,每小时统计爬取到的新增药物种类,然后一直这样进行下去,然后这个网站爬完了,可以换另一个网站,
| |
罗显宴
|
|
邮箱:15927482...@16
我运行的时候,他直接按1小时窗口输出了,并没有按20秒连续输出递增
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由网易邮箱大师定制
在2020年7月20日 14:09,罗显宴<15927482...@163.com> 写道:
不是,是连续累计,比如我在某个医药网站上爬取有关药物,每小时统计爬取到的新增药物种类,然后一直这样进行下去,然后这个网站爬完了,可以换另一个网站,
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由网易邮箱大师定制
在2020年7月20日 11:47,shizk233 写道:
Hi,
累计是
好的,谢谢大佬,我用这个试试
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由 网易邮箱大师 定制
在2020年07月20日 15:11,shizk233 写道:
Hi,
从你举的这个例子考虑,仍然可以使用ContinusEventTimeTrigger来持续触发结果更新的,只不过整个窗口可以根据结束条件考虑别的,比如Global窗口。
Best,
shizk233
罗显宴 <15927482...@163.com> 于2020年7月20日周一 下午2:09写道:
>
>
> 不是,是连续累计,比如我在某个医药网站上爬取有关药物,每小时统计爬取
Hi,
从你举的这个例子考虑,仍然可以使用ContinusEventTimeTrigger来持续触发结果更新的,只不过整个窗口可以根据结束条件考虑别的,比如Global窗口。
Best,
shizk233
罗显宴 <15927482...@163.com> 于2020年7月20日周一 下午2:09写道:
>
>
> 不是,是连续累计,比如我在某个医药网站上爬取有关药物,每小时统计爬取到的新增药物种类,然后一直这样进行下去,然后这个网站爬完了,可以换另一个网站,
> | |
> 罗显宴
> |
> |
> 邮箱:15927482...@163.com
> |
> 签名由网易邮箱大师定制
不是,是连续累计,比如我在某个医药网站上爬取有关药物,每小时统计爬取到的新增药物种类,然后一直这样进行下去,然后这个网站爬完了,可以换另一个网站,
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由网易邮箱大师定制
在2020年7月20日 11:47,shizk233 写道:
Hi,
累计是仅在一天之内累计吗,这样的话可以开个一天的Tumbling
Window,然后使用ContinusEventTimeTrigger每小时触发一下输出结果。
Best,
shizk233
罗显宴 <15927482...@163.com> 于2020年7月20日周一
Hi,
累计是仅在一天之内累计吗,这样的话可以开个一天的Tumbling
Window,然后使用ContinusEventTimeTrigger每小时触发一下输出结果。
Best,
shizk233
罗显宴 <15927482...@163.com> 于2020年7月20日周一 上午1:18写道:
>
> 大家好,怎么实现一个滚动窗口内的连续递增元素个数,比如每小时累计用户登录数,比如说凌晨1点登录了500人,到了两点就累计到1200,到3点累计到这样实现一个递增曲线,在网上看到云邪大佬写的sql但是不会写datastream
> api,希望看到的大佬能帮我解惑一下,谢谢啦
大家好,怎么实现一个滚动窗口内的连续递增元素个数,比如每小时累计用户登录数,比如说凌晨1点登录了500人,到了两点就累计到1200,到3点累计到这样实现一个递增曲线,在网上看到云邪大佬写的sql但是不会写datastream
api,希望看到的大佬能帮我解惑一下,谢谢啦
| |
罗显宴
|
|
邮箱:15927482...@163.com
|
签名由 网易邮箱大师 定制
Hi
退订应该发这个邮箱:user-zh-unsubscr...@flink.apache.org
Best
Jingsong
On Tue, Jul 14, 2020 at 12:36 PM 成欢晴 wrote:
> 退订
>
>
> | |
> chq19970719
> |
> |
> 邮箱:chq19970...@163.com
> |
>
> Signature is customized by Netease Mail Master
--
Best, Jingsong Lee
退订
| |
chq19970719
|
|
邮箱:chq19970...@163.com
|
Signature is customized by Netease Mail Master
并发是200和400两种,集群有270多个节点,不过可用的vcores是6600多,内存是17T左右,看了执行图q43这个存在数据倾斜的的问题,失败的节点存在数据量偏大的情况
---原始邮件---
发件人: "Jingsong Li"
Hi,
- 是否是计算规模的问题?
集群大小合适吗?并发合适吗?
- 是否是Plan不优的问题?
Hive的表有做Analysis吗?
CC: user
Best,
Jingsong Lee
On Thu, Mar 26, 2020 at 8:27 PM 被惊艳的时光 <2521929...@qq.com> wrote:
>
> hello,你好,有个关于flink-sql-benchmark工具的问题需要请教下,在做tpc-ds测试时,当数据量达到4T时(flink版本1.10),q43,q67,q70这三条sql执行出错了,都是在hashjoin的时候失败啦,报错信息是has
| |
apache22
|
|
apach...@163.com
|
签名由网易邮箱大师定制
- 转发邮件信息 -
发件人: 酷酷的浑蛋
发送日期: 2020年3月18日 15:15
发送至: user-zh
现在我发现个问题:flink sql实时 inner join ,结果会发生乱序,请问这是正常的吗
| |
apache22
|
|
apach...@163.com
|
签名由网易邮箱大师定制
| |
apache22
|
|
apach...@163.com
|
签名由网易邮箱大师定制
- 转发邮件信息 -
发件人: 酷酷的浑蛋
发送日期: 2020年3月13日 19:18
发送至: user-zh@flink.apache.org
select a.x01,
udf_name(a.x02)
from (select a.x01,
a...
from tb_name) a
join
(select * from tb_name) b
on a.x
69 matches
Mail list logo