Re: Tumble Window 会带来反压问题吗?

2022-10-19 文章 macia kk
Hi yidan 我的的意思是,假设上游 1-10 分钟在处理数据,然后第11分钟就把大批量数据发给 sink,然后上游继续进行 10-20的处理,但是这时候 sink 由于数据量大产生了阻塞,造成反压反馈给上游,上游就变慢了。但实际上如果没有反压机制。10-20 的时候,sink 其实可以慢慢写完的。唯一的区别是他发送了一个反压信号,导致上游处理变慢。不知道理解的对不对。 为了要10分钟发送,是因为上游太多数据, 所以我先提前用窗口个聚合一下,目前一秒将近有 800MB 的流量 Shammon FY 于2022年10月20日周四 11:48写道: > 如果必须要10分钟,

Re: Tumble Window 会带来反压问题吗?

2022-10-19 文章 Shammon FY
如果必须要10分钟,但是key比较分散,感觉这种情况可以增加资源加大一下并发试试,减少每个task发出的数据量 On Thu, Oct 20, 2022 at 9:49 AM yidan zhao wrote: > 这个描述前后矛盾,写出速度跟不上导致反压,那控制写出速度不是问题更大。不过你不需要考虑这些,因为你控制不了写出速度,只能控制写出时机。 > > 写出时机是由window的结束时间和watermark决定的,所以如果真要解决,需要控制分窗不要固定整点10分钟。 > > macia kk 于2022年10月20日周四 00:57写道: > > > > 聚合10分钟再输出,到1

Re: 关于Sql Gateway / Rest Endpoint的Session超时时间的配置

2022-10-19 文章 Shengkai Fang
没事。欢迎试用,如果在使用过程之中遇到了问题,可以联系我。 Best, Shengkai TonyChen 于2022年10月20日周四 09:45写道: > 找到了,打扰了列位 > public static final ConfigOption > SQL_GATEWAY_SESSION_IDLE_TIMEOUT = > key("sql-gateway.session.idle-timeout") > .durationType() > .defaultValue(Duration.ofMinute

Re: Tumble Window 会带来反压问题吗?

2022-10-19 文章 yidan zhao
这个描述前后矛盾,写出速度跟不上导致反压,那控制写出速度不是问题更大。不过你不需要考虑这些,因为你控制不了写出速度,只能控制写出时机。 写出时机是由window的结束时间和watermark决定的,所以如果真要解决,需要控制分窗不要固定整点10分钟。 macia kk 于2022年10月20日周四 00:57写道: > > 聚合10分钟再输出,到10分钟的时候由于积攒了很多数据,写出速度跟不上,导致反压,然后上游消费就处理变慢了。 > > 如果控制一下写出的速度,让他慢慢写会不会好一些

Re: 关于Sql Gateway / Rest Endpoint的Session超时时间的配置

2022-10-19 文章 TonyChen
找到了,打扰了列位 public static final ConfigOption SQL_GATEWAY_SESSION_IDLE_TIMEOUT = key("sql-gateway.session.idle-timeout") .durationType() .defaultValue(Duration.ofMinutes(10)) .withDescription( "Timeout interval for closing

关于Sql Gateway / Rest Endpoint的Session超时时间的配置

2022-10-19 文章 TonyChen
Hi all 根据 Flink 1.16 官方文档中的 Sql Gateway / Rest Endpoint 部分给出的 API,需要手动维护 session 的心跳,否则如果 session 会根据配置的超时时间关闭。 不知道我理解的对不对? 如果是这样的话,那么需要配置哪个配置项? 谢谢列位 [1] https://nightlies.apache.org/flink/flink-docs-release-1.16/docs/dev/table/sql-gateway/rest/#sessions-session_handle-heartbeat Best, TonyC

Tumble Window 会带来反压问题吗?

2022-10-19 文章 macia kk
聚合10分钟再输出,到10分钟的时候由于积攒了很多数据,写出速度跟不上,导致反压,然后上游消费就处理变慢了。 如果控制一下写出的速度,让他慢慢写会不会好一些

Re: 怎样禁用 flink k8s operator 自动删除停止后的 pod ?

2022-10-19 文章 Biao Geng
Hi, 能请问下你使用的flink版本和flink kubernetes operator版本吗? 如果flink版本>=1.15.0的话,app运行结束后JobManager Pod应该是会保留的。 Best, Biao Geng highfei2011 于2022年10月19日周三 14:11写道: > 问题描述:当使用 flink k8s operator 创建 flink app 后,不管 app 运行成功,或者失败, operator 都会自动 > delete 掉停止的 pod。我再次使用命令查看日志时, 由于 pod 不存在,所以日志无法查看。

Re:1.16什么时候release?

2022-10-19 文章 Xuyang
Hi, 1.16的动向可以订阅下dev邮箱,最新的动态参考[1],官方docker版本会在release的时候同一时间发布[1]https://lists.apache.org/thread/b594swf6owhvl3thnfm1v8covwfxjj04 在 2022-10-18 12:12:39,"谭家良" 写道: >hello,all >如题,目前我对1.16的新功能比较感兴趣,想问一下flink1.16什么时候可以完成release?什么时候会有一个可用的官方docker镜像? > > >| | >谭家良 >| >| >tanjl_w...@126.com >|

Re: 使用flink-operator 成功生成savepoint, 但job 并未取消

2022-10-19 文章 shimin huang
savepoint流程 1. 执行savepoint kubectl patch flinkdeployment/savepoint-job --type=merge -p '{"spec": {"job": {"state": "suspended", "upgradeMode": "savepoint"}}}’ 2. 删除job kubectl delete flinkdeployment/savepoint-job 3. 根据savepoint启动job 修改flinkdeployment yaml配置,添加如下 spec: ... job: initialSavepoin

使用flink-operator 成功生成savepoint, 但job 并未取消

2022-10-19 文章 Liting Liu (litiliu)
hi: 我在使用flink-operator 1.2.0 & flink 1.14.3, 使用flink-operator 成功手动生成了savepoint, 但savepoint 生成之后, job 并没有自动取消。 希望savepoint 成功之后job 能自动取消。请问是哪里没操作对吗?还是一个已知问题? jobStatus: jobId: 9de925e9d4a67e04ef6279925450907c jobName: sql-te-lab-s334c9 savepointInfo: lastPeriodicSavepointTime

Re: Flink SQL 中同时写入多个 sink 时,是否能够保证先后次序

2022-10-19 文章 Zhiwen Sun
谢谢,有具体的思路嘛? 比如我需要先写入 jdbc 后再发送消息 是自定义一个 DynamicTableSink , 里面有 JdbcDynamicTableSink KafkaDynamicSink , 还是说继承 JdbcDynamicTableSink , 自定义的类里面再去 new KafkaDynamicSink? 初看起来没办法知道什么时候 db 写入了。要知道什么时候写入,要去自定义 TableInsertOrUpdateStatementExecutor Zhiwen Sun On Tue, Oct 18, 2022 at 5:56 PM 悟空 wr