Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Peidian Li
我也遇到过类似的问题,也是使用rocksdb,flink 1.10版本,我理解的是block cache超用,我这边的解决办法是增大了 taskmanager.memory.jvm-overhead.fraction ,如果仍然出现内存超用这个问题,可以尝试调大taskmanager.memory.task.off-heap.size

回复:[flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 郑斌斌
谢谢Benchao的回答 ,下面是我的日志,我用的是rocksdb 增量保存state, checkpoint数据量大时有好几个G。rocksdb使用堆外内存, 感觉好像与这块有关。但不知道用什么办法能诊断出来 java.lang.Exception: [2020-09-14 09:27:20.431]Container [pid=10644,containerID=container_e91_1597199405327_9343_01_000298] is running 36864B beyond the 'PHYSICAL' memory limit. Current usag

Re: [SQL] parse table name from sql statement

2020-09-22 文章 Harold.Miao
thx silence 于2020年9月22日周二 上午11:54写道: > 写过一个类似的可以参考一下 > > private static List lookupSelectTable(SqlNode sqlNode) { > List list = new ArrayList<>(); > if (sqlNode instanceof SqlSelect) { > SqlNode from = ((SqlSelect) sqlNode).getFrom(); > list.addAll(lookupS

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Benchao Li
超yarn内存不合理。因为state如果用的是heap,那应该是堆内内存,不会超过配置的JVM的最大heap的内存的, 只会jvm oom。超过yarn内存限制,那是因为还有jvm其他的overhead,加起来总量超了。 郑斌斌 于2020年9月23日周三 下午12:29写道: > 我这边也是遇到同样的问题,简单的双流 interval join SQL 跑4-5天就会有发生超用内存,然后container 被YARN > KILL 。 > 单流跑的话,比较正常。 > JOB的内存是4G。版本1.11.1 > -

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Tianwang Li
Hi Benchao, 感谢你的回复 我使用的RocksDB,内存 overhead 太多了, 什么地方超用了那么多内存,好像不受控制了。 另外,我也测试过hop窗口,也是超用内存比较。没有使用增量checkpoint。 最后,我这边的interval join 是 inner join ,使用的 b 表的rowtime作为时间,没有观察到延迟数据的情况。 [image: image.png] Benchao Li 于2020年9月23日周三 上午10:50写道: > Hi Tianwang, > > 不知道你的DataStream是怎么实现的,只是从SQL的角度来看,有

Re: Calcite在嵌套多层包含where条件的sql语句时优化器OOM

2020-09-22 文章 Danny Chan
应该是碰到节点 cycle 引用了,导致优化 rule 一直重复重复触发,可以将 debug 日志打开,看下是哪个 rule 被频繁触发了,之前修过一个类似的问题[1],可以参考下 [1] https://issues.apache.org/jira/browse/CALCITE-3121 Best, Danny Chan 在 2020年9月23日 +0800 AM10:23,jun su ,写道: > hi godfrey, > 方便说下是哪些rule fix了这个问题么? 我对这个比较好奇 , 想看下是什么原因导致的 > > godfrey he 于2020年9月23日周三 上午

回复:[flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 郑斌斌
我这边也是遇到同样的问题,简单的双流 interval join SQL 跑4-5天就会有发生超用内存,然后container 被YARN KILL 。 单流跑的话,比较正常。 JOB的内存是4G。版本1.11.1 -- 发件人:Benchao Li 发送时间:2020年9月23日(星期三) 10:50 收件人:user-zh 主 题:Re: [flink-1.10.2] Blink SQL 超用内存严重 Hi Tianwang, 不知道你的DataStr

Re: Calcite在嵌套多层包含where条件的sql语句时优化器OOM

2020-09-22 文章 godfrey he
例如 calc merge rule,还有calc,agg等其他相关rule,点比较散。得具体看 jun su 于2020年9月23日周三 上午10:22写道: > hi godfrey, > 方便说下是哪些rule fix了这个问题么? 我对这个比较好奇 , 想看下是什么原因导致的 > > godfrey he 于2020年9月23日周三 上午10:09写道: > > > Hi Jun, > > > > 可能是old planner缺少一些rule导致遇到了corner case, > > blink planner之前解过一些类似的案例。 > > > > jun su

Re: [flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Benchao Li
Hi Tianwang, 不知道你的DataStream是怎么实现的,只是从SQL的角度来看,有两个地方会导致状态的量会增加 1. time interval join会将watermark delay之后再发送,也就是说下游的hop窗口的状态会因为上游 join算子延迟了watermark发送而状态比正常情况下大一些。目前watermark的延迟是 `Math.max(leftRelativeSize, rightRelativeSize) + allowedLateness`,根据你的SQL,这个值应该是6h 2. time interval join中为了防止频繁的

Re: Calcite在嵌套多层包含where条件的sql语句时优化器OOM

2020-09-22 文章 jun su
hi godfrey, 方便说下是哪些rule fix了这个问题么? 我对这个比较好奇 , 想看下是什么原因导致的 godfrey he 于2020年9月23日周三 上午10:09写道: > Hi Jun, > > 可能是old planner缺少一些rule导致遇到了corner case, > blink planner之前解过一些类似的案例。 > > jun su 于2020年9月23日周三 上午9:53写道: > > > hi godfrey, > > > > 刚看了下, blink应该也会用hep , 上文说错了 > > > > jun su 于2

flink从mongdb中读取数据

2020-09-22 文章 GeGe
您好! 我刚开始接触flink,现在准备用flink读取mongdb中的数据。mongodb中每秒都会有一个新增数据,重写RichSourceFunction来连接读取mongodb中数据。但是flink不能像kafka一样,持续不断显示数据,是否mongodb不能持续显示数据呢?还是有一些额外设置? 十分感谢! Best wishes, Gege

Re: Calcite在嵌套多层包含where条件的sql语句时优化器OOM

2020-09-22 文章 godfrey he
Hi Jun, 可能是old planner缺少一些rule导致遇到了corner case, blink planner之前解过一些类似的案例。 jun su 于2020年9月23日周三 上午9:53写道: > hi godfrey, > > 刚看了下, blink应该也会用hep , 上文说错了 > > jun su 于2020年9月23日周三 上午9:19写道: > > > hi godfrey, > > 我用了最新代码的blink没这个问题, 我看代码flink是先用hep然后进valcano, 而blink貌似没用hep, > > 我将hep代码

Re: Calcite在嵌套多层包含where条件的sql语句时优化器OOM

2020-09-22 文章 jun su
hi godfrey, 刚看了下, blink应该也会用hep , 上文说错了 jun su 于2020年9月23日周三 上午9:19写道: > hi godfrey, > 我用了最新代码的blink没这个问题, 我看代码flink是先用hep然后进valcano, 而blink貌似没用hep, > 我将hep代码注释后valcano的迭代次数会大幅减少, 语句嵌套10层基本在4000次左右能获取最佳方案,我再debug看下原因 > > godfrey he 于2020年9月22日周二 下午8:58写道: > >> blink planner 有这个问题吗

Re: Calcite在嵌套多层包含where条件的sql语句时优化器OOM

2020-09-22 文章 jun su
hi godfrey, 我用了最新代码的blink没这个问题, 我看代码flink是先用hep然后进valcano, 而blink貌似没用hep, 我将hep代码注释后valcano的迭代次数会大幅减少, 语句嵌套10层基本在4000次左右能获取最佳方案,我再debug看下原因 godfrey he 于2020年9月22日周二 下午8:58写道: > blink planner 有这个问题吗? > > jun su 于2020年9月22日周二 下午3:27写道: > > > hi all, > > > > 环境: flink-1.9.2 flink table planne

Re: Calcite在嵌套多层包含where条件的sql语句时优化器OOM

2020-09-22 文章 godfrey he
blink planner 有这个问题吗? jun su 于2020年9月22日周二 下午3:27写道: > hi all, > > 环境: flink-1.9.2 flink table planner > 现象: 代码一直在 VolcanoPlanner.findBestExp()方法中出不来, 直到OOM > > 发现在嵌套4层时 findBestExp方法中while(true)会循环3w多次后成功退出, 嵌套5层会达到几十万级别, 导致进程OOM > --- > 代码: > > fbT

keyedstate TTL 清理状态如何触发

2020-09-22 文章 smq
大家好,现在有个疑问,TTL如果设成1min,那么是时间到了之后,该state自动清除吗

[flink-1.10.2] Blink SQL 超用内存严重

2020-09-22 文章 Tianwang Li
使用 Blink SQL 实现 interval join + hop window 超用内存比较严重。 【join】 > SELECT `b`.`rowtime`, > `a`.`c_id`, > `b`.`openid` > FROM `test_table_a` AS `a` > INNER JOIN `test_table_b` AS `b` ON `a`.`RoomID` = `b`.`RoomID` > AND `a`.`openid` = `b`.`openid` > AND `b`.`rowtime` BETWEEN ASYMMETRIC `a`.`rowtime` -

Re: [DKIM Failure] Re: [DKIM Failure] Re: flink-CDC client 一对多问题

2020-09-22 文章 Jark Wu
1. 你用的是什么版本呢?我在最新的版本上试了下,没有报错呢。试下最新版本? 2. {123123,ff=1, 123123,kk=2} 就是 MULTISET 打印出来的结构哈, 就是 {key1=cnt, key2=cnt} 其中 123123,ff 是 row#toString。 Best, Jark On Tue, 22 Sep 2020 at 19:28, Li,Qian(DXM,PB) wrote: > 你好:我按照上述方法进行测试,往es插入数据的时候一直报这个问题,是哪里有问题么? > > create view uu AS select collect(userBa

Re: [DKIM Failure] Re: [DKIM Failure] Re: flink-CDC client 一对多问题

2020-09-22 文章 Li,Qian(DXM,PB)
你好:我按照上述方法进行测试,往es插入数据的时候一直报这个问题,是哪里有问题么? create view uu AS select collect(userBankTime) as userBank ,name from ( select name, row(name,description) as userBankTime from tt_haha) group by name; // 创建视图,描述userBank类型是MULTITYPE Flink SQL> desc uu; root |-- userBank: MULTISET NOT NULL> NOT NULL

flink on yarn容器异常退出

2020-09-22 文章 Dream-底限
hi 我正在使用flink1.11.1 on yarn以分离模式运行任务,但在任务提交的时候,任务在分配完applicationid后,容器经常异常退出,先前以为是yarn环境问题,但是在两个集群测都有遇到这种情况,请问这是一个已知的bug吗

答复: Flink-1.11.1 Kafka Table API BigInt 问题

2020-09-22 文章 刘首维
Hi, 试一下java的BigInteger呢 发件人: nashcen <2415370...@qq.com> 发送时间: 2020年9月22日 16:29:41 收件人: user-zh@flink.apache.org 主题: Flink-1.11.1 Kafka Table API BigInt 问题 *我的代码如下* 其中 updateTime 字段,是时间戳,用的BigInt。如果只查询其他String类型的字段,程序正常。但是加上这个字段,就会报错。 package com.athub.dcpoints.

Flink-1.11.1 Kafka Table API BigInt 问题

2020-09-22 文章 nashcen
*我的代码如下* 其中 updateTime 字段,是时间戳,用的BigInt。如果只查询其他String类型的字段,程序正常。但是加上这个字段,就会报错。 package com.athub.dcpoints.scala.connector.table.hive import com.athub.dcpoints.java.model.KafkaDcpoints import org.apache.flink.streaming.api.scala._ import org.apache.flink.table.api._ import org.apache.flink.table.a

Re: 答复: 关于FLinkSQL如何创建类json无限扩展的表结构问题

2020-09-22 文章 chuyuan
好勒,这种方案已经成功了,非常感谢。 -- Sent from: http://apache-flink.147419.n8.nabble.com/

Calcite在嵌套多层包含where条件的sql语句时优化器OOM

2020-09-22 文章 jun su
hi all, 环境: flink-1.9.2 flink table planner 现象: 代码一直在 VolcanoPlanner.findBestExp()方法中出不来, 直到OOM 发现在嵌套4层时 findBestExp方法中while(true)会循环3w多次后成功退出, 嵌套5层会达到几十万级别, 导致进程OOM --- 代码: fbTableEnv.registerTableSource("source",orcTableSource) val select = fbTabl