hbase 列设置TTL过期后,flink不能再写入数据

2021-09-09 Thread xiaohui zhang
Flink:1.12.1 Flink-connector: 2.2 Hbase: 2.1.0 + CDH6.3.2 现象:如果hbase列族设置了TTL,当某一rowkey写入数据,到达过期时间,列族会被hbase标记为删除。 后续如果有相同key的数据过来,flink无法将数据写入到hbase中,查询hbase中列族一直为空。 执行的过程大致如下: 创建Hbase表,test, 两个列族 cf1 , TTL 60, cf2, TTL 120, 数据TTL分别为1分钟,2分钟。 使用sql写入数据至表中 insert into test select 'rowkey', ROW('123

Re:Re:Re: Re: Temporal Joins 报 Currently the join key in Temporal Table Join can not be empty

2021-09-09 Thread Wayne
Hello 打扰了我最近再次尝试,还是报这个错误 我的flink版本为 flink-1.12.2-bin-scala_2.12 使用sql client执行 我的sql 如下 CREATE TABLE stub_trans ( `uuid` STRING, `columnInfos` MAP NOT NULL> NOT NULL, procTime TIMESTAMP(3) METADATA FROM 'timestamp' , WATERMARK FOR procTime AS procTime ) WITH ( 'connector' = 'kafka'

flink cdc SQL2ES??GC overhead limit exceeded

2021-09-09 Thread LI YUAN
java.lang.OutOfMemoryError: GC overhead limit exceeded at org.rocksdb.RocksIterator.key0(Native Method) at org.rocksdb.RocksIterator.key(RocksIterator.java:37) at org.apache.flink.contrib.streaming.state.RocksIteratorWrapper.key(RocksIteratorWrapper.java:99) at org.apache.flink.contrib.streaming.

Flink rest接口返回数据,以及ui展示数据异常。

2021-09-09 Thread yidan zhao
如题,目前我主要考察了watermark,我的window正常能输出,但是reset接口以及ui上展示的watermark明显严重延迟。 但实际watermark肯定正常,因为窗口正常触发。 这个代码未改动过,以前正常。 而且,目前感觉从浏览器network监控来看,返回的数据貌似不变一直。

Re: flink cdc SQL2ES,GC overhead limit exceeded

2021-09-09 Thread Caizhi Weng
Hi! 是否尝试调大过堆内存呢?调大后还是如此吗?方便的话能否提供一下 SQL 文本? LI YUAN <27297...@qq.com.invalid> 于2021年9月10日周五 上午9:39写道: > java.lang.OutOfMemoryError: GC overhead limit exceeded > at org.rocksdb.RocksIterator.key0(Native Method) > at org.rocksdb.RocksIterator.key(RocksIterator.java:37) > at > org.apache.flink.cont

Re: Re:Re: Re: Temporal Joins 报 Currently the join key in Temporal Table Join can not be empty

2021-09-09 Thread Caizhi Weng
Hi! 感谢持续反馈。这次确实在开发环境下复现了这个问题。 这是因为目前 event time temporal join 对 join key 的处理还不够完善,目前只能处理原原本本的输入列(比如直接用 uuid),暂时不能处理利用输入列做的运算(例如这里从 map 里取值)。我已经开了一个 issue 记录这个问题 [1]。一个绕过的方法是先在一个 view 里给 map 取值,比如这样: CREATE TABLE A ( a MAP, ts TIMESTAMP(3), WATERMARK FOR ts AS ts ); CREATE TABLE B ( id INT, ts T

退订

2021-09-09 Thread lutty shi
退订 发自 网易邮箱大师

Re: 退订

2021-09-09 Thread Caizhi Weng
Hi! 退订中文邮件列表请发送任意内容的邮件到 user-zh-unsubscr...@flink.apache.org,其他邮件列表退订邮箱参见 https://flink.apache.org/community.html#mailing-lists lutty shi 于2021年9月10日周五 下午1:37写道: > 退订 > > > > > > > > 发自 > target='_blank' style='text-decoration: none; color: #12'>网易邮箱大师 > > >

回复: flink oss ha

2021-09-09 Thread wang xiguang
您好: 确认endpoint,ak,sk都正确,又尝试使用oss做状态后端,也是一样的报错。[cid:image003.png@01D7A64D.72A24A10] 看报错是com.aliyun.oss.OSSClient.listObjects方法报的。于是我用普通springboot程序使用oss客户端调用该方法,结果调用正常: [cid:image005.png@01D7A64D.72A24A10] 使用的aliyun-sdk-oss版本与flink插件flink-oss-fs-hadoop-1.13.2.jar中的一致(3.4.1),oss的endpoint,buck

回复: flink oss ha

2021-09-09 Thread wang xiguang
抱歉图片又被吞了,附件是图片 从 Windows 版邮件发送 发件人: wang xiguang 发送时间: 2021年9月10日 14:09 收件人: user-zh@flink.apache.org 主题: 回复: flink oss ha 您好: 确认endpoint,ak,sk都正确,又尝试使用oss做状态后端,也是一样的报错。[cid:ima