Re: debezium-json数据timestamp类型时区问题

2022-11-24 文章 Leonard Xu
你在Oracle 数据库中的数据类型是TIMESTAMP 还是 TIMESTAMP WITH LOCAL TIME ZONE? 我猜是后者,如果是后者直接在Flink SQL 里TIMESTAMP_LTZ 类型去映射就可以了 Oracle 的TIMESTAMP LTZ 类型和Flink SQL的TIMESTAMP LTZ类型含义和存储都是一致的语义,即epoch mills,存储时不需要时区。这两个类型都是在各自的系统中在在需要查看这些数据时,需要用 session 时区从epoch mills 转换成可读timestamp格式的字符串。 Oracle 设置session

Re: flink 新特性

2022-11-24 文章 guozhi mang
hi,你可以访问这里 https://flink.apache.org/blog/ 也可以访问 apache flink 公众号 guanyq 于2022年11月24日周四 19:18写道: > 请问flink每个版本的新特性在哪里有介绍. -- Best regards

flink 新特性

2022-11-24 文章 guanyq
请问flink每个版本的新特性在哪里有介绍.

支持oracle、sqlserver、db2 jdbc catalog

2022-11-24 文章 melin li
flink jdbc catalog 只支持mysql pg,有计划支持oracle、sqlserver、db2 数据库?

回复:如何能正确的获取任务总写入量?

2022-11-24 文章 JasonLee
hi 你可以把之前的历史值保存下来,比如保存在状态里面或者第三方存储,任务重启后在加上之前的值。 Best JasonLee 回复的原邮件 | 发件人 | 陈佳豪 | | 发送日期 | 2022年11月24日 18:18 | | 收件人 | | | 主题 | 如何能正确的获取任务总写入量? | 大佬们好 背景: 业务端想基于flink

Re: 回复:Flink HIve 文件压缩报错

2022-11-24 文章 yuxia
目前还没办法解决,目前就只能重跑了。主要为了 exactly once 语义的。不然就会丢失这个被删除的文件的数据了。 其实如果接受非 exactly once 语义 的话,我们可以让 flink 继续跑,不过目前这个还没实现。 Best regards, Yuxia - 原始邮件 - 发件人: "迎风浪子" <576637...@qq.com.INVALID> 收件人: "user-zh" 发送时间: 星期四, 2022年 11 月 24日 下午 5:55:00 主题: 回复:Flink HIve 文件压缩报错