om 于2024年6月25日周二 17:26写道:
数据没问题
"ID" "NAME" "ADDTIME""PRICE"
1 "aa" 2024-6-25 14:21:33 12.22
发件人: 15868861416
发送时间: 2024-06-25 17:19
收件人: user-zh@flink.apache.org
主题: 回复:cdc读取oracle数据如何解析
检查一下oracle中的DEBEZIUM.PRODUCTS这
检查一下oracle中的DEBEZIUM.PRODUCTS这个表的数据,看你解析中有字符串
| |
博星
|
|
15868861...@163.com
|
回复的原邮件
| 发件人 | ha.fen...@aisino.com |
| 发送日期 | 2024年06月25日 15:54 |
| 收件人 | user-zh |
| 主题 | cdc读取oracle数据如何解析 |
根据文档的代码
JdbcIncrementalSource oracleChangeEventSource =
new OracleSourceBuilder()
参考这个案例试试:
CREATE TEMPORARY TABLE datagen_source (
a INT,
b BIGINT,
c STRING,
`proc_time` AS PROCTIME()
) WITH (
'connector'='datagen'
);
CREATE TEMPORARY TABLE hbase_dim (
rowkey INT,
family1 ROW,
family2 ROW,
family3 ROW
) WITH (
'connector'='cloudhbase',
'table-name'='',
各位大佬,
背景:
实际测试flink读Kafka 数据写入hudi, checkpoint的间隔时间是1min,
state.backend分别为filesystem,测试结果如下:
写hudi的checkpoint 的延迟
写iceberg得延迟:
疑问: hudi的checkpoint的文件数据比iceberg要大很多,如何降低flink写hudi的checkpoint的延迟?
| |
博星
|
|
15868861...@163.com
|