flink version:flink-1.13.5
cdc version:2.1.1
在使用flinkcdc同步多个表时遇到报错:
org.apache.flink.runtime.JobException: Recovery is suppressed by
FixedDelayRestartBackoffTimeStrategy(maxNumberRestartAttempts=3,
backoffTimeMS=1)
at
最近在扩展flink sql jdbc
connector以支持phoenix数据库,测试debug的时候发现数据能够通过PhoenixStatement.executeBatch()写入,但因为没有提交事务,所以其他人看不到。
Hi!
图片不能显示,建议传到 imgur 等外部图床上,并在邮件里贴出链接。
虽然看不到图片,但看描述应该是一个已知问题 [1],只是目前还没人修复。
[1] https://issues.apache.org/jira/browse/FLINK-24677
jianjianjianjianjianjianjianjian <724125...@qq.com.invalid> 于2022年2月14日周一
15:40写道:
> 老师们,你们好:
> 在使用jdbc connector写入操作时,*写入一条错误数据*(字段值超长)后*不再写入数据*
>
Hi!
图片不能显示,建议传到 imgur 等外部图床上,再把链接贴到邮件里。
设置 state ttl 之前 sink 数据能一直更新吗?确认不是因为后来的数据不符合某些 where 条件导致的吗?
liangjinghong 于2022年2月12日周六 14:39写道:
> 你好,我是一个flink新手。为了进行状态管理,我在代码中设置了configuration.setString("table.exec.state.ttl","12h");
>
> 然而,在flink作业运行12小时后,*我的update结果表再也没有更新过*。从web
各位老师好:
执行下面代码导致所有节点磁盘占满,在本地调试时C盘也沾满了
文件名称:flink-netty-shuffle-b71f58a6-0fdb-437f-a6b8-6b0bbedd3dfa
说明:
1. 批处理模式
2.本地测试时输入目录oneDay和long大小在1G左右,启动程序后会把C(C:\Users\xxx
\AppData\Local\Temp)盘剩余的几十G空间占满,部署到集群后,也会逐渐占满各节点磁盘
各位老师们好,以下代码在开发环境中可以执行,打包部署后报错:
代码:
CREATE VIEW used_num_common
(toolName,region,type,flavor,used_num)
AS
select info.toolName as toolName,r.regionName as
region,f.type,f.flavor,count(1) as used_num from
tbl_schedule_job/*+ OPTIONS('server-id'='1001-1031') */ job
join
tbl_schedule_task/*+