Hi
非常感谢您的回复,state-processor-api我也尝试过,SQL生成的job
graph没办法获取到每个算子的UID,所以state-processor-api也无法获取原来的state信息,没办法操作state,如果有更好的解决方案麻烦再回复一下邮件哈
感谢
在 2021-05-20 10:46:22,"Yun Tang" 写道:
>Hi
>
>BaseRowSerializer 已经在Flink-1.11 时候改名成 RowDataSerializer了,即使用
>state-processor-API 也没办法处理当前
Hi
BaseRowSerializer 已经在Flink-1.11 时候改名成 RowDataSerializer了,即使用
state-processor-API 也没办法处理当前不存在的类,可能有种比较复杂的办法是自己把 BaseRowSerializer
的类不改变package的情况下拷贝出来,然后用 state-processor-API 将相关类强制转换成
RowDataSerializer,不过考虑到你的job graph都是SQL生成的,state-processor-API面向地更多的是data
stream API,这一块估计还挺难弄的,确实没有想到特别好的办
退订
周德虎
电话:15021351770
邮箱:zander0...@163.com
请问是要用正则表达式匹配数据库中的table吗?‘org.users’ 是一个正则表达式吗?
Best,
Shengkai
Asahi Lee <978466...@qq.com> 于2021年5月19日周三 下午2:01写道:
> hi!
> flink jdbc 是否有考虑支持表基于模式查询?如下 table-name写法:
> CREATE TABLE MyUserTable ( id BIGINT, name STRING, age INT, status
> BOOLEAN, PRIMARY KEY (id) NOT ENFORCED ) WI
??taskManager??queryable-state.proxy.ports??0??proxy
数据库的字段字符编码
在 2021-05-18 18:19:31,"casel.chen" 写道:
>我的URL连接串已经使用了 useUnicode=true&characterEncoding=UTF-8 结果还是会有乱码
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>
>在 2021-05-18 17:21:12,"王炳焱" <15307491...@163.com> 写道:
>>你在flinkSQL连接mysql表的时候配置url=jdbc:mysql://127.0.0.1:3306/database?useUnicode=
你好,
Flink暂时没有计划支持hive的ACID表。目前hive connector的代码无法保证ACID语义,所以即使你去掉“Reading or
writing ACID table %s is not supported”这个检查也达不到预期的效果。
是否考虑将ACID表迁移到数据湖中呢,比如iceberg有相应的迁移工具[1]。
[1] https://iceberg.apache.org/spark-procedures/#table-migration
On Wed, May 19, 2021 at 1:16 PM youngysh wrote:
> hi
>
>