请问,我们有一个需求;需要把 mysql 数据通过CDC 方案实时同步到 hive 数据库,flink 同步的时候正对 update 和 delete
操作是否有什么解决方案?
**
Thanks & Best Regards!
杉欣集团-技术研究院 云平台
钟保罗
上海浦东新区东方路3261号振华广场B座23楼(杉欣集团)
email: zhongbao...@shxgroup.net
手机: 18157855633
ngtai";
String hiveConfDir = options.getHiveConfDir();
//"/Users/zhongbaoluo/Applications/app/apache-hive-3.1.2/conf"; // a local path
String version = "3.1.2";
String sql = options.getSql();
HiveUtils.hiveConfDir(hiveConfDir);
Hi
你好!
我想咨询一下,在 flink 1.11.1 版本里面用 application 模式在包在hdfs上运行 HiveCatalog。
查询元数据之类的都能执行成功,查询数据插入数据执行失败,也没有找到异常。 yarn 状态就是失败,数据也没有执行成功。 本地执行或者jar
包在本地的方式提交都能执行成功。 我想质询一下这个问题
谢谢
**
Thanks & Best Regards!
杉欣集团-技术研究院 云平台