Re:hive 进行 overwrite 合并数据后文件变大?

2022-02-21 文章
是不是数据重复了,如果是ORC格式可以尝试执行alter table table_name partition (pt_dt='2021-02-20') concatenate 语句进行小文件的合并。     -- Original -- From: "RS"; Date: 2022年2月22日(星期二) 上午9:36 To: "user-zh"; Subject: hive 进行 overwrite 合并数据后文件变大?   Hi, flink写hive任务,checkpoint周期配置的比较短,生成了很多小文件,一天

Re: Flink On Yarn HA 部署模式下Flink程序无法启动

2021-08-17 文章
您好,我的版本是1.13.1     -- Original -- From:  "Yang Wang"https://issues.apache.org/jira/browse/FLINK-19212 Best, Yang 周瑞

Flink On Yarn HA 部署模式下Flink程序无法启动

2021-08-16 文章
您好:Flink程序部署在Yran上以Appliation Mode 模式启动的,在没有采用HA 模式的时候可以正常启动,配置了HA之后,启动异常,麻烦帮忙看下是什么原因导致的. HA 配置如下: high-availability: zookeeper high-availability.storageDir: hdfs://mycluster/flink/ha high-availability.zookeeper.quorum: zk-1:2181,zk-2:2181,zk-3:2181 high-availability.zookeeper.path.root: /flin

Flink HIve 文件,上游Kafak数据很大的时候,无法完成checkpoint

2021-08-11 文章
您好,Flink Hive 当上游的Kafka数据量特别大的时候,发现checkpoint一直无法完成,5分钟后报错了。请问这个问题要怎么解决

Re: Flink HIve 文件压缩报错

2021-08-11 文章
您好:   这个文件确实不存在了,这种情况目前怎样设置可以让作业继续跑     -- Original -- From:  "Rui Li"

Flink HIve 数据写入后查询无数据

2021-08-10 文章
您好:Flink 写入Hive的时候数据已经写进去了,但是中间发生了异常导致这里的文件没有compact,Hive数据表查不出数据,后续的Flink程序启动后由于数据不再写入这个分区。导致该分区的数据一直无法compact.请问这种异常需要怎么解决,有手动修复的方法么?

Flink HIve 文件压缩报错

2021-08-10 文章
您好:Flink 写入Hive的时候,在压缩文件的时候有个待压缩的文件丢失了,导致Flink程序一直在不断重启,请问文件丢失是什么原因导致的,这种情况怎么能够让Flink程序正常启动 2021-08-10 19:34:19 java.io.UncheckedIOException: java.io.FileNotFoundException: File does not exist: hdfs://mycluster/user/hive/warehouse/test.db/offer_69/pt_dt=2021-8-10-72/.uncompacted-part-b2108114-b9

Application Mode 模式部署失败

2021-07-29 文章
您好:Flink Appliaction mode 模式启动失败,启动命令和错误日志如下./flink run-application -t yarn-application \ -yD yarn.application.name="MyFlinkApp" \ -yD yarn.provided.lib.dirs="hdfs://10.10.98.226:8020/user/myflink/flink-common-deps/libs/yarn-flink-1.13.0/lib/;hdfs://10.10.98.226:8020/user/myflink/flink-common-de

Application Mode 模式部署失败

2021-07-29 文章
您好: 我的   

savepopint 调试

2021-06-23 文章
您好:     我的savepoint数据有些问题,想在本地调试,请问在IDEA本地启动Flink程序的时候如何设置从指定savepoint的地址恢复启动

Re:Re:flink1.12版本,yarn-application模式Flink web ui看不到日志

2021-06-07 文章
我这也是,只有这些日志 prelaunch.out0.07 prelaunch.err0 taskmanager.out0 taskmanager.err     -- Original -- From:  "smq"<374060...@qq.com>; Date:  Mon, Jun 7, 2021 03:49 PM To:  "周瑞"http://apache-flink.147419.n8.nabble.com/ &amp;gt;&amp;gt;

Re:flink1.12版本,yarn-application模式Flink web ui看不到日志

2021-06-07 文章
您好请问这个问题解决了么,我也遇到了同样的问题,在Standalone模式下日志是可以正常输出的,部署到yarn之后只有error日志了     -- Original -- From:  "smq"<374060...@qq.com>; Date:  Fri, Jun 4, 2021 07:06 PM To:  "r pp"http://apache-flink.147419.n8.nabble.com/ >> > >> > >> > >> > -- &g

kafka exactly-once语义下,从svaepoint恢复报错

2021-06-01 文章
您好:kafka在exactly-once语义下,从svaepoint恢复报错。初步排查认为是kafka事务使用了旧的epoch。请问这个问题怎么处理? //todo 通过配置传进来 env.setParallelism(1); env.enableCheckpointing(60L, CheckpointingMode.EXACTLY_ONCE); // checkpoint的清除策略(即使任务被显示地取消也会保留checkpoint) env.getCheckpointConfig() .enableExternalizedCheckpoints(Checkp