Hi, 是Hive表吧? https://issues.apache.org/jira/browse/FLINK-19121 在1.11.3中才fix,这个是影响性能的
可以下载最新的1.11分支的Hive依赖来试下: https://repository.apache.org/snapshots/org/apache/flink/ (比如你用hive-1.2.2依赖,你可以下载 https://repository.apache.org/content/groups/snapshots/org/apache/flink/flink-sql-connector-hive-1.2.2_2.11/1.11-SNAPSHOT/flink-sql-connector-hive-1.2.2_2.11-1.11-20201008.202441-190.jar ) Best, Jingsong On Fri, Oct 9, 2020 at 3:50 PM me <m...@lishiyu.cn> wrote: > dataStream读取速度在5000条每秒,没有其他的处理逻辑,仅仅是将datastream 转换为table > > > 原始邮件 > 发件人: me<m...@lishiyu.cn> > 收件人: user-zh<user-zh@flink.apache.org> > 发送时间: 2020年10月9日(周五) 15:34 > 主题: flink1.11流式写入hive速度慢的问题 > > > flink1.11 将datastream转为table之后,再流式的写入hive表中,发现写入速度只有几十条每秒 > val chaitin_test = tableEnv.fromDataStream(dataStream,'test) > chaitin_test.printSchema() > tableEnv.executeSql("insert into chaitin_test select test from " + > chaitin_test) -- Best, Jingsong Lee