发送时间: Saturday, August 10, 2019 5:58:02 PM
收件人: user-zh
主题: Re: flink1.10版本连接hive报错
hi 苏欣:
建议先检查一下最后打的 jar 包里面是否包含了 com.hadoop.compression.lzo.LzoCodec 和
com.hadoop.compression.lzo.LzoCodec
苏 欣 于2019年8月9日周五 下午5:41写道:
> 使用flink版本为1.10-snapshot,连接hive版本为1.1.0-cdh5.4.7,大数据集群有kerberos认证。
>
&
hi 苏欣:
建议先检查一下最后打的 jar 包里面是否包含了 com.hadoop.compression.lzo.LzoCodec 和
com.hadoop.compression.lzo.LzoCodec
苏 欣 于2019年8月9日周五 下午5:41写道:
> 使用flink版本为1.10-snapshot,连接hive版本为1.1.0-cdh5.4.7,大数据集群有kerberos认证。
>
> 我是用1.2.1的方式连接hive的。hiveCatalog可以取到表结构,但在启动作业的时候报错,Standalone模式和yarn模式都报同样的错。
>