我的是hadoop-2.10,flink-sql-connector-hive-1.2.2_2.11-1.11.1.jar。

> 2020年10月16日 下午12:01,Jeff Zhang <zjf...@gmail.com> 写道:
> 
> 你是hadoop2 吗?我记得这个情况只有hadoop3才会出现
> 
> 
> gangzi <1139872...@qq.com> 于2020年10月16日周五 上午11:22写道:
> 
>> TM
>> 的CLASSPATH确实没有hadoop-mapreduce-client-core.jar。这个难道是hadoop集群的问题吗?还是一定要shade-hadoop包,官方不推荐shade-hadoop包了。
>> 
>>> 2020年10月16日 上午10:50,Jeff Zhang <zjf...@gmail.com> 写道:
>>> 
>>> 你看看TM的log,里面有CLASSPATH的
>>> 
>>> gangzi <1139872...@qq.com> 于2020年10月16日周五 上午10:11写道:
>>> 
>>>> 我按照flink官方文档的做法,在hadoop集群每个节点上都:export HADOOP_CLASSPATH =`hadoop
>>>> classpath`,但是报:java.lang.NoClassDefFoundError:
>>>> org/apache/hadoop/mapred/JobConf
>>>> 
>>>> 
>> 不知道这个是不是flink的bug,按照这个报错,是缺少:hadoop-mapreduce-client-core.jar这个jar包,但是这个包是在/usr/local/hadoop-2.10.0/share/hadoop/mapreduce/*:这个目录下的,这个目录是包含在HADOOP_CLASSPATH上的,按理说是会加载到的。
>>>> 
>>>>> 2020年10月16日 上午9:59,Shubin Ruan <zjuruanshu...@163.com> 写道:
>>>>> 
>>>>> export HADOOP_CLASSPATH=****************
>>>> 
>>>> 
>>> 
>>> --
>>> Best Regards
>>> 
>>> Jeff Zhang
>> 
>> 
> 
> -- 
> Best Regards
> 
> Jeff Zhang

回复