您好,远程调用这样操作是不行的呢,这样只适合本地调用的。感谢。
| | 王健 | | 13166339...@163.com | 签名由网易邮箱大师定制 在2021年11月26日 11:18,liuyehan<lyh1067341...@163.com> 写道: 您好: 可以尝试下在/etc/profile文件里配置 export HADOOP_CLASS PATH=`hadoop classpath` 我是这样解决的。 | | lyh1067341434 | | 邮箱:lyh1067341...@163.com | 发自 网易邮箱大师 ---- 回复的原邮件 ---- | 发件人 | 王健<13166339...@163.com> | | 日期 | 2021年11月26日 10:59 | | 收件人 | user-zh<user-zh@flink.apache.org> | | 抄送至 | | | 主题 | flink远程调用时环境变量问题 | 大佬们: 远程调用flink启动任务,如何解决hadoop的环境变量问题呢,像java,hbase其他的环境变量都可以通过在flink-conf.yaml配置文件里配置,但是hadoop配置env.hadoop.conf.dir不起作用。 可能是需要增加export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop classpath`,但是这个是不能在flink-conf.yaml配置吧 急求解决,万分感谢 | | 王健 | | 13166339...@163.com | 签名由网易邮箱大师定制