您好,远程调用这样操作是不行的呢,这样只适合本地调用的。感谢。


| |
王健
|
|
13166339...@163.com
|
签名由网易邮箱大师定制
在2021年11月26日 11:18,liuyehan<lyh1067341...@163.com> 写道:
您好:
可以尝试下在/etc/profile文件里配置
export HADOOP_CLASS PATH=`hadoop classpath`
我是这样解决的。



| |
lyh1067341434
|
|
邮箱:lyh1067341...@163.com
|
发自 网易邮箱大师




---- 回复的原邮件 ----
| 发件人 | 王健<13166339...@163.com> |
| 日期 | 2021年11月26日 10:59 |
| 收件人 | user-zh<user-zh@flink.apache.org> |
| 抄送至 | |
| 主题 | flink远程调用时环境变量问题 |


大佬们:
远程调用flink启动任务,如何解决hadoop的环境变量问题呢,像java,hbase其他的环境变量都可以通过在flink-conf.yaml配置文件里配置,但是hadoop配置env.hadoop.conf.dir不起作用。
可能是需要增加export HADOOP_CLASSPATH=`$HADOOP_HOME/bin/hadoop 
classpath`,但是这个是不能在flink-conf.yaml配置吧


急求解决,万分感谢



| |
王健
|
|
13166339...@163.com
|
签名由网易邮箱大师定制

回复