你只需要在Flink Client端设置HADOOP_CONF_DIR的环境就可以了
Flink
Client会自动把hdfs-site.xml、core-site.xml文件通过创建一个单独ConfigMap,然后挂载给JobManager和TaskManager的
同时这两个配置也会自动加载到classpath下,只需要lib下放了flink-shaded-hadoop,就不需要做其他事情,可以直接访问hdfs的


Best,
Yang

liujian <13597820...@qq.com> 于2020年12月19日周六 下午8:29写道:

>
> HDFS是Ha模式,需要指定hdfs-site.xml,这该怎么处理,使用configMap还是将hdfs-site.xml放入到$FLINK_HOME/conf目录下
>
>
> ------------------&nbsp;原始邮件&nbsp;------------------
> 发件人:
>                                                   "user-zh"
>                                                                     <
> danrtsey...@gmail.com&gt;;
> 发送时间:&nbsp;2020年12月16日(星期三) 晚上7:21
> 收件人:&nbsp;"superainbower"<superainbo...@163.com&gt;;
> 抄送:&nbsp;"user-zh"<user-zh@flink.apache.org&gt;;
> 主题:&nbsp;Re: flink-shaded-hadoop-2-uber版本如何选择
>
>
>
>
> 如果是在K8s上面访问hdfs,还是需要把flink-shaded-hadoop放到lib目录下,因为目前hadoop的FileSystem并不支持plugin加载
>
> Best,
> Yang
>
> superainbower <superainbo...@163.com&gt; 于2020年12月16日周三 下午6:19写道:
>
> &gt; 借楼请问下,部署到K8S上怎么访问HDFS呢,目前我还是把shaded的jar打到镜像里面去
> &gt; 在2020年12月16日 10:53,Yang Wang <danrtsey...@gmail.com&gt; 写道:
> &gt;
> &gt; 以flink-shaded-hadoop-2-uber的2.8.3-10.0为例
> &gt;
> &gt; 2.8.3指的hadoop的版本,10.0指定的flink-shaded[1]的版本
> &gt;
> &gt;
> 社区从1.10开始不再推荐使用flink-shaded-hadoop的方式,而且通过设置HADOOP_CLASSPATH环境变量来提交[2],
> &gt; 这样可以让Flink变得hadoop free,从而同时支持hadoop2和hadoop3
> &gt;
> &gt; 如果你还坚持使用flink-shaded-hadoop,那就建议使用最新的版本就可以了2.8.3-10.0
> &gt;
> &gt;
> &gt; [1]. https://github.com/apache/flink-shaded
> &gt; [2].
> &gt;
> &gt;
> https://ci.apache.org/projects/flink/flink-docs-master/deployment/resource-providers/yarn.html#preparation
> &gt
> <https://ci.apache.org/projects/flink/flink-docs-master/deployment/resource-providers/yarn.html#preparation&gt>
> ;
> &gt; Best,
> &gt; Yang
> &gt;
> &gt; 赢峰 <si_ji_f...@163.com&gt; 于2020年12月11日周五 上午8:45写道:
> &gt;
> &gt; &gt; flink-shaded-hadoop-2-uber版本如何选择?
> &gt; &gt;
> &gt; &gt;
> &gt; &gt; xxx-xxx 分别表示什么意思?
> &gt; &gt;
> &gt; &gt;
> &gt; &gt;
> &gt;
> &gt;

回复