Re: Native Kubernetes 需要访问HDFS
对,是的,自动ship hadoop配置是从1.11开始支持的 在1.10的版本你需要把配置打到镜像里面 Best, Yang Akisaya 于2020年12月21日周一 下午5:02写道: > 1.10 版本好像还没有支持,看了下 1.10 代码里创建 cm 的时候没有去读取 hadoop 配置 > > Yang Wang 于2020年12月19日周六 上午12:18写道: > > > 你可以在Flink client端设置HADOOP_CONF_DIR环境变量即可,这样会自动ship > > hadoop的配置并且挂载给JobManager和TaskManager的 > > > > Best, > > Yang > > > > liujian <13597820...@qq.com> 于2020年12月18日周五 下午5:26写道: > > > > > Hi: > > > 在使用Native Kubernetes > > > 需要访问HDFS,已经将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar放到lib目录 > > > 但是hdfs是HA,那么就需要hdfs-site.xml等文件了,那么是如何指定这个文件呢 > > >
Re: Native Kubernetes 需要访问HDFS
1.10 版本好像还没有支持,看了下 1.10 代码里创建 cm 的时候没有去读取 hadoop 配置 Yang Wang 于2020年12月19日周六 上午12:18写道: > 你可以在Flink client端设置HADOOP_CONF_DIR环境变量即可,这样会自动ship > hadoop的配置并且挂载给JobManager和TaskManager的 > > Best, > Yang > > liujian <13597820...@qq.com> 于2020年12月18日周五 下午5:26写道: > > > Hi: > > 在使用Native Kubernetes > > 需要访问HDFS,已经将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar放到lib目录 > > 但是hdfs是HA,那么就需要hdfs-site.xml等文件了,那么是如何指定这个文件呢 >
Re: Native Kubernetes 需要访问HDFS
你可以在Flink client端设置HADOOP_CONF_DIR环境变量即可,这样会自动ship hadoop的配置并且挂载给JobManager和TaskManager的 Best, Yang liujian <13597820...@qq.com> 于2020年12月18日周五 下午5:26写道: > Hi: > 在使用Native Kubernetes > 需要访问HDFS,已经将flink-shaded-hadoop-2-uber-2.8.3-10.0.jar放到lib目录 > 但是hdfs是HA,那么就需要hdfs-site.xml等文件了,那么是如何指定这个文件呢